Gen-Konstrukt bekämpft metabolisches Syndrom

Medienmitteilung der ETH Zürich vom 17.12.2012

Forscher um ETH-Professor Martin Fussenegger haben ein neues genetisches Netzwerk geschaffen, das mit einem Schlag die verschiedenen Krankheitsbilder des sogenannten metabolischen Syndroms kurieren könnte. Bei Mäusen funktioniert es bereits.

Zu viel vom falschen Essen, zu wenig Bewegung: Immer mehr Menschen in Industrienationen zollen früher oder später ihrer Lebensweise Tribut. Bluthochdruck, veränderte Blutfettwerte, Insulinresistenz als Vorläufer von Diabetes und Bauchfett sind charakteristisch für das metabolische Syndrom. Dieses ist für die Entstehung von koronaren Herzkrankheiten der entscheidende Risikofaktor. Weltweit sterben heute mehr Menschen an Herzkranzgefässerkrankungen als an Krebs.

Doch bislang gibt es keine ganzheitliche Therapie gegen das unheilvolle metabolische Syndrom. Die Medizin diagnostiziert und behandelt jedes einzelne Krankheitsbild des Syndroms separat. «Dabei sind alle diese Krankheiten miteinander verknüpft», sagt ETH-Professor Martin Fussenegger vom Departement Biosysteme in Basel. Seine Forschungsgruppe hat nun einen Ansatz gefunden, mit dem alle Krankheitsbilder des metabolischen Syndroms gleichzeitig therapiert werden können.

Blutdrucksenker startet Kaskade

Die Biotechnologen haben eine synthetische Signalkette aus verschiedenen biologischen Molekülen konstruiert, die mit dem Blutdruck senkenden Medikament Guanabenz startet und sich durch dessen Dosis kontrollieren lässt. Auf das Startsignal hin kommt in der Zelle eine Kettenreaktion in Gang, die in der Herstellung eines «Superhormons» gipfelt. Dieses besteht unter anderem aus GLP1, das über eine molekulare Brücke mit Leptin verbunden wird. GLP1 senkt den Blutzuckerspiegel, Leptin hemmt das Hungergefühl und spielt deshalb eine wichtige Rolle bei der Regulierung des Fettstoffwechsels.

Die Kombination aus dem bereits für die Klinik zugelassenen Medikament Guanabenz und dem durch das synthetische Signal erzeugte „Superhormon“ bekämpft gleichzeitig alle drei Krankheitsbilder des metabolischen Syndroms. Getestet haben die Forscher ihr Netzwerk in einem Modellversuch mit diabetischen, fettleibigen und unter Bluthochdruck leidenden Mäusen. Diesen Tieren fehlt das Sättigungshormon Leptin. Sie haben deshalb stets Hunger und fressen mehr, als ihnen gut tut. Ihnen pflanzten die ETH-Biotechnologen ein Implantat mit 10 Millionen Zellen, von denen jede einzelne den künstlichen Signalweg enthielt, unter die Haut.

Konstrukt in Maus erfolgreich

Auf Guanabenz sprachen die Tiere sehr gut an: Die Konzentration von GLP1 und Leptin stieg markant an, und 24 Stunden nach Abgabe des Medikaments erhöhte sich aufgrund des GLP1-Gehalts auch die Insulinsekretion. Nach nur drei Tagen sanken im Blut die Pegel von Cholesterin und weiteren freien Fettsäuren – ein gutes Zeichen, dass sich die Tiere vom metabolischen Syndrom erholen. Das überschüssige Guanabenz, das nicht für die Aktivierung des Netzwerkes gebraucht wurde, senkte überdies den Blutdruck ab.

«Diese Verfahren ist auch für eine Therapie des metabolischen Syndroms beim Menschen realistisch», schätzt Fussenegger. GLP1 wird bereits heute als Alternative zu Insulin im Kampf gegen Diabetes verabreicht. Leptin hingegen müsste durch ein anderes, ähnlich wirkendes Hormon ersetzt werden. «Leptin hat die Hoffnung als Therapeutikum gegen Fettleibigkeit nicht erfüllt, weil fettleibige Patienten genügend Leptin haben, dagegen aber resistent geworden sind», erklärt der ETH-Professor. Er ist aber zuversichtlich, dass sie eine Alternative als Sättigungshormon in ihr Netzwerk einbauen können. Leptin hätten sie lediglich eingesetzt, um das Prinzip zu beweisen. Selbst wenn er überzeugt ist, dass ein in dieser Weise konzipiertes Gen-Konstrukt das metabolische Syndrom mit seinen vielfältigen Krankheitsbildern therapieren könnte, möchte Fussenegger derzeit kein Versprechen abgeben, wann ein entsprechendes Produkt auf den Markt kommt.

Bei der Planung und beim Aufbau dieses Netzwerkes konnten die Forscher auf ihr bisheriges Know-how zurückgreifen. Die Wissenschaftler haben bereits Gen-Netzwerke gegen Diabetes oder Gicht mit ähnlichen biologischen Komponenten zusammengebaut.

Veröffentlichung:
Ye H, Charpin-El Hamri G, Zwicky K, Christen M, Folcher M, Fussenegger M. Pharmaceutically controlled designer circuit for the treatment of the metabolic syndrome. PNAS online, doi: 10.1073/pnas.1216801110.

Externer Link: www.ethz.ch

Der weltweit erste biegbare und transparente Bildsensor

Presseaussendung der JKU Linz vom 17.12.2012

Ein Forschungsdurchbruch ist dem Institut für Computergrafik der JKU gelungen: Prof. Oliver Bimber und Alexander Koppelhuber M.Sc. haben einen revolutionären neuen Bildsensor entwickelt. Es handelt sich dabei um die weltweit ersten biegbaren und völlig transparenten Bildsensoren – made in Austria.

Seit eineinhalb Jahren forschen die beiden JKU-Wissenschafter in Kooperation mit Microsoft Research in Cambridge an dieser flexiblen Sensor-Lösung. „Einstweilen handelt es sich noch um Grundlagenforschung“, erklärt Prof. Bimber. „Aber die ersten Prototypen existieren bereits.“

Flexible Folien

Im Prinzip handelt es sich um eine durchsichtige Folie, die mit fluoreszierenden Partikeln dotiert ist. Sie absorbiert Licht einer bestimmten Wellenlänge, das dann in geringerer Frequenz wieder abgegeben und an den Rand der Folie transportiert wird. Mit Photosensoren und einem speziellen optischen Trick können die Lichtanteile gemessen werden, die den Folienrand an jeder Stelle und aus jeder Richtung erreichen. Bei den vermessenen Daten handelt es sich um ein zwei-dimensionales Lichtfeld, welches innerhalb der Folie transportiert wird. Ähnlich wie bei der Computer-Tomografie kann aus diesen Daten das Bild rekonstruiert werden, das auf der Folienoberfläche abgebildet wird.

Die Vorteile sind enorm: Die Folie ist leicht, völlig transparent, skalierbar in jede Größe, kann überall angebracht werden und ist extrem flexibel. Zudem ist die Herstellung ausgesprochen günstig. „Wir arbeiten momentan vor allem daran, die Bildqualität und -auflösung weiter zu erhöhen, indem sowohl Hard- als auch Software weiter entwickelt werden“, erklärt Bimber. Auch wenn der Rechenaufwand zur Bildrekonstruktion hoch ist, stellt dieses für die aktuelle Implementierung des parallelen Rekonstruktionsalgorithmusses auf Prozessoren herkömmlicher Grafikkarten kein Problem dar: Für ein Bild von 64*64 Pixel sind zum Beispiel Gleichungssysteme mit 14 Millionen Einträgen zu lösen – was momentan in einer Zeit von 0,15 Sekunden gelingt.

Höhere Flexibilität erreichbar

Im weltweiten Forschungswettlauf um neue optische Sensoren hat die JKU damit die Nase mit vorn. Die neuen Sensoren können nicht nur, beliebig groß gestaltet oder gebogen sondern auch in Schichten übereinander gelegt werden. „Damit kann man dann auch Farben aufnehmen – in untereinander liegenden Pixeln – eine Farbe pro Schicht. Bei herkömmlichen Bildsensoren werden die Farben in nebeneinander liegenden Pixeln aufgenommen, was die effektive Auflösung reduziert“, so der Grafikexperte. Auch unterschiedliche Belichtungen können nun in den verschiedenen Schichten gemessen werden. „So können helle und dunkle Bereiche gleichzeitig aufgenommen werden, und Über- oder Unterbelichtungen, wie sie mit heutigen Kameras bei kontrastreichen Szenen möglich sind, gehören der Vergangenheit an“, beschreibt Bimber.

Vielfältige Anwendungsmöglichkeiten

Der Sensor ist vor allem für neue Benutzerschnittstellen interessant. „Deshalb hat auch Mircosoft unsere Forschung für weitere drei Jahre finanziert. Künftig muss man dank unserer Technologie einen Touchscreen gar nicht mehr berühren.“ Und da die dünnen Folien auch überall und in jeder Form und Größe angebracht werden können, wäre es zudem möglich, beliebige Objekte, wie die Windschutzscheibe eines Autos, in einen Bildsensor zu verwandeln. Es ergeben sich damit grundlegend neue Anwendungspotentiale.

Nominiert ist die neue Technologie auch für den Adolf-Adam-Informatikpreis, der am 20. Dezember vergeben wird. (Christian Savoy)

Externer Link: www.jku.at

Kontrollstopp für die Proteinsynthese

Presseinformation der LMU München vom 14.12.2012

Ein schwieriger Name, eine unauffällige Abkürzung: An zentralen Stellen im Stoffwechsel jedes Lebewesens taucht der sogenannte Translations-Elongations-Faktor EF-P auf. Doch erst jetzt haben LMU-Wissenschaftler herausgefunden, wie das Molekül die Proteinsynthese beeinflusst.

Eigentlich untersucht das Team von Kirsten Jung, wie sich Bakterien an Stress anpassen, beispielsweise an einen höheren Säuregehalt in ihrer Umgebung, doch plötzlich war die Professorin für Mikrobiologie mit Fragen der Proteinsynthese beschäftigt, dem zentralen Vorgang in jeder Zelle. Um einen Säureschutz aufzubauen, brauchen Bakterien das Rezeptor-Molekül CadC, das der Zelle zunächst einmal den höheren Säuregehalt des umgebenden Mediums anzeigt. Und dass die Zelle überhaupt genügend Rezeptor-Moleküle hat, geht nicht ohne den Elongationsfaktor EF-P, stellte Jung fest.

Wieder freigeschaltet

Doch wie regelt EF-P diese Synthese und warum gerade bei einem Molekül wie CadC? Zusammen mit Daniel Wilsons Gruppe vom Genzentrum der LMU konnte Jung diesen Mechanismus erstmals beschreiben: Wenn an den sogenannten Ribosomen die Proteine nach dem genetischen Bauplan aus einzelnen Aminosäuren zusammengesetzt werden, stoppt die zelluläre Maschinerie immer dann, wenn mehrmals hintereinander der Baustein Prolin in der Aminosäurekette auftaucht. Erst EF-P schaltet die Biosynthese wieder frei. Das ist bei Bakterien so, aber auch in urtümlichen Archaeen und in Zellen höherer Lebewesen; auch dort gibt es ein EF-P-Pendant.

Jung und Wilson glauben nun, dass dies eine Art Kontrollstopp ist und der Zelle dazu dient, die Zahl der jeweils notwendigen Proteinkopien richtig einzustellen. Und da es insgesamt gut 100 Proteine mit unterschiedlichster Funktion gibt, die eine solche Abfolge von Prolin-Bausteinen aufweisen, handelt es sich dabei offenbar um ein grundlegendes Phänomen bei der Proteinsynthese – und bietet bei Bakterien womöglich einen Angriffspunkt für neuartige Antibiotika. So hatte kürzlich die Gruppe von Daniel Wilson, mit dem Kirsten Jung auch im Exzellenz-Verbund „Center for integrated Protein Science Munich“ zusammenarbeitet, ein anderes Detail zu EF-P herausgefunden: Um seine volle Aktivität zu entfalten, muss ein Enzym den Faktor modifizieren – eines, das es so im Menschen nicht gibt. (math)

Veröffentlichung:
Science Express, 13.12.2012

Externer Link: www.uni-muenchen.de

Berechenbare Sprache – Wie künstliche Stimmen menschlicher klingen

Pressemitteilung der Universität des Saarlandes vom 13.12.2012

Was macht eine menschliche Stimme aus? Bernd Möbius entschlüsselt die gesprochene Sprache, um herauszufinden, wie künstliche Stimmen mehr Charakter, mehr „menschlichen Touch“ bekommen. Hierzu übersetzt der Saarbrücker Professor für Phonetik und Phonologie Laute in Zahlen und sucht und glättet Störstellen mit einem Rechenverfahren. Ziel ist ein selbstlernendes mathematisches Modell der menschlichen Sprache, das es möglich macht, jedem beliebigen Gegenstand jede beliebige Stimme zu verleihen – ohne künstlich zu klingen.

„Den habe ich mir ganz anders vorgestellt“ – das Phänomen tritt zu Tage bei Radiomoderatoren oder Leuten, die bisher nur am Telefon miteinander zu tun hatten: Wer Menschen ausschließlich von ihrer Stimme her kennt, macht sich ein bestimmtes Bild. Da kann eine junge Frau älter wirken, ein kräftiger Mann dünner oder ein blonder Haarträger eher dunkelhaarig. Menschliche Stimmen wecken die Phantasie. „Betrachtet man die Hirntätigkeit beim Hören, ruft eine natürliche Stimme Aktivität in Arealen hervor, die für Gefühle und Assoziationen verantwortlich sind. Bei der klassischen Computerstimme ist das anders. Hört der Mensch eine künstliche Stimme, bleiben diese Areale stumm“, erläutert Professor Bernd Möbius, Saarbrücker Experte für Sprachproduktion.

Zwar sind moderne Computerstimmen in Auskunfts- oder Dialogsystemen vom blechernen Klang der abgehackten Wörter ohne Betonung bereits weit entfernt. Trotzdem hört das verwöhnte und seit jeher auf Stimmen spezialisierte menschliche Ohr die feinen Unterschiede, ob Mensch oder Maschine spricht. Werden Sätze aus Laut- und Wortschnipseln zusammengesetzt, entlarvt es selbst feinste Sprünge sofort. Fließende Sprachmelodien und sonstige Eigenheiten machen den besonderen Charakter natürlicher Stimmen aus. Fehlen sie, klingt die Stimme künstlich – und sie weckt auch keinerlei Gefühl.

Bernd Möbius forscht daran, diese Charakteristika der menschlichen Stimme herauszufinden, um sie in künstliche Stimmen hineinzurechnen und Sprungstellen und Störfaktoren aus ihnen herauszuholen. „Der Hörer soll sich eine Person hinter der Stimme vorstellen“, sagt er.

Hierzu begibt sich der Forscher mit seinem Team gewissermaßen auf die mikroskopische Ebene und betrachtet die Sprache in ihren kleinsten Einzelteilen. Zugrunde liegt ein digitalisierter Textkorpus, den ein Sprecher im Tonstudio eingesprochen hat. Die Phonetiker verwenden unter anderem die so genannte „Diphonsynthese“. Ein Diphon ist ein kurzer Sprach-Abschnitt, der in der Mitte eines Lautsegments beginnt und in der Mitte des folgenden Lautsegments endet. „Unsere Sprache kennt 45 Laute und etwa 2000 Diphone, jedes davon ist etwa 100 Millisekunden lang. Mit diesem Instrumentarium können wir auf lautlicher Ebene die gesamte Sprache abdecken“, erläutert Möbius.

In den Diphonen liegen die größten Probleme der künstlichen Stimmen verborgen: Sie enthalten etwa den Übergang zwischen den Lauten – winzige Schallsegmente, die bei der Verknüpfung der Sprachbausteine die verräterischen Sprünge hinterlassen. Diese Übergänge verkettet Möbius neu und glättet sie auf diese Weise, wodurch unstete Holperer und Sprungstellen aus der Computersprache verschwinden. „Anzahl und Häufigkeit der Übergänge lassen sich außerdem verringern, wenn es gelingt, längere Bausteine wie Silben oder ganze Wörter, die in den Sprachaufnahmen bereits verfügbar sind, wieder zu verwenden“, erklärt er. Die optimierten Sprachbausteine lassen sich in allen erdenklichen Kombinationsmöglichkeiten völlig neu zusammensetzen. Mit dieser künstlichen, aber natürlich klingenden Sprache lassen sich beliebige Äußerungen mit unbeschränktem Wortschatz erzeugen.

Das mathematische Sprachsynthese-Modell ist unabhängig von der Stimme des ursprünglichen Sprechers – dadurch ist es auf jede beliebige Stimme übertragbar. Hieraus ergeben sich in Zukunft neben den üblichen Anwendungen in Dialog- oder Auskunftssystemen auch neue Möglichkeiten in der Medizin: „Menschen, die ihre Stimme etwa durch eine Kehlkopfoperation verlieren, könnten so in nicht ferner Zukunft mit einer künstlich erzeugten Stimme sprechen, die wie ihre eigene, natürliche klingt“, stellt Möbius in Aussicht. Die Betroffenen müssten hierfür lediglich ihre Stimme im Tonstudio konservieren, wobei bereits relativ wenig „Sprach-Material“ ausreichen würde – das System könnte den Rest berechnen.

Bei seiner Forschung arbeitet Möbius an der Universität des Saarlandes unter anderem mit Computer- und Psycholinguisten sowie mit Informatikern im Exzellenzcluster „Multimodal Computing and Interaction“ und am Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI) zusammen.

Externer Link: www.uni-saarland.de

10.000 mal schneller als elektronische Transistoren

Pressemitteilung der TU München vom 06.12.2012

Lichtpulse steuern elektrische Signale:

Bis zu 100 Milliarden Schaltvorgänge können heutige Transistoren aus Silizium in einer Sekunde ausführen. Münchener Wissenschaftler zeigten nun in zwei Grundlagenexperimenten, dass mit Hilfe extrem kurzer Laserpulse moderater Energie auch nichtleitende Materialien für solche Schaltvorgänge genutzt werden könnten. Damit wären etwa 10.000 mal schnellere Schaltfrequenzen realisierbar.

Hochleistungslaser schneiden selbst dicke Stahlplatten wie Butter. Extrem kurze Laserpulse moderater Energie verschieben in nichtleitenden Materialien nur die Elektronen, zerstören das Material aber nicht.

Wissenschaftler um Professor Ferenc Krausz, Direktor am Max-Planck-Institut für Quantenphysik und Reinhard Kienberger, Physikprofessor der Technischen Universität München (TUM), zeigten nun, dass sich in nichtleitenden Materialien durch extrem kurze Laserpulse Ströme induzieren lassen, die sich um einen Faktor 10.000 mal schneller schalten lassen, als die bisher schnellsten Halbleitertransistoren. Die Schaltfrequenzen könnten so von derzeit bis zu 100 Gigahertz bis in den Petahertz-Bereich erweitert werden.

Die Forschungsarbeiten wurden unterstützt aus Mitteln des Exzellenzclusters Munich-Centre for Advaned Photonics (MAP), der Max-Planck-Gesellschaft und des U.S. Department of Energy. (Andreas Battenberg)

Originalpublikation:

1) Agustin Schiffrin, Tim Paasch-Colberg, Nicholas Karpowicz, Vadym Apalkov, Daniel Gerster, Sascha Mühlbrandt, Michael Korbman, Joachim Reichert, Martin Schultze, Simon Holzner, Johannes V. Barth, Reinhard Kienberger, Ralph Ernstorfer, Vladislav S. Yakovlev, Mark I. Stockman, and Ferenc Krausz
Optical-field-induced current in dielectrics
nature, Advanced Online Publication, 5. Dezember 2012, DOI: 10.1038/nature11567

2) Martin Schultze, Elisabeth M. Bothschafter, Annkatrin Sommer, Simon Holzner, Wolfgang Schweinberger, Markus Fiess, Michael Hofstetter, Reinhard Kienberger, Vadym Apalkov, Vladislav S. Yakovlev, Mark I. Stockman, and Ferenc Krausz
Controlling dielectrics with the electric field of light
nature, Advanced Online Publication, 5. Dezember 2012, DOI: 10.1038/nature11720

Externer Link: www.tu-muenchen.de