Ingenieure, Informatiker und Mediziner bauen virtuelle Prothese

Pressemitteilung der TU München vom 12.11.2009

Neuartiges Verfahren zur Vorbereitung von Hüftgelenk-Operationen

Mehr als eine Million Menschen im Jahr erhalten ein künstliches Hüftgelenk. Doch die Prognosen in der OP-Vorbereitung sind noch immer oft unzureichend. Ein hoher Prozentsatz der Patienten leidet deshalb an Spätfolgen des Eingriffs. Bereits geringe Abweichungen von der optimalen Form und Position der Prothese können zu einer Belastung des Knochens führen, die Entzündungen hervorruft oder langfristig Knochenschwund bewirkt. Ein interdisziplinäres Team aus Ingenieuren, Informatikern und Medizinern an der fachübergreifenden International Graduate School of Science and Engineering der Technischen Universität München (TUM) hat nun eine Methode entwickelt, um diese Risiken zu minimieren: ein virtuelles Prothese-Knochen-Modell.

Das Verfahren soll es künftig erlauben, exakte räumliche Computertomographie-Bilder (CT-Bilder) der Knochen jedes Patienten in ein Rechenmodell einzuspeisen und dann am Bildschirm zu testen: Welches Implantat passt optimal? Wie trägt der Knochen das Körpergewicht am besten? Und wie sollte die Prothese, dazu passend, angebracht werden? „Mit der neuen Simulationsmethode können wir Knochen und Prothese am Bildschirm nach Belieben mit Gewicht belasten und ihre Stellung zueinander verändern“, sagt der Projektleiter Dr. Martin Ruess, Ingenieur am TUM-Lehrstuhl für Computation in Engineering von Professor Ernst Rank.

Bislang arbeiten Mediziner bei der Vorbereitung solcher Operationen mit Röntgenbildern oder in Ausnahmefällen mit Styropor-Modellen der Knochen, die sie auf der Grundlage von CT-Bildern fräsen. An diesen Modellen lassen sich die realen Kräfteverhältnisse jedoch weder ablesen noch testen. Kraftflüsse werden zwar auch heute schon am Computer berechnet, allerdings nur für Entwicklungszwecke, wenn zum Beispiel ein neuer Typ eines künstlichen Hüftgelenks entwickelt werden soll. Eine rechnergestützte optimale Prothesen-Anpassung für einen einzelnen Patienten scheitert daran, dass allein die Aufbereitung der Daten aus dem Computertomogramm für eine einzelne Berechnung viele Stunden beansprucht und damit für die Operationsvorbereitung nicht infrage kommt.

Anders erstmals in den Computermodellen der TUM-Wissenschaftler: Sie entwickeln Verfahren, die eine Kräfteverteilung direkt nach der Tomographie in Sekundenschnelle berechnen. Damit das virtuelle Modell der Informatiker der physischen Realität entspricht, wird die Software mit Daten aus realen Knochen-Belastungstests gefüttert. Diese steuert ein Team um Privatdozent Dr. Rainer Burgkart, den Leiter der orthopädischen Forschung und Lehre am Klinikum rechts der Isar bei. Um die interaktive „virtuelle Operation“ und die verständliche Darstellung der Simulationsergebnisse kümmern sich Mitarbeiter des Lehrstuhls für Computer Graphik and Visualisierung von Professor Rüdiger Westermann. „Das System soll es schließlich einmal Ärzten erlauben, vor oder sogar während der Operation am Computer in Echtzeit auszuprobieren, wie die Hüftgelenksprothese beim Patienten am besten eingebracht wird“, sagt Projektleiter Ruess.

Externer Link: www.tu-muenchen.de

Historie in 3-D

Mediendienst der Fraunhofer-Gesellschaft vom November 2009

Dreidimensionale Computergrafiken halten Einzug ins Museum: Kunstgegenstände sollen in einem digitalen Archiv räumlich dargestellt werden. Das erleichtert Forschern die Suche nach ähnlichen Museumsexponaten und bietet Laien eine faszinierende 3-D-Schau.

Wer keine Zeit hat, nach Florenz zu reisen, der kann sich Michelangelos David-Statue im Internet anschauen. Dort rotiert David lebensecht in 3-D um seine Achse. Das lässt erahnen, was Forscher derzeit im europäischen Verbundprojekt 3D-COFORM entwickeln: ein virtuelles Archiv für Kunstgegenstände der Welt, das das museale Erbe der Menschheit digitalisieren soll. Vasen, historische Speere oder gar ganze Tempel lassen sich dreidimensional darstellen. Museumsbesucher werden damit in einigen Jahren römische Amphoren am Bildschirm drehen oder um Tempel herumfliegen können. Die virtuelle Sammlung wird vor allem Wissenschaftlern die Suche nach Vergleichsobjekten erleichtern, die von denselben Künstlern oder Völkern stammen oder vergessen in Museumskellern lagern. Das Archiv soll intelligent sein und die gespeicherten Objekte allein finden und verknüpfen. Auf Befehle wie »Zeige mir griechische Vasen aus dem sechsten Jahrhundert vor Christus mit mindestens zwei Henkeln« wird die Datenbank Exponate aus verschiedensten Sammlungen der Welt präsentieren.

Heute sind gedruckte Kataloge mit Fotos oder schriftliche Beschreibungen von Objekten Standard. Doch die Dreidimensionalität bietet große Vorteile, denn ein 3-D-Datensatz enthält den Blick auf alle Seiten des Objekts. Er liefert Informationen über die Oberflächenbeschaffenheit oder den Zustand einer Farbe – wertvolle Daten für Restauratoren. Wie die David-Statue zeigt, gibt es schon heute eindrucksvolle 3-D-Animationen von Kunstobjekten. »Von einer sinnvollen Verknüpfung dreidimensionaler Daten verschiedener Objekte jedoch sind wir weit entfernt«, sagt Dr. André Stork, Abteilungsleiter am Fraunhofer-Institut für Graphische Datenverarbeitung IGD in Darmstadt und Partner im 3D-COFORM-Konsortium.

Stork und sein Team generieren die 3-D-Modelle und bereiten sie für das digitale Archiv auf. »So ein 3-D-Scan ist nichts anderes als eine Wolke von Messpunkten. Erst durch Nachbearbeitung wird daraus ein echtes Abbild des Gegenstands«, sagt Stork. Die Forscher entwickeln Rechenvorschriften, die aus den Messdaten das eigentliche Objekt herauslesen. Sie müssen bestimmte Strukturen korrekt identifizieren – Arme von Statuen oder Säulen am Gebäude. Auch wiederkehrende Muster auf Vasen soll die Software erkennen. Zur virtuellen Präsentation gehört auch eine detailgetreue Darstellung: Das Abbild eines Tempels macht wenig Sinn, wenn man ihn nicht zusammen mit dem Schattenspiel seiner Säulen betrachten kann. Die Darmstädter kombinieren daher verschiedene Verfahren, um Lichteffekte zu simulieren.

Externer Link: www.fraunhofer.de

Das Gehirn plant im Voraus – wenn es kann

Pressemitteilung der Universität Freiburg vom 04.11.2009

Wissenschaftler aus Freiburg haben herausgefunden, dass unterschiedliche Gehirnaktivitäten die gleiche Bewegung hervorrufen können

Es hängt sehr von den konkreten Umständen ab, wie viel Aufwand unser Gehirn für die Planung und Vorbereitung einer Bewegung treiben kann. Mal greift man nach einem Objekt, das vor einem auf dem Tisch steht – man kann die Bewegung gut vorbereiten. Mal greift man danach, wenn es überraschend herunter fällt – man muss schnell reagieren und hat keine Zeit, im Voraus zu planen. Bewegungen werden hauptsächlich im motorischen Cortex des Gehirns verarbeitet. Wissenschaftler um Jörn Rickert, Bernstein Zentrum für Computational Neuroscience und Universität Freiburg, haben nun herausgefunden, dass identischen Bewegungen durchaus unterschiedliche neuronale Aktivitäten im motorischen Cortex zu Grunde liegen können – abhängig davon, wie gut die Bewegung geplant ist. Ihre Ergebnisse wurden in der jüngsten Ausgabe der Fachzeitschrift „Journal of Neuroscience“ publiziert und sind unter anderem für die Entwicklung von hirngesteuerten Prothesen für schwerstgelähmte Patienten von Bedeutung.

Um zu untersuchen, wie das Gehirn unterschiedlich gut geplante Bewegungen steuert, analysierten die Wissenschaftler die Gehirnaktivität von Rhesusaffen. Die Daten hierzu wurden am Centre National de la Recherche Scientifique in Marseille erhoben. Die Tiere saßen vor einem Bildschirm mit sechs im Kreis angeordneten Schaltflächen, von denen sie jeweils eine bestimmte berühren sollten. In einer Variante des Versuchs wurde dem Affen schon eine Sekunde bevor er zur Greifbewegung ansetzte eindeutig angezeigt, welche der Schaltflächen er betätigen sollte – sie leuchtete grün auf. Ein Farbwechsel nach rot war dann das Signal für das Tier, danach zu greifen. In anderen Varianten des Experiments wurde zunächst nur die ungefähre Richtung der Bewegung angegeben – zwei oder drei nebeneinander liegende Schaltflächen leuchteten grün auf. Nach einer Sekunde wurde dann aber nur eine der Schaltflächen rot, der Affe musste dann nach dieser greifen. Dieses Vorgehen ließ das Tier für eine Sekunde lang in relativer Unsicherheit, was genau zu tun ist. Während des gesamten Versuchsdurchlaufs wurde die Aktivität einzelner Nervenzellen im motorischen Cortex des Affen gemessen.

Mit quantitativ-statistischen Methoden untersuchten die Wissenschaftler, wie gut die Bewegungsrichtung in verschiedenen Phasen des Versuchsablaufs aus der gemessenen Aktivität der Nervenzellen ermittelt werden kann. Sie stellten fest, dass die neuronale Codierung der Bewegung stark von der Menge der zur Verfügung stehenden Information abhängt. Wenn das Bewegungsziel vorher exakt bekannt ist, bereitet das Gehirn die Bewegung genau vor. Die Bewegungsrichtung lässt sich in diesem Falle schon vor Beginn der Bewegung – während der Planungsphase – aus der Aktivität der Neurone ablesen. Wenn das Ziel nicht genau bekannt ist, kann natürlich auch nicht so gut geplant werden. Umso akkurater aber arbeiten die Neurone dann während der Ausführung der Bewegung. „Der motorische Cortex plant die Bewegungen so früh wie möglich – sobald die dafür erforderliche Information vorhanden ist“, erklärt Rickert das Resultat. Eine Planungsunsicherheit wird später dadurch kompensiert, dass die Neurone während der Bewegung genauer rechnen.

Die Ergebnisse der Freiburger Wissenschaftler gehen unter anderem in die Entwicklung von „Brain Computer Interfaces“ (BCIs) ein. Mithilfe von BCIs sollen Bewegungsinformation aus dem Gehirn ausgelesen werden, so dass schwerstgelähmte Patienten Kraft ihrer Gedanken Prothesen ansteuern können. „Unsere, wie auch andere Ergebnisse zeigen allerdings, dass es keine eindeutige Beziehung zwischen neuronaler Aktivität und Bewegung gibt“, erklärt Rickert. Nicht nur die Planungssicherheit, sondern auch Aufmerksamkeit oder Motivation können die Bewegungscodierung stark beeinflussen. „Solche Faktoren müssen bei der Dekodierung von Bewegungen aus dem Gehirn und deren Anwendung auf Brain Computer Interfaces mit berücksichtigt werden“, so Rickert.

Originalveröffentlichung:
Jörn Rickert, Alexa Riehle, Ad Aertsen, Stefan Rotter und Martin Nawrot. Dynamic encoding of movement direction in motor cortical neurons. Journal of Neuroscience, 4. November 2009

Externer Link: www.uni-freiburg.de

Das Mobiltelefon als Sprachübersetzer

Presseinformation des KIT (Karlsruher Institut für Technologie) vom 04.11.2009

Software für humanitäre Einsätze und auch für Touristen – Sekundenschnelles Feedback

Wissenschaftler aus Karlsruhe, Pittsburgh und Silicon Valley haben gemeinsam einen Sprach-zu-Sprach Übersetzer für das iPhone entwickelt, welcher jetzt über Apple vertrieben wird. Mit dieser Anwendung kann das Mobiltelefon gesprochene Englische Sprache ins Spanische und zurück übersetzen.

Jibbigo, so der Name der Übersetzungssoftware, läuft auf dem iPhone 3GS und hat ein Vokabular von etwa 40.000 Wörtern – ein perfektes Übersetzungs- und Kommunikationsgerät vor allem für humanitäre Einsätze aber auch für Touristen. Die Benutzung ist denkbar einfach: Der Nutzer spricht ein oder zwei Sätze in sein Mobiltelefon und dieses gibt umgehend die Übersetzung per Sprache und Text aus.

„Jibbigo läuft direkt auf dem iPhone und benötigt keinen Zugang zum Internet oder einem Server“, sagt Alex Waibel, Professor für Informatik am KIT und an Carnegie Mellon University, Pittsburgh, USA. „Diese Unabhängigkeit ist ein entscheidender Vorteil für Reisende oder Helfer bei humanitären Einsätzen fernab des Einzugsbereichs von Mobilfunkanlagen. Es sind gerade diese Gegenden, in denen es kaum drahtlose Hotspots gibt, wo Jibbigo am nötigsten gebraucht wird“, so Waibel. Für Touristen ein entscheidender weiterer Vorteil: Es fallen keine teuren Roaming-Gebühren an.

Waibels Forschungsgebiet ist die automatische Sprach-zu-Sprach Übersetzung, und so entwickelte er bereits in 1990 den ersten Sprach-zu-Sprach Übersetzer für Englisch, Deutsch und Japanisch. Er ist Direktor des international center for Advanced Communication Technologies (interACT), einem internationalen Forschungsverbund aus vier führenden Universitäten in diesem Bereich. „Jibbigo wurde in einer Firmenneugründung von Absolventen der interACT Partner an Standorten in drei Kontinenten in einem internationalen Team rasch entwickelt.“ Sagt Waibel. „Es zeigt, wie eingespielte internationale Teams zu erstaunlichen Leistungen fähig sind und wissenschaftliche Erkenntnisse aus der Forschung rasch und effektiv umsetzen können.“

Mehr als 6000 verschiedene Sprachen werden auf der Welt gesprochen. Jibbigo kann dazu beitragen, die Verständigung unter den Menschen ein Stück einfacher und besser zu machen. An weiteren Sprachenpaaren wird mit Hochdruck gearbeitet. (rö)

Externer Link: www.kit.edu

Großrechner erobern die Evolutionsbiologie

Pressemitteilung der TU München vom 29.10.2009

Neuer Zweig im Stammbaum der Bilateria

Tiere, deren Organismus symmetrisch aufgebaut ist, werden dem Stammbaum der Bilateria zugerechnet, auch der Mensch gehört dazu. Doch wie haben sich die einzelnen Tierarten aus ihren Urformen entwickelt? Bisher scheiterte die Berechnung von Stammbäumen aus Erbgutsequenzen an der dafür notwendigen Rechenleistung. Wissenschaftler der Technischen Universität München (TUM) haben nun Programme entwickelt, die Supercomputer in die Lage versetzen, diese Berechnungen durchzuführen. Nun können sie einen ersten großen Erfolg vorweisen.

Seit die Analyse von Erbgut durch moderne biochemische Methoden kostengünstig möglich ist, träumen Forscher davon, über den Vergleich von Erbgutsequenzen die evolutionäre Entwicklung von Tierarten rekonstruieren zu können. Bereits bessere Laborcomputer können Genanalysen durchführen. Doch für die Analyse ganzer Stammbäume ist ihre Rechenleistung zu gering. Im Rahmen einer internationalen Forschungskooperation entwickelte eine Gruppe um Bioinformatiker Dr. Alexandros Stamatakis bestehende Software-Werkzeuge so weiter, dass die notwendigen Berechnungen nun auf Höchstleistungsrechnern durchgeführt werden können.

„Mit den in den Laboren verfügbaren Rechnern ist es nicht möglich, Stammbäume aus größeren Erbgutsequenzen zu berechnen, aber für Supercomputer waren die Rechenprogramme der Evolutionsbiologen nicht geeignet,“ erläutert Michael Ott, Doktorand im Team von Stamatakis. Höchstleistungsrechner wie der des Garchinger Leibniz-Rechenzentrums schöpfen ihre Rechenleistung aus einer Vielzahl parallel arbeitender Prozessoren. Stamatakis und sein Team erweiterten daher ein Analyseprogramm so, dass es die Rechenaufgaben nun auf viele Prozessoren verteilen und die Ergebnisse wieder zusammenfügen kann. Die TUM-Wissenschaftler haben damit ein Programm geschaffen, das Evolutionsbiologen auf der ganzen Welt frei zur Verfügung steht, um ihre Forschung voran zu treiben.

Als ersten Testkandidaten wählten Kollegen an der Brown University in Providence (USA) einen nur zwei Millimeter großen Wurm mit dem Namen Acoelomorpha aus. Seine evolutionären Wurzeln waren für die Wissenschaft bisher ein Rätsel. Am Ende der umfangreichen Analyse konnten die Forscher dem Wurm jedoch eine Heimat im Stammbaum der Tiere zuweisen – an der ersten Verzweigung innerhalb der Gruppe der Bilateria. „Acoelomorpha ist von uns so weit entfernt wie ein Tier der Bilateria es nur sein kann, aber es ist bilateral. Das konnten wir nun beweisen,“ sagt Professor Casey Dunn, Evolutionsbiologe der Brown University.

Zur Entwicklung ihres Programms nutzten Stamatakis und sein Team den Garchinger Höchstleistungsrechner. Die endgültige Rechnung für Acoelomorpha wurde auf einem BlueGene Rechner in den USA durchgeführt. Mit 2,25 Millionen Prozessorstunden war dies die aufwändigste je durchgeführte Stammbaumanalyse. Nun arbeiten die Wissenschaftler an noch umfangreicheren Berechnungen und der weiteren Optimierung der Software, so dass das große Ziel – Stammbaumanalysen mit vielen Organismen unter Verwendung kompletter Genome – immer näher rückt. Die Anwendung der Software ist dabei nicht auf den Stammbaum der Bilateria beschränkt, das Prinzip ist für alle Lebewesen anwendbar.

Auf deutscher Seite wurde das Projekt vom KONWIHR und von der DFG unterstützt. Die Rechnungen wurden im San Diego Supercomputing Center durchgeführt.

Originalpublikation:
Andreas Hejnol, Matthias Obst, Alexandros Stamatakis, Michael Ott, Greg W. Rouse, Gregory D. Edgecombe, Pedro Martinez, Jaume Baguñà, Xavier Bailly, Ulf Jondelius, Matthias Wiens, Werner E. G. Müller, Elaine Seaver, Ward C. Wheeler, Mark Q. Martindale, Gonzalo Giribet and Casey W. Dunn
Assessing the root of bilaterian animals with scalable phylogenomic methods
Proceedings of the Royal Society B, Online, 16. September 2009 DOI: 10.1098/rspb.2009.0896

Externer Link: www.tu-muenchen.de