Organmodelle im OP-Saal live anpassen

Presseinformation des KIT (Karlsruher Institut für Technologie) vom 16.12.2014

Mit einem neuen Rechenverfahren übertragen Nachwuchswissenschaftler des KIT Organverformungen während computergestützter Operationen auf die zugrundeliegenden Modelle.

Bei minimalinvasiven Operationen muss ein Chirurg auf die Informationen am Bildschirm vertrauen: Wo sich ein Tumor befindet und wo sensible Gefäße, zeigt ihm ein virtuelles 3-D-Modell des entsprechenden Organs. Weiches Gewebe, wie das der Leber, verformt sich allerdings beim Atmen oder wenn das Skalpell ansetzt. Endoskopische Kameras erfassen live, wie sich die Oberfläche dabei verändert – nicht aber wie beispielsweise ein tieferliegender Tumor. Nachwuchswissenschaftler des Karlsruher Instituts für Technologie (KIT) haben nun eine echtzeitfähige Rechenmethode entwickelt, die das virtuelle Organ an das verformte Oberflächenprofil anpasst.

Das Prinzip klingt einfach: Anhand computertomographischer Bilddaten erzeugen die Wissenschaftler vor der Operation ein virtuelles 3-D-Modell des betreffenden Organs samt Tumor. Während der Operation tasten Kameras die Oberfläche des Organs ab und erstellen eine starre Profilmaske. An diesen virtuellen Abdruck soll sich das 3-D-Modell dann anschmiegen – ähnlich wie Wackelpudding an eine Form. Die Nachwuchsgruppe von Dr. Stefanie Speidel hat sich diesem geometrischen Problem der Formanpassung nun von physikalischer Seite genähert: „Wir modellieren das Oberflächenprofil als elektrisch negativ und das Volumenmodell des Organs als elektrisch positiv geladen“, erklärt Speidel. „Da sich beide nun anziehen, gleitet das elastische Volumenmodell quasi von selbst in die unbewegliche Profilmaske hinein.“ An dem angepassten 3-D-Modell kann der Chirurg direkt erkennen, wie sich der Tumor mit der Verformung des Organs verschoben hat.

Simulationen und Experimente mit einer wirklichkeitsnahen Phantomleber haben bereits gezeigt: Das elektrostatisch-elastische Verfahren der Nachwuchsgruppe funktioniert selbst dann, wenn das verformte Oberflächenprofil nur bruchstückhaft vorliegt. Im Klinikum ist das die Standardsituation, weil die Leber beim Menschen zwischen anderen Organen eingebettet und daher selbst mit endoskopischen Kameras bloß teilweise sichtbar ist. „Nur die Strukturen, die unser System eindeutig als Teile der Leber identifizieren kann, erhalten eine elektrische Ladung“, sagt Dr. Stefan Suwelack, der in der Gruppe von Speidel über das Thema promoviert hat. Problematisch werde es erst, wenn deutlich weniger als die Hälfte der verformten Oberfläche zu sehen sei. Um die Rechnung in solchen Fällen zu stabilisieren, können die KIT-Forscher eindeutige Referenzpunkte, wie sich kreuzende Gefäße, mit einbeziehen. Im Gegensatz zu anderen Verfahren sind sie aber nicht von vorneherein darauf angewiesen.

Zudem ist das Modell der KIT-Forscher genauer als bisherige Standardmethoden, weil es auch biomechanische Faktoren der Leber berücksichtigt: etwa wie elastisch das Gewebe ist. So setzt sich ihre Phantomleber beispielsweise aus zwei unterschiedlichen Silikonen zusammen: einem härteren für die Kapsel, also die äußere Hülle der Leber, und einem weichen für das innere Lebergewebe.

Ihre physikalische Herangehensweise ermöglicht es den Nachwuchswissenschaftlern außerdem, den Rechenvorgang zu beschleunigen. Weil sie die Formanpassung über elektrostatische und elastische Energien beschrieben, konnten sie dafür eine einzige mathematische Formel finden. Damit arbeiten selbst gewöhnliche Computer, die nur über eine Recheneinheit verfügen, so schnell, dass die Methode konkurrenzfähig ist. Im Gegensatz zu bisher gängigen Berechnungsverfahren eignet sie sich aber auch für Parallelrechner. Mit einem solchen will die Nachwuchsgruppe Organverformungen als nächstes stabil in Echtzeit modellieren. (lcp)

Publikation:
Stefan Suwelack, et al.: Physics-based shape matching for intraoperative image guidance, Medical Physics, Vol. 41 (2014)

Externer Link: www.kit.edu

Hilfe, mein Auto wurde gehackt!

Presseaussendung der TU Wien vom 09.12.2014

Je mehr Computertechnik im Auto eingebaut ist, umso wichtiger werden Fragen der Softwaresicherheit. An der TU Wien arbeitet man an Autos, die Manipulationen selbst erkennen.

Kein anderes Gerät in unserem Alltag ist so komplex wie ein Auto. Bis zu hundert Minicomputer sind in modernen Fahrzeugen verbaut. Dadurch steigt allerdings auch die Gefahr, dass die Software manipuliert wird. Mit recht einfachen Mitteln kann man heute über die Software Einfluss auf das Fahrverhalten des Autos nehmen. Armin Wasicek von der TU Wien entwickelt Strategien, unberechtigte Manipulationen an der Fahrzeugsoftware zu erkennen und zu verhindern. Durch die eigene Sensorik soll das Auto automatisch bemerken, wenn etwas nicht stimmt.

Das Computernetzwerk im Auto

Ungefähr hundert Millionen Zeilen Computercode sind in einem modernen Auto enthalten – und wenn sich bald tatsächlich das selbstfahrende Auto durchsetzen sollte, wird diese Menge noch einmal drastisch anwachsen. „Sensoren im Auto erfassen ständig Daten, die über ein Computernetzwerk an die Steuerung geleitet werden. Die sorgt dafür, dass der Antrieb rund läuft“, erklärt Armin Wasicek.

Wenn man diese Steuerung gezielt manipuliert oder zusätzliche Recheneinheiten einbaut, lassen sich vielleicht in manchen Fahrsituationen ein paar PS mehr Motorleistung herausholen. Man bezeichnet das als „Chip-Tuning“. Es kann auch passieren, dass bei einer Reparatur ganz ohne Wissen des Fahrzeugbesitzers die Software durch den Einbau gefälschter Komponenten verändert wird.

„Die Manipulation der Fahrzeugsoftware kann aber auch dazu führen, dass der Verschleiß mancher Bauteile beschleunigt wird, oder einzelne Komponenten vielleicht sogar in wichtigen Verkehrssituationen ganz versagen“, erklärt Armin Wasicek. Schon aus Sicherheits- und Gewährleistungsgründen ist es daher wichtig, die Software zu schützen. Wasicek arbeitet am Institut für Technische Informatik der TU Wien, derzeit befindet er sich auf einem Forschungsaufenthalt an der University of California in Berkeley.

Sicherheit durch Selbstdiagnose

„Wir verfolgen zwei Strategien, um Manipulationen an der Software von Fahrzeugen zu unterbinden“, erklärt Armin Wasicek. „Zum einen entwickeln wir Authentifizierungssysteme, wie man sie auch in anderen Computersystemen nutzt. Zusätzlich arbeiten wir aber auch an einem System, das ungewöhnliches Verhalten am Auto von selbst erkennt.“

Das Intrusion-Detection-System untersucht nicht nur, ob im Computernetzwerk des Autos merkwürdige Dinge vor sich gehen, es interpretiert auch das Fahrverhalten. Schon bei der Entwicklung des Autos lernt die Software, welches Verhalten in welchen Situationen normal ist und später kann es die tatsächlich gemessenen Parameter damit vergleichen. „Wir betrachten die Software und das physische Verhalten des Fahrzeuges gemeinsam, man spricht daher von Cyber-Physical Systems“, sagt Wasicek. Ähnlich wie wir Menschen eine Muskelverspannung ganz automatisch erkennen, weil wir uns nicht bewegen können wie sonst, soll in Zukunft auch ein Auto Probleme am eigenen physischen Verhalten diagnostizieren.

Fahrzeughersteller haben auch ein Interesse daran, Daten verschiedener Fahrzeuge zu erheben und in großen Rechenzentren zu vergleichen. „Vernetzte Autos werden einer der nächsten ganz großen Schritte in der Fahrzeugtechnik sein“, ist Armin Wasicek überzeugt. (Florian Aigner)

Externer Link: www.tuwien.ac.at

Rechnen mit der Krankheit

Presseinformation der LMU München vom 03.11.2014

Neue Algorithmen schaffen bessere Voraussetzungen für klinische Studien bei Amyotropher Lateralsklerose: LMU-Bioinformatiker begleiten einen Crowdsourcing-Wettbewerb, der neue Anstöße für die Entwicklung von Medikamenten liefert.

Die Diagnose Amyotrophe Lateralsklerose kommt einem Todesurteil gleich. Die Nervenkrankheit, kurz ALS, zerstört nach und nach Nervenzellen, die die Muskulatur steuern. Die Patienten leiden unter Muskelschwund und Lähmungen, wobei auch Sprechen, Schlucken und Atmung betroffen sind. In der Regel sterben ALS-Kranke drei bis fünf Jahre nach Ausbruch der Krankheit. Doch die Krankheit verläuft nicht bei allen Patienten gleich. „Die unterschiedlichen Krankheitsverläufe machen es sehr schwierig, effektive Behandlungsansätze zu entwickeln“, sagt Dr. Robert Küffner von der Lehr- und Forschungseinheit Bioinformatik der LMU und dem Helmholtz Zentrum München.

Um bessere Voraussetzungen für klinische Studien zu schaffen, hat Küffner mit einem internationalen Wissenschaftlerteam, in Zusammenarbeit mit ALS-Initiativen, Ärzten und dem IBM DREAM Projekt, einen Crowdsourcing-Wettbewerb organisiert. Die Aufgabe war es, Algorithmen zu entwickeln, die den Krankheitsverlauf von ALS vorhersagen können. Denn Computergestützte Rechenmethoden können eine Vielzahl an Patientendaten auswerten und so Informationen zu zukünftigen Krankheitsverläufen und Diagnoseansätzen liefern. Über den Wettbewerb und die zwei besten Algorithmen berichtet das Forscherteam aktuell in der Fachzeitschrift Nature Biotechnology.

Die Teilnehmer am Crowdsourcing-Wettbewerb erhielten anonymisierte Daten von 1822 ALS-Patienten. Für jeden Patienten lagen Daten zu den ersten drei Monaten der Krankheit vor. Die Aufgabe war es, Vorhersagen zu treffen, wie es dem jeweiligen Patienten neun Monate später gehen würde. Um die Vorhersagekraft der Algorithmen zu bewerten, wurde dann das tatsächliche Befinden der Patienten mit den prognostizierten Werten verglichen. „Die zwei besten Algorithmen übertreffen die bisher bekannten Vorhersagemöglichkeiten und die Einschätzungen von Ärzten, die ALS-Patienten betreuen“, sagt Küffner. „Dadurch lassen sich klinische Studien deutlich verbessern. Wenn der Krankheitsverlauf eines Patienten bekannt ist, lässt sich die Wirkung von Medikamenten besser beurteilen.“ Außerdem wurden im Rahmen des Wettbewerbs Kriterien erkannt, die den Krankheitsverlauf vorhersagen können, die bislang nicht dafür herangezogen werden: Werte für Harnsäure und Kreatinin sowie der Blutdruck. „Das zeigt, welch großes Potenzial Crowdsourcing-Wettbewerbe für die ALS-Forschung haben“, sagt Küffner, der die technische Aufsicht über den Wettbewerb geführt hat.

Mehr Daten, neuer Wettbewerb

Die anonymisierten Patientendaten stammten aus klinischen Studien. Sie enthielten beispielsweise Angaben zu den Blutwerten und den motorischen Fähigkeiten der Erkrankten. „Das Problem bei diesen Daten ist, dass sie recht komplex und auch uneinheitlich sind, weil sie aus verschiedenen Labors stammen“, sagt Küffner, der daher die Daten zunächst aufbereitet hat, bevor sie der Crowd zur Verfügung gestellt wurden. 37 Algorithmen wurden schließlich eingereicht. „Viele der Teilnehmer hatten bislang mit medizinischen Anwendungen keine Erfahrung, aber ihre Methoden sind auf die klinischen Daten übertragbar. Das Crowdsourcing hat ganz neue Perspektiven für die Forschung erschlossen und hilft, die tatsächlich besten Rechenmethoden zu finden“, sagt Küffner. Auch die beiden prämierten Algorithmen wurden zuvor noch nicht im klinischen Umfeld eingesetzt. Da ihre Vorhersagekraft sogar besser ist als die Prognose ALS-erfahrener Ärzte, planen die Wissenschaftler, die neuen Vorhersagemethoden in den klinischen Alltag zu überführen. „Damit könnten sie direkt den Patienten zugute kommen“, sagt Küffner.

Der Crowdsourcing-Wettbewerb wurde ermöglicht durch die ALS-Initiative Prize4Life, die zusammen mit dem Neurological Clinical Research Institute vom Massachusetts General Hospital die Open-Access-Datenbank ALS Clinical Trials gegründet hat und auch einen Preis von 50.000 Euro für den besten Algorithmus ausgelobt hatte. Inzwischen enthält die Plattform Daten aus klinischen Studien von insgesamt 8600 Patienten. „Diese Datenmenge ermöglicht es, ALS und den Krankheitsverlauf besser zu verstehen“, sagt Küffner, der inzwischen einen zweiten Crowdsourcing-Wettbewerb mit dem neuen Datenpool vorbereitet.

Publikation:
Nature Biotechnology, online 2. November 2014

Externer Link: www.uni-muenchen.de

Mit Alltagssprache Computer programmieren

Presseinformation des KIT (Karlsruher Institut für Technologie) vom 06.10.2014

Informatiker des KIT arbeiten an einer Software, die in natürlicher Sprache formulierte Befehle in Programmiersprache übersetzt – und dabei automatisch die zeitliche Abfolge anpasst

Computer sprechen eine eigene Sprache: Programmieren kann sie nur, wer den passenden Code beherrscht. An einer Software, die natürliche Sprache direkt in maschinenlesbare Quelltexte übersetzt, arbeiten derzeit Informatiker des Karlsruher Instituts für Technologie (KIT). Nutzer könnten damit in wenigen Sätzen eigene Computeranwendungen erstellen. Eine Herausforderung dabei: Menschen beschreiben Vorgänge nicht immer streng chronologisch. Ein neues Analysewerkzeug der KIT-Forscher ordnet die Anweisungen nun automatisch so hintereinander, wie sie der Computer ausführen soll.

„Wir wollen weg von komplizierten Regelwerken für Nutzer – nichts anderes sind Programmiersprachen – hin zu intelligenten Rechnern, die mit uns in Dialog treten“, sagt Mathias Landhäußer, wissenschaftlicher Mitarbeiter am Institut für Programmstrukturen und Datenorganisation (IPD) des KIT. Bislang ließen sich Programme nur dann mit Sprache steuern, wenn sie vom Hersteller genau darauf ausgelegt seien: so beispielsweise das Versenden von Kurznachrichten (SMS) über ein Smartphone. Die Informatiker am KIT arbeiten dagegen an einer Software, die für beliebige Programme eine Sprachschnittstelle einrichtet. Damit könnten Nutzer ihre mobilen Apps nicht nur per Sprachbefehl öffnen, sondern auch bedienen. Bei einer Anwendung, die Heizung, Beleuchtung und Fenster in intelligenten Häusern steuert, haben die Forscher eine solche Schnittstelle bereits erfolgreich eingebunden.

„Bis wir komplexe Software mit Sprache nicht nur bedienen, sondern tatsächlich programmieren können, wird es noch dauern“, schätzt Landhäußer. Ein zentrales Kommunikationsproblem zwischen Mensch und Maschine – das Problem der Reihenfolge – haben die Wissenschaftler gerade gelöst, zunächst beispielhaft für die englische Sprache. „Betrachten wir beispielsweise den Satz ‚Bevor das Auto losfährt, geht das Garagentor auf.‘ Aus unserer Alltagsperspektive ist diese Beschreibung nicht ungewöhnlich“, erklärt Landhäußer. Solle der Vorgang allerdings in einer virtuellen Welt am Computer stattfinden, ergebe sich ein Problem: Der Rechner führt Befehle nacheinander in der Reihenfolge aus, in der sie eintreffen. In dem genannten Beispiel erhält er zunächst die Information „Auto fährt los“ und erst danach die Information „Garagentor geht auf“. Das Auto würde demzufolge gegen das Garagentor fahren. „Sieht das Programm eine solche Aktionskette nicht vor, geschieht bestenfalls nichts, schlimmstenfalls stürzt der Computer ab“, so der Informatiker.

Die neue Software der KIT-Wissenschaftler analysiert nun zeitbezogene Signalwörter, die darauf hinweisen, dass ein eingesprochener Text zeitliche Abläufe nicht streng linear abbildet. Solche Signalwörter geben an, ob etwas „davor“ oder „danach“, „zuerst“ oder „zuletzt“ geschieht – und zwar unabhängig davon, an welcher Stelle die Information steht. Die Informatiker ordnen diesen sprachlichen Begriffen nun logische Formeln zu, um im Quelltext eine chronologische Abfolge herzustellen: Angewandt auf das obige Beispiel, verschiebt die Formel für das Signalwort „bevor“ den Hauptsatz automatisch um eine Position nach vorne. Das Ergebnis lautet: Das Garagentor geht auf, bevor das Auto losfährt.

Vorgaben für Nutzer zum computergerechten Sprechen stellten keine zuverlässige Alternative dar, so die Forscher: Erste Tests zeigten, dass Probanden mit und ohne Programmierkenntnisse trotz entsprechender Aufforderung nicht streng der Reihe nach erzählten, sondern stattdessen unbewusst weiterhin Signalwörter verwendeten. „Unser Ziel ist es, dass sich der Rechner an die Sprechweise der Nutzer anpasst – nicht umgekehrt“, sagt Landhäußer.

Neben dem Reihenfolgenproblem identifizierten die Wissenschaftler noch weitere Herausforderungen beim Programmieren mit natürlicher Sprache. So ersetzten die Probanden etwa einzelne Wörter mit sinnverwandten Begriffen oder Fürwörtern: Dass sich der Begriff „Auto“ auf dasselbe Objekt bezieht, wie „Wagen“ oder „dieses“ im Folgesatz, können Computer allerdings nicht ohne Weiteres ableiten. „Menschen verstehen diese Zusammenhänge, weil das Geschehen vor ihrem inneren Auge als Film abläuft. Wir arbeiten daran, langfristig auch Computern solch ein übergeordnetes Verständnis zu vermitteln“, erklärt Landhäußer. (lcp)

Literatur:
Mathias Landhäußer, Tobias Hey und Walter F. Tichy: Deriving time lines from texts. RAISE 2014 Proceedings of the 3rd International Workshop on Realizing Artificial Intelligence Synergies in Software Engineering, Pages 45-51, ACM New York 2014. Doi: 10.1145/2593801.2593809

Externer Link: www.kit.edu

Auf dem Weg zum sicheren Smart Home

Presseinformation (Forschung Kompakt) der Fraunhofer-Gesellschaft vom 01.09.2014

Immer mehr Funktionen in Häusern lassen sich über das Internet steuern. Das »Smart Home« verspricht effizientes Gebäudemanagement. Doch die Systeme sind in vielen Fällen nicht sicher und lassen sich nur mit großem Aufwand erneuern. Forscher arbeiten an einer Software, die Hackerangriffe abwehrt, bevor sie die Gebäude erreichen.

Botnet. Ein Begriff aus der Computerwelt schleicht sich langsam in die Welt der Gebäudeautomation. Mit diesem Angriffsszenario ist laut Dr. Steffen Wendzel von der Bonner Abteilung »Cyber Defense« des Fraunhofer-Instituts für Kommunikation, Informationsverarbeitung und Ergonomie FKIE in Wachtberg zu rechnen. Der Forscher aus der ist Experte für die Hackermethode und hat sie zusammen mit Viviane Zwanger und Prof. Dr. Michael Meier unter die Lupe genommen. Angreifer infiltrieren dabei mehrere Rechner – Bots (von engl. robots) – ohne die Kenntnis ihrer Eigentümer, schließen sie zu Netzen (engl. nets) zusammen und missbrauchen sie für Computerattacken. Die Forscher untersuchten, was es aktuell noch gar nicht gibt: Angriffe durch Botnets auf »Smart Homes«, mit dem Internet vernetzte Gebäude bzw. Gebäudefunktionen. Das Ergebnis: Die Bedrohung ist real, über das Internet gesteuerte Rollläden, Heizungen oder Schließsysteme können für derartige Attacken genutzt werden. »Unsere Experimente im Labor zeigten, dass Gebäude-IT nicht ausreichend gegenüber Angriffen aus dem Internet geschützt ist. Ihre Netzwerkkomponenten können als Botnet missbraucht werden«, so Wendzel. Der Hacker hat es dabei nicht wie bisher auf PCs abgesehen, sondern auf diejenigen Komponenten der Gebäudeautomation, die Häuser mit dem Internet verbinden. Das sind im Gebäude verbaute, kleine Kästchen, die ähnlich wie Router für den Heimcomputer aussehen und funktionieren. »Sie sind jedoch sehr einfach aufgebaut, können nur schwer aktualisiert werden und weisen Sicherheitslücken auf. Die Kommunikationsprotokolle, die sie nutzen, sind veraltet«, so Wendzel.

Schutzsoftware schaltet sich zwischen Internet und Gebäude-IT

Damit die Heizung, die Beleuchtung oder die Lüftung von Gebäuden über das Internet gesteuert werden können, ist es notwendig, spezielle Technik zu installieren: Es handelt sich dabei um kleine Minicomputer, die Temperaturen, Licht oder Luftfeuchtigkeit messen und in Netzwerken zusammengeschlossen sind. »Sie sicherheitstechnisch auf dem neuesten Standard zu halten, ist teuer«, sagt Wendzel. Am FKIE entwickelte das Team eine Schutzsoftware, die sich einfach zwischen Internet und Gebäude-IT schalten lässt. Die Technologie filtert potentielle Angriffe aus den Kommunikationsprotokollen heraus, noch bevor sie die eigenen vier Wände oder das Bürohaus erreichen. Ganz egal, welche Technik innerhalb der Gebäude verwendet wird: Sie muss bei dieser Herangehensweise nicht ausgetauscht werden.

Die Forscher nahmen dazu den gängigen Kommunikationsstandard der Gebäudeautomation unter die Lupe und entwickelten darauf aufbauend Regeln für den Datenverkehr. Halten eintreffende Daten diese nicht ein, wird der Kommunikationsfluss angepasst. »Die Software funktioniert wie eine Firewall mit Normalisierungskomponente«, sagt Wendzel. Ein »Analyzer« prüft sämtliche Ereignisse auf Plausibilität, die auf den Weg zu den Systemen geschickt werden. Schlägt er Alarm, geht der Vorfall unmittelbar an den »Normalizer«. Dieser blockiert das Ereignis entweder ganz oder wandelt es passend um. »Die Grundlagenforschung ist erfolgreich abgeschlossen. Im nächsten Schritt wollen wir die Technologie zusammen mit einem Industrieunternehmen zur Produktreife bringen. In spätestens zwei Jahren sollte ein Produkt auf dem Markt sein«, sagt Wendzel.

Bei ihrer Analyse der Botnet-Angriffe skizzierten die Forscher konkrete Bedrohungsszenarien für Smart Homes. »Aus meiner Sicht ist das Thema ›Überwachung‹ das drängendste«, sagt der Cyber Defense-Forscher. Indem der Angreifer sich in die IT von Gebäudefunktionen hackt, erfährt er im schlimmsten Fall wo die Insassen sind und was sie machen. Das reicht dann bis zum Gang auf die Toilette. Einbrecher, zum Beispiel, könnten die Daten nutzen, um ihre Raubzüge vorzubereiten. Hier agiert der Hacker passiv, zapft Informationen an. Er wäre aber genauso gut in der Lage, aktiv in die Systeme einzugreifen. Zum Beispiel für einen Auftraggeber aus der Energiebranche. Der könnte von mehr verkauftem Öl oder Gas profitieren, wenn der Verbrauch mehrerer Heizungen künstlich erhöht wird. Wie real dieses Szenario ist, zeigt ein aktuelles Beispiel: Im vergangenen Jahr gab es eine Lücke im Sicherheitssystem einer an das Internet angeschlossenen Heizung. Angreifer hatten die Möglichkeit, die Heizkörper auszustellen oder zu beschädigen. Momentan rät Sicherheitsexperte Wendzel deshalb davon ab, Gebäudefunktionen in Eigenheimen allzu sorglos mit dem Internet zu verbinden.

Externer Link: www.fraunhofer.de