Sicher – oder benutzbar?

Pressemitteilung der Universität Stuttgart vom 25.05.2012

Stuttgarter Forschergruppe sucht nach neuen Lösungen für Passwörter und Pins

Ob Scheckkarte, Handy, Webseiten oder der Computer im Büro – ohne Passwörter und Pins geht im modernen Leben fast nichts mehr. Doch was die Sicherheit gewährleistet, kann sich der Mensch meist nicht merken. Die Arbeitsgruppe „Mensch-Computer-Interaktion“ am Institut für Visualisierung und Interaktive Systeme der Universität Stuttgart sucht nach Lösungen, bei denen sich Sicherheit und Benutzbarkeit nicht ausschließen. Die Authentisierung, also zum Beispiel das Anmelden auf einer Webseite, ist dabei das zentrale Thema. Ihre Forschungsarbeiten stellten die Stuttgarter Wissenschaftler jüngst auch auf der internationalen Konferenz für Mensch-Maschine Interaktion CHI 2012 in Austin/Texas vor.

Ein sicheres Passwort besteht idealerweise aus einer langen Kombination von Buchstaben, Zahlen sowie Sonderzeichen und sollte regelmäßig geändert werden. Doch diese aus technischer Sicht sinnvollen Hinweise sind für viele Menschen in der Umsetzung im Alltag zu aufwändig. Häufig schreiben sie sich die Passwörter daher auf und die eigentlich zur Erhöhung der Sicherheit gedachte Maßnahme führt genau zum Gegenteil.

Ein Verfahren, das die Stuttgarter Wissenschaftler in Kooperation mit der Universität Cambridge in Großbritannien entwickelt haben, verwendet daher Bilder statt Passwörter für den Anmeldevorgang. Ein System zeichnet die Blickbewegung des Benutzers auf und verwendet diese zur Authentisierung. Zur Registrierung betrachtet der Benutzer die Details eines Bildes in einer von ihm gewählten Reihenfolge. Indem eine vorberechnete Bildmaske einfach zu erratende Blickbewegungen ausschließt, wird das neue Verfahren sicher und ist zugleich einfach zu benutzen. Was bisher noch an Laborgeräten getestet wird, dürfte schon in fünf Jahren an jedem Display einsetzbar sein, das Augenbewegungen aufzeichnen kann, so zum Beispiel bei Laptops, Handys oder auch mit Hilfe der viel diskutierten neuen Google-Brillen.

Signatur aus der Luft

Problematisch ist auch die Sicherung von Mobiltelefonen, die meist eine Vielzahl sehr privater Informationen, wie das Adressbuch, SMS, E-Mails und offene Webseiten enthalten und in der Regel durch die Eingabe eines PINs oder von Gesten vor dem Zugriff Dritter geschützt werden sollen. Solche Gesten oder PIN-Eingaben sind aber mit einer Kamera sehr einfach zu beobachten. Mit Hilfe der Aufnahme ist der Entsperrvorgang reproduzierbar und daher recht unsicher. Gemeinsam mit den Telekom Innovations Labs in Berlin haben die Forscher aus Stuttgart die Sicherheit eines Verfahrens untersucht, bei dem der Benutzer seine Unterschrift mit einem Magneten in die Luft schreibt, um das Telefon zu entsperren. Zur Überprüfung der Sicherheit wurde ein Szenario durchgespielt, bei dem ein Angreifer mit vier Kameras versuchte, die Passwörter der Testpersonen zu knacken. Gelungen ist es ihm nicht: Sicherheit und Benutzbarkeit sind also durchaus vereinbar. Allerdings: „Die Grundvoraussetzung ist, dass der Mensch und seine Fähigkeiten in die Sicherheitsanalyse sowie in das Design einbezogen werden“, so der Leiter der Forschungsgruppe, Prof. Albrecht Schmidt vom Lehrstuhl Mensch-Computer-Interaktion innerhalb des Exzellenzcluster Simulation Technology der Universität Stuttgart. Damit eine Technologie angenommen wird und im Wettbewerb eine Chance hat, müsse sie einfach handhabbar und verständlich sein – „und sie muss Spaß machen.“

Externer Link: www.uni-stuttgart.de

Sicher ist sicher

Pressemitteilung der TU Graz vom 07.05.2012

Informatiker der TU Graz entwickelt weltweiten Standard für sicheres Programmieren

Wie gefährlich Software sein kann, zeigen nicht nur die hinterlistigen „Trojanische Pferde“: Auch Industrieviren wie der „Stuxnetvirus“, der vor zwei Jahren vermutlich zur Sabotage iranischer Atomanlagen programmiert wurde, haben ein großes Zerstörungspotential. Schädliche Software bedroht eben nicht nur private Computer, sondern kann vor allem in Industrie und Wirtschaft fatale Folgen haben. Ein Chip, der entwickelt wurde, um die Computersicherheit zu verbessern und bereits in Millionen von PCs eingebaut ist, fand bislang mangels Softwareschnittstellen kaum Verwendung. Ein internationales Expertenteam hat nun unter der Federführung des Instituts für Angewandte Informationsverarbeitung und Kommunikationstechnologie der TU Graz einen weltweiten Standard für die Programmierung in Java entwickelt, der Schnittstellendefinitionen liefert und genaue Anleitung gibt, wie die Dienste des Chips angesprochen werden können.

Egal ob in E-Mail-Programmen, Internetanwendungen wie Facebook und iTunes oder Online-Banking – schädliche Software ist eine allgegenwärtige Bedrohung. Das sogenannte „Trusted Platform Module“, ein Sicherheitschip, der auf Millionen PCs bereits mitgeliefert wird, soll die Unversehrtheit der Software sicherstellen. Das Problem bisher: Das Potential des Sicherheitschips wurde mangels geeigneter Softwareschnittstellen – besonders für die beliebteste Programmiersprache Java – kaum verwendet. „Die bestehenden Schnittstellen waren sehr kompliziert und umständlich zu benutzen“, erklärt Ronald Tögl vom Institut für Angewandte Informationsverarbeitung und Kommunikationstechnologie der TU Graz. Unter seiner Federführung hat ein internationales Team nun einen weltweit gültigen Standard für Programmierschnittstellen, in der Fachsprache kurz API, für Java-Programmierung entwickelt. Damit gibt es ein „Handbuch“ für Programmieren in Java, das es ermöglicht, die kryptographischen Mechanismen des Sicherheitschips anzuwenden und Computer abzusichern. „Software-Entwickler erkennen nun, welche Programmierbefehle der Chip versteht. Das vereinfacht die Arbeit der Programmierer erheblich und erhöht gleichzeitig die Computersicherheit“, so Tögl.

Wertvolles Feedback der Öffentlichkeit

Der Standard mit der Bezeichnung JSR321 – JSR steht für Java Specification Request – macht es möglich festzustellen, ob auf einem PC nur jene Software läuft, die man selbst installiert hat, oder ob sich etwas „Fremdartiges“ eingenistet hat. In vierjähriger Arbeit hat ein internationales Team unter der Leitung der TU Graz an der Entwicklung dieses Standards gearbeitet. „Wir haben während der Entwicklung des Standards unsere Ergebnisse nicht nur einem Expertengremium vorgelegt, sondern auch immer wieder Unternehmen, anderen wissenschaftlichen Projektgruppen und der Öffentlichkeit zum Download zur Verfügung gestellt und um Kommentare gebeten. So ging der Standard durch mehrere Phasen und wurde stetig verbessert“, erläutert Tögl. Auch Marktführer wie Intel, Twitter und Credit Suisse unterstützen den Standard.

Beteiligt an der Entwicklung des Programmierstandards waren neben der TU Graz auch Experten von namhaften Unternehmen wie Oracle und Samsung sowie Forscher der University of Cambridge und der Universität Klagenfurt. Ronald Tögl wurde für die Leitung dieses Projekts bereits mit dem „Outstanding Spec Lead“ Award 2010 ausgezeichnet.

Im Field of Expertise „Information, Communication & Computing“ sind an der TU Graz Forschungsaktivitäten aus den Bereichen Informatik, Elektrotechnik und Informationstechnik sowie Mathematik zu einem von fünf Forschungsschwerpunkten gebündelt.

Externer Link: www.tugraz.at

Mikro-Helikopter werden flügge

Medienmitteilung der ETH Zürich vom 23.04.2012

ETH-Forschende haben im Rahmen des EU-Projektes „sFly“ eine neue Art von Flugrobotern entwickelt, die nur mit Bordkameras und einem Mini-Computer bestückt, navigieren können. Die Mikro-Helikopter kommen ohne GPS und Fernsteuerung aus und erreichen somit eine neue Stufe von Autonomie.

Weltweit wird geforscht und getüftelt, um Mikro-Helikopter – so genannte Micro Aerial Vehicles (MAV) – laufend weiter zu entwickeln und zu verbessern. Von der Eleganz eines Vogels im Flug ist man mit den bisherigen Lösungen allerdings noch weit entfernt. Die heutigen Flugroboter sind gross und schwer und sind im Einsatz im freien Feld oft abhängig von GPS oder von einem trainierten Piloten. Das 2009 gestartete EU-Projekt „sFly“ hatte sich deshalb zum Ziel gesetzt, Flugroboter zu entwickeln, die einige dieser Fesseln sprengen würden. Inzwischen sind die Entwicklungsarbeiten abgeschlossen und die Flugroboter haben ihre Feuertaufe im freien Feld bestanden.

Kameras zur Navigation und Kartierung

Eine Innovation der Flugroboter besteht darin, dass die Geräte mithilfe von Kameras und einem Mini-Computer an Bord in der Lage sind, ihren Flug zu stabilisieren und sich zu orientieren, ohne für die Navigation auf eine Verbindung zur Bodenstation angewiesen zu sein. Konkret werden die Flugbewegungen des Helikopters in Echtzeit aus den Kamerabildern berechnet und von einer Flugsteuereinheit mit den Sollwerten verglichen und bei Abweichungen korrigiert.

Diese Technologie, entwickelt am Labor für Autonome Systeme der ETH Zürich, hat zwei gewichtige Vorteile gegenüber GPS-basierten Flugrobotern. Zum einen funktionieren sie sowohl im Freien wie auch in geschlossenen Räumen. Zum andern können die Flugroboter auch dann noch navigieren, wenn das GPS z.B. wegen zu dichten Bauten seinen Dienst versagt. Die kamera-basierte Technologie erlaubt erst noch eine viel genauere Positionierung der Fluggeräte, als es mit GPS möglich ist, sagt Projektkoordinator Davide Scaramuzza. Je nach Umgebung könne der GPS-Fehler bei 70 m liegen – viel zu ungenau, wenn mehrere Flugroboter nahe aneinander fliegen.

Während eine von insgesamt drei Bord-Kameras der Flugsteuerung dient, werden die zwei andern Kameras der Mikro-Helikopter für die 3-D-Modellierung verwendet. Der Bord-Computer übermittelt die aufgenommenen Bilder über WLAN an einen Computer am Boden, der dann daraus eine 3-D-Karte des überflogenen Geländes erstellt. Einerseits zeigt die 3-D-Karte Hindernisse für die Flugroboter auf, andererseits können damit z.B. bestmögliche Positionen zur lückenlosen Geländeüberwachung berechnet werden. Die Technologie der 3-D-Modellierung stammt vom Institut für Visual Computing der ETH Zürich.

Prädestiniert für den Katastropheneinsatz

Eine Schwachstelle herkömmlicher Bauweisen von Flugrobotern betrifft ihr Gewicht und ihren Energiehunger. Eines der Ziele von „sFly“ war denn auch, effizientere Algorithmen zu entwickeln, die weniger Rechenleistung benötigen, aber auch die Rechenleistung auf flugfähigen Geräten erhöhen. In Zusammenarbeit mit der auf Flugroboter spezialisierten Firma Ascending Technologies in München entstand schliesslich ein Flugroboter mit sechs Rotoren und einem Gewicht von 1500 Gramm, inklusive 3 Bordkameras und einem Mini-Computer.

Die neuen Mikro-Helikopter haben einen Durchmesser von rund 50 Zentimetern. Sie sind dafür geschaffen, auch in engen oder gar geschlossenen Räumen zu manövrieren und allfällige Hindernisse zu erkennen und zu umfliegen. Anwendungen ergäben sich bei Schutz- und Rettungseinsätzen, wenn es zum Beispiel darum geht, ein Katastrophengebiet zu überfliegen und ein Bild von der Situation aus der Luft zu liefern oder auch mögliche Opfer zu orten. «Es handelt sich hier um ein Forschungsprojekt, das vor allem die technischen Möglichkeiten ausloten möchte. Wir stellen uns aber vor, dass die Flugroboter, die im „sFly“-Projekt entwickelt wurden, in einer nicht allzu fernen Zukunft eine wichtige Hilfe sein könnten für Rettungskräfte im Katastropheneinsatz», so Roland Siegwart, Leiter des Labors für Autonome Systeme.

Das europäische Projekt „sFly“ umfasst Partner aus Deutschland, Griechenland, Frankreich und der Schweiz. Neben zwei ETH-Forschungsgruppen ist auch das Centre Suisse d’Electronique et de Microtechnique (CSEM) in Neuenburg beteiligt.

Externer Link: www.ethz.ch

Mehr Information vom Computertomographen

Presseaussendung der TU Wien vom 03.04.2012

Unter der Leitung der TU Wien gelang es nun einem internationalen Forschungskonsortium, aus Computertomographie-Daten viel mehr Information herauszuholen als das bisher möglich war.

Röntgen-Computertomographen liefern heute hochauflösende Bilder vom Inneren des Körpers – doch über Materialeigenschaften oder chemische Zusammensetzung des abgebildeten Gewebes konnten diese Bilder bisher nichts aussagen. Koordiniert von der TU Wien gelang es nun einem großen internationales Konsortium aus akademischen Forschungsgruppen und Industriepartnern, die Datenauswertung in der Computertomographie deutlich zu verbessern. Das Gemeinschaftsprojekt brachte neue Berechnungsmethoden und Computercodes hervor, die nun für Knochenimplantation, für Zahnersatz, in der Chirurgie und bei der Züchtung von künstlichem Gewebe eingesetzt werden sollen.

Computer wertet Daten aus

„Die Computertomographie liefert einfach für jeden Punkt im Gewebe einen bestimmten Grauton“, erklärt Professor Christian Hellmich. „Über die Materialeigenschaften des Gewebes sagen diese Werte oberflächlich betrachtet zunächst noch nichts aus.“ Christian Hellmich vom Institut für Mechanik der Werkstoffe und Strukturen der TU Wien war der Koordinator des Projektes BIO-CT EXPLOIT, in dem Universitäten und private Firmen aus ganz Europa zusammenarbeiteten. „Bei der Auswertung eines Bildes hat man aber nicht nur die Röntgen-Messdaten des Computertomographen zur Verfügung, man kann gleichzeitig auch auf das umfangreiche Wissen über biologisches Gewebe zurückgreifen, das wir bereits haben“, sagt Hellmich.

Mehr aus den Daten herausholen mit Computersimulationen

Verschiedene biologische Gewebe – etwa Knochen – wurden in Computersimulationen mikro-mechanisch beschrieben. Mit Hilfe dieses Zusatzwissens können die Bilder aus dem Tomographen so präzise interpretiert werden, das sich ein 3D-Bild bestimmter Materialeigenschaften erstellen lässt. So lässt sich etwa Bildpunkt für Bildpunkt die Steifigkeit bestimmen, Spannungen im Material werden sichtbar, selbst über die chemische Zusammensetzung können mit den neuen Computermethoden Aussagen getroffen werden.

„Vergleichbar ist das mit der Luftaufnahme eines Waldes“, meint Professor Hellmich. „Die Farben auf einem Foto sagen zunächst nicht viel aus, wenn ich aber genau weiß, welche Pflanzen dort stehen und wie die Blattfarbe mit Feuchtigkeit oder Bodenbeschaffenheit zu tun hat, dann kann man plötzlich eine ganze Menge über den Wald sagen.“

Die Forschungsideen kommen aus der Grundlagenforschung, die neu entwickelten Methoden lassen sich allerdings direkt bei medizinischen Anwendungen einsetzen: „Unsere neuen strukturmechanischen Software-Tools wurden so entwickelt, dass sie mit kommerzieller Software moderner Computertomographen voll kompatibel ist“, erklärt Hellmich.

Universitäten und Wirtschaft ziehen an einem Strang

BIO-CT EXPLOIT war eine enge Kooperation von wissenschaftlichen und privaten Forschungspartnern. Vier private Firmen (Simpleware Ltd, InMatrixs, CADFEM GmbH, Skyscan NV.) und vier akademische Partner (TU Wien, Universita Politecnica delle Marche, Politechnika Warszawska, Hochschule für Angewandte Wissenschaften Hamburg) bündelten ihre Kräfte, um um Prototypen zu kommerziell verwertbaren Produkten zu entwickeln. Das Projekt startete im Dezember 2009 und wurde von der EU durch das Programm „Research for the benefit of small and medium-sized enterprises“ gefördert. Projektkoordinator Christian Hellmich ist mit dem Verlauf des Projektes hochzufrieden: „In nur zwei Jahren haben wir unsere Ziele erreicht – die Kollaboration war ein großer Erfolg.“

Wissenschaftliche Ideen münden in kommerzielle Produkte

Die Firma CADFEM bietet Softwaretools für die Zahnmedizin an. Durch das Forschungsprojekt entstand ein Softwareprototyp, der hilft, patientenspezifische Simulationen von Zahnimplantaten durchzuführen. Mechanische Spannungen im Kieferknochen können dadurch schon am Computer abgeschätzt werden.

SIMPLEWARE bietet Software für die Umwandlung von 3D-Bildern in hochqualitatives CAD, Rapid Prototyping, CFD und Finite-Elemente-Modelle. Die Möglichkeit, Elastizitätseigenschaften von Material durch CT-Bilder abschätzen zu können, wird in Zukunft ein wichtiger neuer Bestandteil der SIMPLEWARE-Softwaretools sein.

SkyScan entwickelt einfach zu benutzende Desktop-Instrumente, die 3D-Bilder von der inneren Struktur von Objekten bis in den Sub-Mikrometer-Bereich liefern. Das BIO-CT EXPLOIT-Projekt eröffnete für SkyScan die Möglichkeit, das bestehende Angebot zu erweitern – etwa bei der Entfernung von Bild-Artefakten, der chemischen Zusammensetzung von Knochen oder der Darstellung  mechanischer Eigenschaften.

INMATRIX Ltd, ein akademisches Spin-off der Russischen Akademie der Wissenschaften, beschäftigt sich mit biomedizinischen Geräten und Knochengewebe-Technologie. Durch die neuen Erkenntnisse kann INMATRIX die Eigenschaften der verwendeten Materialien genauer erforschen – bei Biomaterialien, aber auch bei Keramik-Implantaten.

Das Projekt ist abgeschlossen – die Kooperationen bestehen weiter

Die Zusammenarbeit der Forschungspartner soll auch in Zukunft fortgesetzt werden – sowohl in Bezug auf die weitere Vermarktung der Produkte als auch bei der Suche nach spannenden neuen Forschungsmöglichkeiten. (Florian Aigner)

Externer Link: www.tuwien.ac.at

Von Computerspielen in die Wissenschaft

Pressemitteilung der Universität Stuttgart vom 03.04.2012

Neue Beleuchtungsmethode verbessert Qualität von Visualisierungen

Simulationen sind aus vielen Bereichen in Forschung, Industrie oder der Medizin nicht mehr wegzudenken. Die Menge der Daten und ihre Komplexität steigt, und die Betrachtungszeiträume werden länger. Daher ist es ist eine große Herausforderung, Prozesse möglichst realistisch zu untersuchen, ohne die verfügbaren Rechenleistungen zu sprengen. Wissenschaftler des Visualisierungsinstitutes der Universität Stuttgart haben nun im Rahmen des Sonderforschungsbereiches (SFB) 716 ein Verfahren entwickelt, das die Qualität virtueller Bilder erheblich verbessert und gleichzeitig schnell genug ist, um komplexe, dynamische Simulationen effizient auf handelsüblichen Computern zu analysieren. Hierzu machen sie sich eine Beleuchtungs-Methodik zu Nutze, die von Computerspielen bekannt ist.

Wann bricht Metall unter mechanischen oder thermischen Belastungen? Unter welchen Bedingungen binden sich Fette an Waschmittel? Wann nutzen sich Verschleißteile einer hydraulischen Maschine ab? Simulationen ermöglichen es, diese Fragen zu beantworten und Prozesse zu optimieren, bei denen Experimente nicht oder nur mit unverhältnismäßigem Aufwand durchführbar sind. Voraussetzung für eine effektive Analyse ist jedoch eine hohe Bildqualität. Dazu gehört eine optimale Beleuchtung. Doch das ist einfacher gesagt als getan: Die auszuwertenden Datensätze erreichen viele Gigabyte und enthalten oft mehrere Millionen Partikel pro Zeitschritt. Eine lange Beobachtungsdauer potenziert die zu verarbeitende Informationsflut zusätzlich.

Realistische Bilder auf handelsüblichen Rechnern

Beleuchtungs-Modelle der klassischen Echtzeitcomputergrafik sind für solche umfangreichen Simulationen nicht geeignet. Die Beleuchtung photometrisch exakt zu berechnen, sprengt dagegen schnell die verfügbare Rechenkapazität und verlängert den Analyseprozess unnötig. Auf der Suche nach Alternativen haben Forscher des SFB 716 nun eine aus der Computergrafik bekannte Methodik auf wissenschaftliche Darstellungen übertragen. Mit dem sogenannten „Ambient Occlusion Verfahren“ werden üblicherweise Szenen für Computerspiele berechnet. Die Darstellungsqualität von Daten aus Partikelsimulationen hat sich dadurch enorm verbessert. „Was man sieht, ist zwar physikalisch nicht ganz korrekt, aber der Eindruck ist mit einer realen Beleuchtungssituation vergleichbar. Zudem ist das Verfahren schnell genug, um die Visualisierungen auf handelsüblichen Rechnern zu berechnen“, beschreibt Sebastian Grottel seine gemeinsam mit Kollegen entwickelte Arbeit.

Von Medizin bis Materialbearbeitung

Erste Anwendung fand die Methode bei der Untersuchung von sogenannten Laserablationen, dem Abtragen von Material mit Laserstrahlen. Dieses Verfahren wird unter anderem in der minimalinvasiven Chirurgie oder bei der Behandlung von Hauterkrankungen eingesetzt, aber auch in verschiedenen Sparten der Materialbearbeitung, so bei Gravierungen auf mikroskopischer Skala, Reinigungs- oder Beschichtungsprozessen. Dabei kommt es zu Wechselwirkungen zwischen verdampftem Material und dem Laserstrahl, was dazu führt, dass ein Teil der winzig kleinen abgetragenen Teilchen die Materialoberfläche beeinträchtigt. Mit dem neuen Beleuchtungsverfahren können die Wissenschaftler diese Prozesse leichter analysieren, da sich die Tiefe der entstandenen Krater sowie die Menge und Größe des ausgeschleuderten Materials wesentlich besser einschätzen lassen.

Ebenso profitieren Biochemiker und Pharmazeuten von dieser Methodik: Denn um Medikamente zu entwickeln und verbessern, sind konkrete Informationen zu Oberfläche und Form von Makromolekülen wie Proteine, Viren und Bakterien erforderlich. Beispielsweise müssen reagierende Antikörper nicht nur in ihrer chemischen Zusammensetzung, sondern auch durch ihre Form wie ein Puzzleteil exakt an die Oberfläche eines Virus passen. Solche Informationen sind nun wesentlich detaillierter und präziser zu erkennen. Das Verfahren wurde im März auf der internationalen Visualisierungskonferenz Pacific VIS 2012 in Songdo in Korea vorgestellt. Langfristig wird es in umfangreiche Visualisierungssoftwarepakete integriert, so dass Wissenschaftler und Ingenieure an Universitäten und in der Industrie zur Auswertung von Simulationsdaten darauf zugreifen können.

Originalveröffentlichung:
Grottel, Sebastian; Krone, Michael; Scharnowski, Katrin; Ertl, Thomas: Object-Space Ambient Occlusion for Molecular Dynamics.
In: Proceedings of IEEE Pacific Visualization Symposium 2012 (2012).

Externer Link: www.uni-stuttgart.de