Im Auge des Betrachters

Pressemitteilung der Hochschule Coburg vom 07.11.2017

Mithilfe neuer Entwicklungen lassen sich Smartphones und Co. bedienen, ohne sie berühren zu müssen. Gesteuert werden könnten sie über einfache Handgesten.

Forscher der Hochschule Coburg haben untersucht, ob sich die Reflektionen im menschlichen Auge nutzen lassen, um diese Art der Bedienung zu ermöglichen. Und tatsächlich: Schaut ein Nutzer auf sein Smartphone oder Tablet spiegelt sich in seinen Augen die Umgebung um ihn herum. Bewegt er nun die Hände innerhalb dieser Umgebung, erkennt das Gerät diese Bewegung und kann die entsprechenden Befehle umsetzen.

Benötigt wird dafür nur die normale Frontkamera des Geräts. „Das muss also keine langfristige Zukunftsvision sein, sondern könnte schon mit der heutigen Generation von Smartphones umgesetzt werden“, erklärt Prof. Dr. Jens Grubert. Der Professor für Mensch-Maschine-Interaktion im Internet der Dinge erforscht Techniken, die die Bedienung von mobilen Endgeräten erleichtern können.

Diese Erkenntnisse zur Interaktion mit Mobilgeräten mittels Augenreflektionen stellten er und sein Mitarbeiter Daniel Schneider auf den international Konferenzen IEEE International Symposium on Mixed and Augmented Reality (IEEE ISMAR) in Nantes (Frankreich) und auf der ACM International Conference on Interactive Surfaces and Spaces (ACM ISS) in Brighton (England) vor.

Externer Link: www.hs-coburg.de

„Fingerabdruck“ aus Licht ermöglicht Nerven-Stimulation

Presseaussendung der JKU Linz vom 27.10.2017

ForscherInnen der Johannes Kepler Universität Linz haben ein neues Verfahren entwickelt, das die Stimulation von Nervenzellen mittels Lichtfeld ermöglicht. Das Projekt wurde nun im renommierten Journal „Nature Scientific Reports“ der Fachwelt präsentiert.

Bereits 2016 stellte das Team um Univ.-Prof. Oliver Bimber (Institut für Computergrafik) ein Verfahren zur volumetrischen Ausleuchtung von mikroskopischen Proben vor. Dabei werden, mithilfe eines speziellen Lichtfeld-Mikroskops, Lichtstrahlen zu einem dreidimensionalen Beleuchtungsmuster innerhalb der Probe gebündelt.

Einsatz in der Medizin

Einsatzgebiet dieser Technik ist die Optogenetik, in der neuronale Zellen durch gezielte Beleuchtung stimuliert werden. Optogenetische Stimulation wurde von anderen ForscherInnen bereits erfolgreich am Gehirn bzw. an Nervenzellen von Tieren wie Mäusen, Fischen, Fliegen und Würmern demonstriert. Ziel ist es, bestimmte Verhaltensmuster in Versuchsobjekten auszulösen oder zu unterdrücken.

Voraussetzung der bis dato aktuellen Beleuchtungsverfahren war die exakte Position der Probenelemente. Position und Größe einzelner Neuronen mussten vorab ermittelt werden. Eine genaue Bestimmung konnte zudem äußerst schwierig sein bzw. war in manchen Fällen überhaupt unmöglich.

Keine Rekonstruktion nötig

Das nun an der JKU entwickelte Verfahren kommt völlig ohne die dreidimensionale Struktur der Probe aus. Die Technik macht sich eine besondere Eigenschaft von Nervenzellen zunutze: Jedes stimulierte Neuron erzeugt einen eindeutigen „Lichtfeld-Fingerabdruck“. Im neuen Verfahren wird die Probe, bestehend aus mehreren Neuronen, mit speziellen Mustern beleuchtet. Die sich überlagernden „Fingerabdrücke“ werden danach durch ein mathematisches Verfahren getrennt. Damit können anschließend neue Beleuchtungsmuster berechnet werden, die dann selektiv einzelne Neuronen stimulieren.

Der große Vorteil: Durch die spezielle Abtastung sind eine 3D-Rekonstruktion der Probe oder die Kalibrierung der optischen Elemente des Mikroskops nicht mehr notwendig. (Tobias Prietzel)

Externer Link: www.jku.at

Saarbrücker Forscher erstellen digitale Objekte aus unvollständigen 3-D-Daten

Pressemitteilung der Universität des Saarlandes vom 12.10.2017

Mit speziellen Kameras können reale Objekte inzwischen digital erfasst werden. Sie stoßen jedoch noch an Grenzen, wenn beispielsweise die Oberfläche eines Objektes für den Scanner zu dunkel ist und daher kein Signal liefert oder sich Teile gegenseitig verdecken. Informatiker des Max-Planck-Instituts für Informatik haben gemeinsam mit Kollegen vom US-amerikanischen Halbleiterhersteller Intel und dem Intel Visual Computing Institute der Universität des Saarlandes eine Methode entwickelt, die selbst aus unvollständigen Aufnahmen ein digitales Objekt rekonstruieren kann. Die Forscher nutzen dafür einen speziellen Typ eines neuronalen Netzwerkes.

„Obwohl die 3D-Scan-Technologie in den vergangenen Jahren einen erheblichen Sprung gemacht hat, ist es immer noch eine Herausforderung, die Geometrie und Form eines realen Objektes digital und automatisiert zu erfassen“, erklärt Mario Fritz, der am Max-Planck-Institut für Informatik die Gruppe „Scalable Learning and Perception“ leitet. Laut Fritz sind Tiefensensoren, etwa der Microsoft Kinect Sensor, sehr leistungsfähig, aber sie funktionieren nicht auf allen Materialien gleich gut, was zu verrauschten Daten oder sogar fehlenden Messwerten führt. „Die daraus resultierenden fehlerhaften oder sogar unvollständigen 3D-Geometrien stellen ein echtes Problem für eine Reihe von Anwendungen dar, etwa in der virtuellen, erweiterten Realität oder bei der Zusammenarbeit mit Robotern und im 3-D-Druck“, erklärt Mario Fritz.

Gemeinsam mit weiteren Forschern vom US-amerikanischen Halbleiterhersteller Intel und dem Intel Visual Computing Institute der Saar-Uni entwickelte er daher eine Methode, die auch mit unvollständigen Datensätzen funktioniert. Sie nutzt ein spezielles neuronales Netzwerk. „Unsere Methode benötigt keinerlei Aufsicht während der Lernphase, was in dieser Form ein Novum ist“, erklärt Fritz. Auf diese Weise konnten die Forscher beispielsweise einen flachen Monitor, dessen digitales Abbild nach dem 3-D-Scan eher einer Bretterwand glich, so rekonstruieren, dass jedermann wieder in dem digitalen Objekt einen Monitor erkennen konnte. Damit schlagen die Saarbrücker Informatiker auch bisherige Methoden, die fehlerhafte 3D-Scans verbessern und Formen vervollständigen. Auch bei der Klassifizierung von gescannten Objekten zeigt die Methode aus Saarbrücken sehr gute Ergebnisse. In Zukunft wollen die Wissenschaftler ihre Methode weiterentwickeln, so dass es auch bei verformbaren Objekten und größeren Szenen funktioniert.

„Zukünftig muss es einfach und schnell gelingen, Objekte aus der echten Welt zu erfassen und diese realitätsnah in die digitale Welt zu projizieren“, erklärt Philipp Slusallek, Professor für Computergraphik der Universität des Saarlandes und wissenschaftlicher Direktor am Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI). Am DFKI ist er auch für das europäische Verbundprojekt „Distributed 3D Object Design“, kurz DISTRO, verantwortlich, mit dem die Europäische Union die Forschungsdisziplinen Visual Computing und 3D-Computergrafik an die wissenschaftliche Weltspitze bringen will. Dazu soll eine neue Generation von exzellenten Wissenschaftlern und Technikern ausgebildet werden. Fünf der 15 ausgeschriebenen Doktorandenstellen wurden mit Forschern des Saarland Informatics Campus an der Universität des Saarlandes besetzt.

Externer Link: www.uni-saarland.de

Blindenschrift für die Westentasche

Presseaussendung der TU Wien vom 20.09.2017

Ein völlig neuartiges Braille-Display wurde von Tetragon, einem TU Wien-Spin-Off, erfunden. Es ist einfach, kosteneffizient und problemlos zu transportieren.

Die Braille-Schrift hat sich seit vielen Jahrzehnten bestens bewährt. Doch noch immer ist die Braille-Schrift nicht wirklich im Computerzeitalter angekommen. Braille-Displays sind teuer, kompliziert und sperrig. Das österreichische Startup-Unternehmen Tetragon, ein Spin-off der TU Wien, entwickelte nun aber ein völlig neues Konzept: Das Tetragon-Display besteht aus einem Ring, an dessen Innenseite Buchstaben in Braille-Schrift angezeigt und ertastet werden können. Dieser Ring ist technisch verhältnismäßig einfach, er passt in jede Jackentasche und er soll deutlich preisgünstiger sein als bisher verfügbare Produkte.

Verschiedene Ideen mit verschiedenen Nachteilen

Prof. Wolfgang Zagler beschäftigt sich seit vielen Jahren mit Technologien, die älteren oder körperlich beeinträchtigten Menschen helfen sollen. „Seit Jahrzehnten weiß man, dass die Frage nach dem optimalen Braille-Display nicht zufriedenstellend gelöst ist“, sagt Zagler. „Es gab immer wieder verschiedene Ansätze – mit elektromagnetisch gesteuerten beweglichen Stiften, mit Piezoelementen und anderen Technologien, aber all diese Konzepte hatten ihre Nachteile.“ Manche Displays haben einen hohen Stromverbrauch oder eine recht begrenzte Haltbarkeit, sie sind allenfalls für den Einsatz im Büro geeignet aber nicht transportabel, sie sind technisch kompliziert und daher meist sehr teuer.

„Natürlich gibt es heute Sprachausgabe-Software, mit der man sich Texte vorlesen lassen kann – aber das ist kein vollwertiger Ersatz“, ist Wolfgang Zagler überzeugt. „Lesen ist schließlich eine wichtige Kulturtechnik, es ist unverzichtbar, dass blinde Menschen auch in Zukunft mit der Braille-Schrift vertraut sind. Wir wollen einen Beitrag dafür leisten, dass die Braille-Schrift den Schritt ins Zeitalter der mobilen Computer schafft.“

Die Lösung: Ein beweglicher Ring

Gemeinsam mit Michael Treml und Dominik Busse, zwei seiner ehemaligen Studenten, entwickelte Wolfgang Zagler eine völlig neue Idee: Die Blindenschrift soll nicht mehr auf einer unbeweglichen Zeile angezeigt werden. Stattdessen tastet man das Innere eines drehbaren Rings ab. „Ähnlich wie eine Computermaus kann man den Ring anfassen und über die Tischoberfläche ziehen“, erklärt Zagler. „Der Zeigefinger befindet sich dabei im Inneren des Ringes, und dort ertastet man die Buchstaben, die bei jeder Umdrehung des Rings neu gebildet werden. So entsteht beim Lesen der Eindruck einer unendlich langen Zeile.“

Die sechs tastbaren Punkte, aus denen in der Braille-Schrift jeder Buchstabe aufgebaut ist, wurden in drei Zweiergruppen zerlegt. „Für jede Zweiergruppe gibt es vier Möglichkeiten: Zwei Punkte, ein Punkt links, ein Punkt rechts, oder gar kein Punkt“, erklärt Wolfgang Zagler. „Diese vier Möglichkeiten werden auf den vier Seiten eines Quaders aufgebracht. Während sich diese Quader auf der Innenseite des Rings im Kreis bewegen, können sie nach Belieben verdreht werden, sodass für den nächsten Ablesevorgang aus drei Quadern der gewünschte Buchstabe angezeigt wird.“

Dieser einfache Ansatz – die Drehung von Quadern – ist viel einfacher zu realisieren als die Anzeige von Braille-Buchstaben durch bewegliche Stifte. Dadurch wird das Display robust und wenig fehleranfällig. Durch die ringförmige Konstruktion ist eine kompakte Bauweise möglich, und man kann das Gerät problemlos mit sich tragen.

„Das Konzept ist bereits patentiert, wir bereiten derzeit eine Firmengründung vor“, sagt Wolfgang Zagler, der nach 45 Jahren an der TU Wien nun seit 2016 als Professor pensioniert ist – was seinen Forschergeist offensichtlich nicht gebremst hat. „Einige wichtige Fragen sind noch zu klären – etwa, welche Materialien man am besten wählt, wie man Aktuatoren mit möglichst geringem Stromverbrauch einsetzt und welche ergonomischen und haptischen Eigenschaften am angenehmsten sind. Doch all das sollte sich in den nächsten Monaten beantworten lassen.“

Der Preis des fertigen Geräts steht noch nicht fest, das Tetragon-Display soll aber deutlich billiger werden als bisher verfügbare Produkte: „Wir wollen das Display um den Preis eines Smartphones anbieten – da sind wir sehr zuversichtlich“, sagt Zagler. (Florian Aigner)

Externer Link: www.tuwien.ac.at

Brain Composer: Melodien auf das Notenblatt „denken“

Pressemeldung der TU Graz vom 06.09.2017

Forschende der TU Graz entwickeln neue Brain-Computer-Interface-Anwendung, mit der sich durch Gedankenkraft Musik komponieren lässt. Wie das funktioniert, zeigen sie aktuell im Fachjournal PLOS ONE.

Gehirn-Computer-Schnittstellen, kurz BCIs, ersetzen ein Stück weit körperliche Funktionen: Körperlich beeinträchtigte Menschen können dank BCI-Technologie spezielle Prothesen über ihre Gedanken steuern, im Internet surfen oder E-Mails schreiben.

Unter dem Titel „Brain Composer“ zeigt eine Gruppe rund um den BCI-Experten Gernot Müller-Putz vom Institut für Neurotechnologie der TU Graz, dass auch andere Töne auf der Klaviatur der Brain-Computer-Interfaces erklingen können. Aus einer etablierten BCI-Methode, die hauptsächlich zum Buchstabieren, also Schreiben, mittels BCI dient, hat das Team eine neue Anwendung entwickelt, mit der sich Musik rein durch Gedankenkraft komponieren und aufs Notenblatt übertragen lässt. Alles, was es dazu braucht, ist eine spezielle Haube, die die Gehirnströme misst, das adaptierte BCI, eine Kompositionssoftware und freilich ein bisschen musikalisches Vorwissen. Das Grundprinzip der verwendeten BCI-Methode namens P300 ist rasch beschrieben: Verschiedene Optionen, etwa Buchstaben oder in dem Fall Noten, Pausen, Akkorde und Co. blitzen rasch nacheinander in einer Tabelle auf. Wer trainiert ist und sich auf die gewünschte Option fokussiert, während diese aufleuchtet, verursacht damit eine minimale Änderung der Gehirnströme. Das BCI erkennt diese Änderung und zieht daraus Rückschlüsse auf die gewählte Option.

Musikalische Testpersonen

Melodien auf ein Notenblatt „denken“ durften 18 Testpersonen, die Gernot Müller-Putz, Andreas Pinegger und Selina C. Wriessnegger vom TU Graz-Institut für Neurotechnologie sowie Hannah Hiebel, mittlerweile Institut für Allgemeine Psychologie der Karl-Franzens-Universität Graz, für ihre Studie ausgewählt haben. Alle Testpersonen waren in der Studienphase körperlich gesund und hatten ein gewisses musikalisches und kompositorisches Grundwissen, indem sie etwa selbst Instrumente spielen. Unter den Testpersonen war auch der 2016 verstorbene Grazer Komponist und Klarinettist Franz Cibulka. „Die Ergebnisse der BCI-Kompositionen können sich wirklich hören lassen. Und was noch wichtiger ist: Die Testpersonen hatten daran Freude. Schon nach einem kurzen Training konnten alle drauf los komponieren und ihre Melodien am Notenblatt sehen und dann auch spielen. Die sehr positiven Studienresultate mit körperlich gesunden Testpersonen sind der erste Schritt zur möglichen Erweiterung der BCI-Komposition für Patientinnen und Patienten.“, betont Müller-Putz.

„Nebenschauplatz“ der BCI-Forschung

Diese „Spielerei“, eher ein Nebenschauplatz der regen, auf körperlich beeinträchtigte Personen konzentrierten BCI-Forschung an der TU Graz, zeigt, in welche Richtungen es noch gehen kann. Es gibt mittlerweile erste Ansätze von BCI-Systemen auf dem Smartphone. Damit ließen sich BCI-Anwendungen leichter unter die Leute bringen, denn das Smartphone wird als leistungsfähiger Computer selbst Teil des BCI-Systems. Denkbar sind dann beispielsweise BCI-Apps, die Hirnsignale für unterschiedlichste Anwendungen analysieren können. „Vor 20 Jahren war die Vision, mit Gedankenkraft ein Musikstück zu komponieren, unvorstellbar. Jetzt sind wir soweit, und haben gleichzeitigt zig neue, andere Visionen, die teilweise noch weit entfernt von der Realität sind. Es dauert zwar noch, bis das reif für Alltagsanwendungen sein wird. Die BCI-Community arbeitet in vielen Richtungen mit Hochdruck.“, so Müller-Putz. (Susanne Eigner)

Originalpublikation:
“Composing only by thought: Novel application of the P300 brain-computer interface”. Andreas Pinegger, Hannah Hiebel, Selina C. Wriessnegger, Gernot R. Müller-Putz. PLOS ONE, 6. September 2017.

Externer Link: www.tugraz.at