Blindenschrift für die Westentasche

Presseaussendung der TU Wien vom 20.09.2017

Ein völlig neuartiges Braille-Display wurde von Tetragon, einem TU Wien-Spin-Off, erfunden. Es ist einfach, kosteneffizient und problemlos zu transportieren.

Die Braille-Schrift hat sich seit vielen Jahrzehnten bestens bewährt. Doch noch immer ist die Braille-Schrift nicht wirklich im Computerzeitalter angekommen. Braille-Displays sind teuer, kompliziert und sperrig. Das österreichische Startup-Unternehmen Tetragon, ein Spin-off der TU Wien, entwickelte nun aber ein völlig neues Konzept: Das Tetragon-Display besteht aus einem Ring, an dessen Innenseite Buchstaben in Braille-Schrift angezeigt und ertastet werden können. Dieser Ring ist technisch verhältnismäßig einfach, er passt in jede Jackentasche und er soll deutlich preisgünstiger sein als bisher verfügbare Produkte.

Verschiedene Ideen mit verschiedenen Nachteilen

Prof. Wolfgang Zagler beschäftigt sich seit vielen Jahren mit Technologien, die älteren oder körperlich beeinträchtigten Menschen helfen sollen. „Seit Jahrzehnten weiß man, dass die Frage nach dem optimalen Braille-Display nicht zufriedenstellend gelöst ist“, sagt Zagler. „Es gab immer wieder verschiedene Ansätze – mit elektromagnetisch gesteuerten beweglichen Stiften, mit Piezoelementen und anderen Technologien, aber all diese Konzepte hatten ihre Nachteile.“ Manche Displays haben einen hohen Stromverbrauch oder eine recht begrenzte Haltbarkeit, sie sind allenfalls für den Einsatz im Büro geeignet aber nicht transportabel, sie sind technisch kompliziert und daher meist sehr teuer.

„Natürlich gibt es heute Sprachausgabe-Software, mit der man sich Texte vorlesen lassen kann – aber das ist kein vollwertiger Ersatz“, ist Wolfgang Zagler überzeugt. „Lesen ist schließlich eine wichtige Kulturtechnik, es ist unverzichtbar, dass blinde Menschen auch in Zukunft mit der Braille-Schrift vertraut sind. Wir wollen einen Beitrag dafür leisten, dass die Braille-Schrift den Schritt ins Zeitalter der mobilen Computer schafft.“

Die Lösung: Ein beweglicher Ring

Gemeinsam mit Michael Treml und Dominik Busse, zwei seiner ehemaligen Studenten, entwickelte Wolfgang Zagler eine völlig neue Idee: Die Blindenschrift soll nicht mehr auf einer unbeweglichen Zeile angezeigt werden. Stattdessen tastet man das Innere eines drehbaren Rings ab. „Ähnlich wie eine Computermaus kann man den Ring anfassen und über die Tischoberfläche ziehen“, erklärt Zagler. „Der Zeigefinger befindet sich dabei im Inneren des Ringes, und dort ertastet man die Buchstaben, die bei jeder Umdrehung des Rings neu gebildet werden. So entsteht beim Lesen der Eindruck einer unendlich langen Zeile.“

Die sechs tastbaren Punkte, aus denen in der Braille-Schrift jeder Buchstabe aufgebaut ist, wurden in drei Zweiergruppen zerlegt. „Für jede Zweiergruppe gibt es vier Möglichkeiten: Zwei Punkte, ein Punkt links, ein Punkt rechts, oder gar kein Punkt“, erklärt Wolfgang Zagler. „Diese vier Möglichkeiten werden auf den vier Seiten eines Quaders aufgebracht. Während sich diese Quader auf der Innenseite des Rings im Kreis bewegen, können sie nach Belieben verdreht werden, sodass für den nächsten Ablesevorgang aus drei Quadern der gewünschte Buchstabe angezeigt wird.“

Dieser einfache Ansatz – die Drehung von Quadern – ist viel einfacher zu realisieren als die Anzeige von Braille-Buchstaben durch bewegliche Stifte. Dadurch wird das Display robust und wenig fehleranfällig. Durch die ringförmige Konstruktion ist eine kompakte Bauweise möglich, und man kann das Gerät problemlos mit sich tragen.

„Das Konzept ist bereits patentiert, wir bereiten derzeit eine Firmengründung vor“, sagt Wolfgang Zagler, der nach 45 Jahren an der TU Wien nun seit 2016 als Professor pensioniert ist – was seinen Forschergeist offensichtlich nicht gebremst hat. „Einige wichtige Fragen sind noch zu klären – etwa, welche Materialien man am besten wählt, wie man Aktuatoren mit möglichst geringem Stromverbrauch einsetzt und welche ergonomischen und haptischen Eigenschaften am angenehmsten sind. Doch all das sollte sich in den nächsten Monaten beantworten lassen.“

Der Preis des fertigen Geräts steht noch nicht fest, das Tetragon-Display soll aber deutlich billiger werden als bisher verfügbare Produkte: „Wir wollen das Display um den Preis eines Smartphones anbieten – da sind wir sehr zuversichtlich“, sagt Zagler. (Florian Aigner)

Externer Link: www.tuwien.ac.at

Brain Composer: Melodien auf das Notenblatt „denken“

Pressemeldung der TU Graz vom 06.09.2017

Forschende der TU Graz entwickeln neue Brain-Computer-Interface-Anwendung, mit der sich durch Gedankenkraft Musik komponieren lässt. Wie das funktioniert, zeigen sie aktuell im Fachjournal PLOS ONE.

Gehirn-Computer-Schnittstellen, kurz BCIs, ersetzen ein Stück weit körperliche Funktionen: Körperlich beeinträchtigte Menschen können dank BCI-Technologie spezielle Prothesen über ihre Gedanken steuern, im Internet surfen oder E-Mails schreiben.

Unter dem Titel „Brain Composer“ zeigt eine Gruppe rund um den BCI-Experten Gernot Müller-Putz vom Institut für Neurotechnologie der TU Graz, dass auch andere Töne auf der Klaviatur der Brain-Computer-Interfaces erklingen können. Aus einer etablierten BCI-Methode, die hauptsächlich zum Buchstabieren, also Schreiben, mittels BCI dient, hat das Team eine neue Anwendung entwickelt, mit der sich Musik rein durch Gedankenkraft komponieren und aufs Notenblatt übertragen lässt. Alles, was es dazu braucht, ist eine spezielle Haube, die die Gehirnströme misst, das adaptierte BCI, eine Kompositionssoftware und freilich ein bisschen musikalisches Vorwissen. Das Grundprinzip der verwendeten BCI-Methode namens P300 ist rasch beschrieben: Verschiedene Optionen, etwa Buchstaben oder in dem Fall Noten, Pausen, Akkorde und Co. blitzen rasch nacheinander in einer Tabelle auf. Wer trainiert ist und sich auf die gewünschte Option fokussiert, während diese aufleuchtet, verursacht damit eine minimale Änderung der Gehirnströme. Das BCI erkennt diese Änderung und zieht daraus Rückschlüsse auf die gewählte Option.

Musikalische Testpersonen

Melodien auf ein Notenblatt „denken“ durften 18 Testpersonen, die Gernot Müller-Putz, Andreas Pinegger und Selina C. Wriessnegger vom TU Graz-Institut für Neurotechnologie sowie Hannah Hiebel, mittlerweile Institut für Allgemeine Psychologie der Karl-Franzens-Universität Graz, für ihre Studie ausgewählt haben. Alle Testpersonen waren in der Studienphase körperlich gesund und hatten ein gewisses musikalisches und kompositorisches Grundwissen, indem sie etwa selbst Instrumente spielen. Unter den Testpersonen war auch der 2016 verstorbene Grazer Komponist und Klarinettist Franz Cibulka. „Die Ergebnisse der BCI-Kompositionen können sich wirklich hören lassen. Und was noch wichtiger ist: Die Testpersonen hatten daran Freude. Schon nach einem kurzen Training konnten alle drauf los komponieren und ihre Melodien am Notenblatt sehen und dann auch spielen. Die sehr positiven Studienresultate mit körperlich gesunden Testpersonen sind der erste Schritt zur möglichen Erweiterung der BCI-Komposition für Patientinnen und Patienten.“, betont Müller-Putz.

„Nebenschauplatz“ der BCI-Forschung

Diese „Spielerei“, eher ein Nebenschauplatz der regen, auf körperlich beeinträchtigte Personen konzentrierten BCI-Forschung an der TU Graz, zeigt, in welche Richtungen es noch gehen kann. Es gibt mittlerweile erste Ansätze von BCI-Systemen auf dem Smartphone. Damit ließen sich BCI-Anwendungen leichter unter die Leute bringen, denn das Smartphone wird als leistungsfähiger Computer selbst Teil des BCI-Systems. Denkbar sind dann beispielsweise BCI-Apps, die Hirnsignale für unterschiedlichste Anwendungen analysieren können. „Vor 20 Jahren war die Vision, mit Gedankenkraft ein Musikstück zu komponieren, unvorstellbar. Jetzt sind wir soweit, und haben gleichzeitigt zig neue, andere Visionen, die teilweise noch weit entfernt von der Realität sind. Es dauert zwar noch, bis das reif für Alltagsanwendungen sein wird. Die BCI-Community arbeitet in vielen Richtungen mit Hochdruck.“, so Müller-Putz. (Susanne Eigner)

Originalpublikation:
“Composing only by thought: Novel application of the P300 brain-computer interface”. Andreas Pinegger, Hannah Hiebel, Selina C. Wriessnegger, Gernot R. Müller-Putz. PLOS ONE, 6. September 2017.

Externer Link: www.tugraz.at

Smarte Displays aus dem Drucker

Pressemitteilung der HAW Landshut vom 08.05.2017

Ein Shirt, das mit der Umwelt kommuniziert: Elektrolumineszenz-Displays könnten das bald möglich machen. Die Folien lassen sich in Kleidung integrieren. Maximilian Wurzer hat in seiner Bachelorarbeit solche Displays entwickelt.

Smarte Fitnessuhren, die den Puls messen und Schritte zählen, sind längst nichts Neues mehr. Die Minicomputer, die man bisher am Handgelenk oder in der Tasche trägt, werden jetzt in die Kleidung integriert. Auf dem Display eines smarten Shirts steht jeden Tag eine neue Botschaft, die der Träger nach Stimmung programmieren und darstellen kann – zum Beispiel über Elektrolumineszenz-Displays, kurz ELDs. Der Clou dieser Technologie: „Die Elektronik wird einfach auf einen flexiblen Träger gedruckt, zum Beispiel auf eine Folie“, erklärt Prof. Dr. Artem Ivanov von der Fakultät Elektrotechnik und Wirtschaftsingenieurwesen der Hochschule Landshut. Bisher kommen ELDs hauptsächlich als Anzeigefeld unter schwierigen Bedingungen in der Industrie zum Einsatz, zum Beispiel bei hoher Luftfeuchtigkeit oder mechanischen Belastungen und sind entsprechend teuer.

„Die Auflösung kann zwar noch lange nicht mit Smartphones oder Tablets mithalten“, so Ivanov. „Trotzdem kann ich mir vorstellen, dass die ELDs in smarter Kleidung zum Einsatz kommen könnten, denn sie sind biegsam, robust und günstig zu produzieren.“ Wie das aussehen könnte, hat Maximilian Wurzer in seiner Bachelorarbeit untersucht: „Es ging darum herauszufinden, wie man ELDs mit dem aktuellen Stand der Technik sinnvoll, sicher und schick in Kleidung integrieren kann“, so Wurzer, der Wirtschaftsingenieurwesen studiert hat.

ELDs: biegsam, robust und günstig

Dafür hat er zunächst das rund fünf Zentimeter lange Display entworfen und aufgebaut, das später Caps und T-Shirts zieren sollte. Es besteht aus fünf Schichten, die er nacheinander im Labor auf die Trägerfolie aufgedruckt hat. „Man muss sich das wie Siebdruck vorstellen. Für jede Schicht wird eine Siebschablone hergestellt. Darauf gibt man die Paste und zieht den Überschuss wieder ab“, erklärt Wurzer. „Ohne die Hilfe der Labormeister wäre das gar nicht möglich gewesen. Sie wissen genau, welche Pasten sich eignen, wie schnell man sie auftragen oder wie man die Parameter an der Maschine einstellen muss.“

Schicht für Schicht sind die Displays entstanden. Das Kernstück sind die zwei Elektrodenschichten: Legt man dort Wechselstrom an, entsteht ein elektrisches Feld. Das bewirkt, dass die dazwischenliegende Phosphorschicht, die aus verbundenen Pixeln besteht, leuchtet und sich als blaue Formen oder Schriftzüge auf dem Display zeigt. Um Kurzschlüsse zu vermeiden, hat Wurzer zwei weitere Schichten aus isolierendem Material aufgebracht. „Auf manche Displays haben wir noch einen blauen Farbfilter appliziert. Das erhöht den Kontrast des blauen Leuchtstoffs“, so Wurzer.

Spannung bringt Display zum Leuchten

Spannung an den Elektroden bringt das Display zum Leuchten. Der Student hat dafür eine eigene Treiberschaltung gebaut. Darin kann er programmieren, wann welches Pixel leuchten soll. „Das ist auch das Besondere an der Arbeit. Bisher gab es keine kompakten Treiberschaltungen für pixelbasierte ELDs, auf denen man unterschiedliche Inhalte zeigen kann. Das ist etwas ganz Neues“, so der betreuende Professor Ivanov. Daher musste Wurzer sich auch mit den Sicherheitsvorgaben befassen: „Je höher die Spannung desto heller leuchtet das ELD. Doch ist sie zu hoch, halten die Bauteile das nicht aus oder es ist zu gefährlich, das Display am Körper zu tragen. Ist sie zu niedrig, leuchtet das Display nicht mehr“, fasst Wurzer zusammen. Er hat daher Widerstände und einzelne Bauteile der Schaltung so eingestellt, dass man sie sicher berühren kann: „Leider hat das Display dadurch etwas an Helligkeit eingebüßt.“ Die Folge: Im Dunkeln und in künstlich beleuchteten Räumen kann man gut erkennen, welcher Schriftzug über die Displays läuft. Für einen Sonnenplatz reicht die Leuchtkraft der Phosphorschicht nicht ganz.

Wurzer hat seine ELDs auf einen Rucksack, Shirts und Caps integriert. „Die Technologie lässt sich weiterentwickeln und mit anderer Steuerungselektronik koppeln“, meint er. Zum Beispiel in Sachen E-Health: „Wenn ein Diabetespatient zu weit in den Unterzucker fällt und bewusstlos wird, könnte das Zuckermessgerät über einen Funksender das Display aktivieren, das im Shirt integriert ist.“ Darauf würde dann erscheinen: „Diabetespatient im Unterzucker, bitte rufen Sie einen Notarzt.“ Wie die kleinen Bildschirme die Medizintechnik voranbringen könnten, könnten weitere Themen für Abschlussarbeiten an der Hochschule Landshut sein.

Externer Link: www.haw-landshut.de

UR SMART – Social Media-Analysetool

Pressemitteilung der Universität Regensburg vom 01.02.2017

Wissenschaftler der Universität Regensburg entwickeln Prototyp für Unternehmen

Wirtschaftsinformatiker um Prof. Dr. Susanne Leist, Lehrstuhl für Wirtschaftsinformatik III an der Universität Regensburg, haben mit UR SMART – Universität Regensburg Social Media Analysis Research Toolkit – den Prototyp eines Analysetools für kleine und mittlere Unternehmen entwickelt, mit dem sich Onlinebeiträge von Nutzern in sozialen Medien wie Facebook und Twitter automatisiert auswerten lassen. Unternehmen können auf diese Weise wertvolle Einblicke in aktuelle Kundenmeinungen und -bedürfnisse gewinnen.

Soziale Technologien gewinnen sowohl im Privatleben als auch betrieblichen Umfeld zunehmend an Popularität. Internetnutzer ersetzen traditionelle Kommunikationskanäle immer mehr durch Social Media-Plattformen und tauschen ihre Erfahrungen mit Services, Leistungen oder Produkten von Unternehmen über soziale Kanäle aus. Den Unternehmen steht dadurch eine Fülle an Informationen über Kundenmeinungen und -anforderungen zur Verfügung. Allerdings bieten am Markt erhältliche Softwarelösungen nur eingeschränkte Funktionalitäten an, um diese Informationen strukturiert und bedarfsgerecht analysieren zu können. Gleichzeitig fallen hohe Lizenzkosten an, die sich kleinere und mittlere Unternehmen mit begrenztem Budget oft nicht leisten können. Zudem berücksichtigen existierende Softwarelösungen die Besonderheiten von Onlinebeiträgen in sozialen Kanälen von Unternehmen, wie z. B. regionalen Dialekt oder das gehäufte Auftreten branchenspezifischer Fachausdrücke, nur unzureichend, was zu ungenauen oder falschen Analyseergebnissen führt. Viele Unternehmen analysieren daher nutzergenerierte Social Media-Beiträge noch manuell.

Die Regensburger Wissenschaftler um Professor Dr. Susanne Leist und Dr. Florian Johannsen (Projektleitung), wissenschaftlicher Mitarbeiter am Lehrstuhl für Wirtschaftsinformatik III, haben mit UR SMART ein Social Media-Analysetool entwickelt, mit dem sich Onlinebeiträge von Nutzern in sozialen Medien wie Facebook und Twitter automatisiert auswerten lassen. So werden Kundenposts der Facebook- und Twitter-Auftritte von Unternehmen hinsichtlich ihrer Tonalität – positive, neutrale oder negative Aussagen – analysiert und anschließend auf Basis vordefinierter Kategorien wie z. B. Produkt, Service, Marke, oder Kampagne eingestuft. Neben der Auswertung der Nutzerbeiträge generiert UR SMART entsprechende Berichte und liefert damit wertvolle Einblicke in Meinungen und Bedürfnisse der Kunden. Unternehmen entwickeln auf diese Weise nicht nur ein besseres Verständnis für ihre Kunden, sondern erhalten auch wertvolle Hinweise darauf, wie sich Produkte und Dienstleistungen nachhaltig und substanziell verbessern lassen. Für die technische Realisierung des Prototyps wurde auf etablierte Verfahren zur Analyse schwach strukturierter bzw. unstrukturierter Textdaten zurückgegriffen, wie z. B. Natural Language Processing, Text Mining, Web Mining und Information Retrieval, die für die Anwendung im Rahmen von UR SMART angepasst wurden. Konzeption und Evaluation des Prototyps fanden in enger Kooperation mit fünf Partnerunternehmen– JAKO-O, Wehrfritz, Haba, Northkite sowie Knaus Tabbert – aus der Region statt. In künftigen Arbeiten wird der Prototyp zielgerichtet weiterentwickelt und um neue Funktionalitäten ergänzt, z. B. zur Analyse multimedialer Inhalte wie Fotos und Videos oder zur automatischen Generierung von Handlungsempfehlungen zur Optimierung betrieblicher Abläufe.

Das Projekt UR SMART ist ein Teilprojekt des Kompetenzzentrums „Mobile Business und Social Media“ der Universitäten Regensburg, Ulm, Passau und Bamberg sowie der Hochschule für Angewandte Wissenschaften Landshut. Das Zentrum wurde im Juli 2015 eingerichtet und erhält bis Ende 2019 eine Förderung des Bayerischen Staatsministeriums für Wirtschaft und Medien, Energie und Technologie im Rahmen des „Internetkompetenzzentrums Ostbayern“. Zu den Forschungsthemen des Kompetenzzentrums gehören u. a. die Wissensgenerierung durch die Analyse von Social Media-Inhalten und -Strukturen, die Nutzung von Social Media im internen Informationsmanagement sowie intelligente mobile Applikationen. (Claudia Kulke)

Publikation:
UR SMART: Social Media Analysis Research Toolkit. In: Proceedings 37th International Conference on Information Systems (ICIS 2016), Dublin.

Externer Link: www.uni-regensburg.de

Virtual Reality als Live-Übertragung

Presseaussendung der TU Wien vom 05.12.2016

Der nächste Schritt für das Erleben virtueller Realität (VR): Die TU Wien ermöglicht Echtzeit-Streaming und 3D Erkundung von realen Umgebungen. So werden etwa live-Wohnungsbesichtigungen mit 3D-Brille möglich, ohne vor Ort sein zu müssen.

Wenn man sich mit einer 3D-Brille durch virtuelle Welten bewegt, ist die Umgebung normalerweise künstlich erstellt und von Beginn an am Computer abgespeichert. Nun geht es auch anders: Die Virtual Reality Forschungsgruppe der TU Wien hat eine Methode entwickelt, reale Umgebungen aufzuzeichnen, live zu streamen und daraus in Echtzeit eine 3D-Welt zu erstellen, durch die sich eine andere Person frei bewegen kann. Von der virtuellen Wohnungsbesichtigung über die Zusammenarbeit an verteilten Inspektionsaufgaben bis hin zum Voraberkunden von Einsatzorten bei Katastrophen werden damit ganz neue VR-Anwendungen möglich.

Besichtigung in Echtzeit

Was macht man, wenn man übersiedeln möchte und in einer fremden Stadt ein WG-Zimmer sucht? Natürlich kann man sich ein paar hübsche Fotos von der Wohnung schicken lassen – doch wie aktuell sie sind und wie viel sie mit der Wirklichkeit zu tun haben, weiß man nicht. Viel besser wäre es, die Wohnung in Echtzeit zu besichtigen, sich in 3D durch die Räume zu bewegen und zu sehen, wie es dort genau jetzt in diesem Augenblick aussieht. „Wir ermöglichen nun erstmals eine Echtzeit-Erkundung von realen Räumen über Virtual Reality“, sagt Annette Mossel vom Institut für Softwaretechnik und Interaktive Systeme, die mit ihrem VR-Konzept kürzlich bei der international wichtigsten Virtual-Reality-Konferenz ISMAR in Mexiko den Best Poster Award gewann. Im Rahmen seiner Diplomarbeit hat ebenfalls Manuel Kröter am Projekt mitgearbeitet.

Daten erzeugen beim virtuellen Spaziergang zu zweit

Die virtuelle Welt wird in Zusammenarbeit von mindestens zwei Personen erzeugt: die erste spaziert mit einer Tiefenkamera durch die Räume. Aus den Aufnahmen wird sofort eine dichte dreidimensionale Punktwolke erstellt und eine 3D-Karte der Wohnung berechnet. Die andere Person, die sich an einem ganz anderen Ort befindet, kann sich gleichzeitig dieselbe Wohnung ansehen. Aus der live über das Internet gestreamten 3D-Punktwolke, angereichert mit Farbinformation, wird ein dreidimensionales Gitternetzmodell erstellt, in das man mit Hilfe von VR immersiv eintauchen kann.

„Dass die virtuelle 3D-Welt, die die zweite Person erkunden kann, von einer anderen Person an einem ganz anderen Ort live erzeugt werden, ist neu“, erklärt Annette Mossel. „Erst dadurch wird eine verteilte Kollaboration der Personen und damit eine gemeinsame Erkundung von entfernten Räumlichkeiten möglich.“ Die zweite Person kann ganz in die virtuelle 3D-Welt eintauchen und sich frei durch die Wohnung bewegen. Dadurch erhält sie eine viel bessere Vorstellung des Raums, als man mit einem Foto oder mit einem 3D-Modell am Computer haben könnte.

„Wir haben unser VR-Konzept mit zahlreichen Versuchspersonen getestet und nach dem virtuellen Rundgang über die Wohnung befragt“, sagt Annette Mossel. Dabei zeigte sich, dass die Testpersonen nach der virtuellen Besichtigung ein sehr gutes Raumverständnis hatten. Sie konnten die Entfernungen in der Wohnung danach gut wiedergeben und sehr schnell ihren Weg durch das virtuelle Modell zu einem vorgegeben Zielpunkt finden.

Interessant könnte die Technik auch zur Unterstützung von Einsatzkräften am Katastrophenort sein. Anstatt eines Menschen könnte auch ein Roboter die Umgebung digital aufnehmen und den Einsatzort erkunden. So könnten Rettungskräfte ganz gefahrlos eine virtuelle Nachbildung des Einsatzortes besichtigen.

Auch zur Ausbildung von Einsatzkräften könnte diese Technologie herangezogen werden. So könnte man etwa Feuerwehrleute über 3D-Brillen mit einem realistischen Katastrophenszenario konfrontieren. Auch in diesem Fall könnte die Umgebung – je nach gewünschtem Übungsverlauf – in Echtzeit erstellt und live in die virtuelle Welt der Einsatzkräfte eingespielt werden. (Florian Aigner)

Externer Link: www.tuwien.ac.at