„Finde den Stuhl“: Wie Maschinen Kunstgeschichte lernen

Pressemeldung der Universität Passau vom 08.12.2018

Menschen wissen intuitiv, was ein Stuhl ist. Sie haben von klein auf viele Beispiele gesehen und anhand dieser Beispiele gelernt, was einen Stuhl ausmacht: Beine, Sitzfläche, Lehne. Diese Merkmale haben sie so verinnerlicht, dass sie einen Stuhl nicht mehr in seine einzelnen Bestandteile zerlegen müssen, um zu wissen: „Das ist ein Stuhl“. Menschen besitzen die Fähigkeit zum Deep Learning – ein Begriff, der häufig in Zusammenhang mit künstlicher Intelligenz fällt. Im Projekt Neoclassica bringt ein Team aus Informatikern, einer Informatikerin und einem Historiker Maschinen bei, klassizistische Möbel auf Abbildungen zu erkennen. Sie nutzen dafür neuronale Netze, die Google bereits vortrainiert hat.

Simon Donig ist Historiker und interessiert sich für klassizistische Möbel. Donig hat sich über mehrere Jahre hinweg Expertenwissen angeeignet. Er weiß noch ein bisschen mehr als ein durchschnittlicher Mensch über bestimmte Stühle, kann deren Merkmale und Eigenheiten bestimmten Epochen zuordnen. Zum Beispiel weiß er, dass ein klassizistischer Stuhl in seiner Formsprache auf die Antike zurückgreift. Diese ist schlichter, geradliniger und geometrischer als jene eines barocken Stuhls und weist weniger florale Verzierungen auf. Hier gibt er dieses Wissen an eine Maschine weiter.

Damit die Maschine den Historiker versteht, braucht es die Vermittlung aus der Informatik. Das Team am Passauer Lehrstuhl für Informatik mit Schwerpunkt Digital Libraries and Web Information Systems hat unter der Leitung von Siegfried Handschuh im Projekt Neoclassica den Editor aufgebaut, mit dessen Hilfe der Historiker Donig der Maschine die klassizistische Formsprache beibringen kann. Die Informatikerin Maria Christoforaki hat das Wissen des Historikers modelliert und in eine Form gebracht, die Maschinen verstehen können. Gemeinsam haben sie eine Ontologie aufgebaut, eine Art Wörterbuch für einen Computer.

Die Passauer Ontologie basiert auf dem CIDOC Conceptual Reference Model, das viele Museen weltweit zur Dokumentation des kulturellen Erbes nutzen. Es handelt sich dabei um eine Norm (ISO 21127:2014) für den kontrollierten Austausch von Informationen im Bereich des kulturellen Erbes. Dies soll sicherstellen, dass auch andere Forschende die mit der Neoclassica Ontologie annotierten Daten nutzen können.

Historische Definitionen „füttern“ künstliche Intelligenz

„In dieser Ontologie findet sich die Handschrift von Simon Donig. Und dessen Rechercheleistung“, sagt Prof. Dr. Handschuh, assoziierter Professor an der Universität Passau und Ordinarius für Data Science an der Universität St. Gallen. Donig hat Primärquellen recherchiert, darunter etwa das „Cabinet Dictionary“ aus dem Jahr 1803, in dem der englische Möbelhersteller Thomas Sheraton inspirierende Abbildungen von Stühlen zusammengetragen hat. Darin wiederum taucht der Begriff fauteuil – Armlehnstuhl – auf und wird wie folgt definiert: „Fauteuil, from the French, signifies a large chair.“ Diese Definition findet sich nun auch in der Passauer Ontologie und infolgedessen im CIDOC. Die Ontologie modelliert also das Fachwissen und macht dieses dem Computer zugänglich. Sie ist allerdings nur ein Teil der künstlichen Intelligenz, die das Passauer Team nutzt. Die zweite Komponente ist ein intelligentes, lernfähiges System, ein künstliches neuronales Netz. Dieses identifiziert und klassifiziert die eingespeisten Abbildungen.

Deep Learning funktioniert bei der Maschine ähnlich wie beim menschlichen Gehirn: das künstliche neuronale Netz identifiziert in den verschiedenen Schichten bestimmte Merkmale und gibt diese an die jeweils tiefer liegende Schicht weiter. Es kann die Merkmale auf das Wesentliche reduzieren und generalisieren. Anhand dieses Wissens kann es die Wahrscheinlichkeit berechnen, ob es sich bei einer bislang nicht bekannten Abbildung ebenfalls um einen Stuhl handelt.

Nun ist es zwar so, dass das Team um Neoclassica viele Abbildungen klassizistischer Möbelstücke zusammengetragen hat – insgesamt 1246 Dateien aus namhaften Museen wie dem New Yorker Museum of Modern Art, dem Amsterdamer Rijksmuseum oder der Eremitage in Sankt Petersburg. Allerdings sind das zu wenig, um das Netz erfolgreich trainieren zu können. Für ein Trainingsbeispiel haben sie bisweilen nur fünf bis 20 Abbildungen zur Verfügung. Üblich sind 100 bis 1000.

Um die Treffsicherheit zu verbessern, bedient sich das Forschungsteam in Neoclassica daher eines Tricks: Es setzt auf die Vorarbeit von Google, das das neuronale Netz bereits auf Alltagswissen trainiert hat. Die künstliche Intelligenz kennt also bereits das Konzept Stuhl und erkennt Stühle auf Abbildungen. Klassizistische Objekte hingegen kennt das vortrainierte Google-Netzwerk noch nicht, stattdessen ordnet es die Formen Gegenständen aus unserem heutigen Alltag zu. Einem Laptop, zum Beispiel. Oder einer Mikrowelle. Trainiert mit dem Wissen des Historikers Donig aber schafft es das Netz, klassizistische Möbelstücke selbst auf bislang nicht bekannten Abbildungen mit hoher Zuverlässigkeit zu erkennen. Für den Internet-Giganten Google, der sich auf die Digitalisierung unseres Alltags spezialisiert hat, ist solches Wissen uninteressant. Den Historiker hingegen bringen die neuen Instrumente ins Schwärmen: Sie könnten Expertinnen und Experten aus dem Bereich der Kunstgeschichte ganz neue Chancen eröffnen.

Das Projekt wird vom Bundesministerium für Bildung und Forschung im Rahmen des Passauer Centre for eHumanities (PACE) gefördert. (Katrina Jordan)

Externer Link: www.uni-passau.de

Polyurethan-Schäume zuverlässig simulieren

Presseinformation (Forschung Kompakt) vom 02.11.2018

Autositze, Matratzen und Dämmstoffe bestehen oftmals aus Polyurethan-Schäumen. Der Aufschäumprozess der flüssigen Polymer-Emulsionen ist komplex. Fraunhofer-Forscherinnen und Forscher können das Aufschäumverhalten nun simulieren und das Material verlässlich charakterisieren. Dies funktioniert auch mit Verbundwerkstoffen, bei denen die Kunststoff-Schäume mit Textilstrukturen kombiniert werden.

Polyurethan-Schäume oder kurz PU-Schäume spielen eine große Rolle in unserem Alltag – auch wenn wir uns dessen nicht bewusst sind. Doch wir sitzen und liegen täglich darauf: So bestehen Autositze und Matratzen beispielsweise aus weichen PU-Schäumen. Harte PU-Schäume setzt man dagegen unter anderem für Dämmstoffe in Gebäuden ein. Die Eigenschaften von Schäumen vorherzusagen und sie zu charakterisieren ist sehr komplex – experimentelle Untersuchungen führen vielfach zu falschen Parametern.

Neue Produktlinien besser planen

Interessant ist vor allem die Frage: Wie setzt sich die anfängliche Flüssigkeit in Schaum um? Und wie ist es um die Eigenschaften des entstehenden Schaumes bestellt? Forscherinnen und Forscher vom Fraunhofer-Institut für Techno- und Wirtschaftsmathematik ITWM in Kaiserslautern können diese Fragen nun zuverlässig beantworten und Herstellern von PU-Schaum-Produkten eine gute Charakterisierung der verwendeten Polymere an die Hand geben – was die Planung neuer Produktlinien deutlich erleichtert.

Am besten lässt sich dies an einem Beispiel erläutern, etwa einem Autositz. In diesem sollen einige Zonen fester sein, andere wiederum weicher. Um dies zu erreichen, spritzen die Hersteller verschiedene Schäume mit unterschiedlichen Eigenschaften gegeneinander. Als Ausgangssubstanzen dienen ihnen dabei flüssige Polymergemische, die in eine entsprechende Form eingespritzt werden. Nun beginnt ein schneller, jedoch komplizierter chemischer Prozess: Innerhalb weniger Sekunden verwandeln sich die beiden flüssigen Emulsionen in einen komplexen Polymerschaum. Doch wie schäumen die beiden verschiedenen Substanzen genau aus? Haben sie die gewünschten Eigenschaften, und verteilen sie sich wie vorgesehen in die Zonen? »Statt wie bisher bei der Chemie anzusetzen und alle Parameter wie Reaktionsraten und Viskosität experimentell in vielen unabhängigen Experimenten zu bestimmen, machen wir zwei, drei einfache Experimente – etwa das Aufschäumen im Becherglas«, erläutert Dr. Konrad Steiner, Abteilungsleiter am Fraunhofer ITWM. »Diese Experimente simulieren wir eins zu eins im Rechner. Diese bilden die Basis zur Ermittlung der notwendigen Modellparameter, die zum Berechnen des Aufschäumverhaltens nötig sind. Die darauf basierenden Simulationen mit dem Simulationstool FOAM sind robust und die Ergebnisse für den Anwendungsfall verlässlich.« Ergo: Statt wie bisher jeden charakterisierenden Para-meter einzeln in einem Experiment bestimmen zu müssen – und dann Werte zu erhalten, die ungenau sein können – erhalten die Forschenden in kurzer Zeit und mit wenig Aufwand verlässliche Daten für den Aufschäumprozess.

»Die Hersteller nutzen üblicherweise drei oder vier unterschiedliche Schäume – bei neuen Produkten ändern sich meist nur die Kombination der Schäume und die End-Geometrien«, sagt Steiner. Haben die Fraunhofer-Forscher einen PU-Schaum über ihre Simulation einmal charakterisiert, ist eine gute Basis für neue Produkte gelegt: Die Hersteller können die erhaltenen Schaumdaten in das Simulationstool FOAM eingeben und auf diese Weise für jedes neue Produkt und jede neue Geometrie simulieren, wie die Massen und die Wärme beim Aufschäumen transportiert werden. Sie können also beispielsweise genau herausfinden, wie sie die beiden Schäume gegeneinander spritzen müssen, um die verschiedenen Zonen im Sitz an den gewünschten Stellen zu erhalten. Die Simulationsmethodik zur Parameteridentifikation und Schaumsimulation mit FOAM ist etabliert, es laufen bereits mehrere Projekte mit verschiedenen Kunden.

Verbundwerkstoffe mit PU-Schäumen

Auch bei Verbundwerkstoffen setzen Hersteller vielfach auf PU-Schäume – etwa für Trägerstrukturen im Auto, die zum einen stabil, zum anderen leicht sein sollen. Dazu integrieren sie Verstärkungsstrukturen wie Textilien in die Schäume. Das Ergebnis: Würde eine Hartschaumplatte etwa bei einer Verbiegung bereits brechen, hält die Platte mit integriertem Textil problemlos stand. Durch das Textil in der Form verändert sich allerdings das Strömungsverhalten der Polymer-Emulsion, schließlich bildet die Textilstruktur einen Widerstand. Damit ändert sich auch die Dynamik der Schaumbildung und die Struktur des Schaums: Die Blasen werden kleiner, der Schaum dichter.

Das Forscherteam des Fraunhofer ITWM hat erstmalig eine Simulation für Verbundmaterialien entwickelt, gemeinsam mit den Kollegen am Lehrstuhl für Strukturleichtbau und Kunststoffverarbeitung der TU Chemnitz. »Den Strömungswiderstand, den die entsprechende Textilstruktur hervorruft, können wir ausrechnen – das ist eine Expertise, die wir schon lange haben. Anschließend können wir das Aufschäumen in und um die Textilstruktur simulieren«, erklärt Steiner. Bisher mussten Hersteller mühsam ausprobieren, ob der erhaltene Schaumverbund die gewünschten Eigenschaften hat – was durchaus mehrere Wochen oder gar Monate dauern kann. Die Simulation dagegen wartet bereits nach ein bis zwei Tagen mit einem verlässlichen Ergebnis auf. Die Forscher haben sie bereits an Bauteilen validiert und überprüft. Die Ergebnisse stimmen sehr gut mit der Realität überein.

Externer Link: www.fraunhofer.de

Künstliche Intelligenz: Ein Auto parken mit zwölf Neuronen

Presseaussendung der TU Wien vom 22.10.2018

An der TU Wien nahm man sich beim Programmieren künstlicher Intelligenz natürliche Nervenbahnen zum Vorbild. Die neuen Ansätze erzielen mit wenig Aufwand verblüffende Leistungen.

Ein natürlich gewachsenes Gehirn funktioniert ganz anders als ein gewöhnliches Computerprogramm. Es besteht nicht aus Befehlen mit klaren logischen Anweisungen, sondern aus einem Netz von Zellen, die miteinander kommunizieren. Man kann heute aber solche Netze auch am Computer nachbilden, um Probleme zu lösen, die sich nur schwer in logische Befehle zerlegen lassen.

An der TU Wien hat man nun einen neuen Ansatz für die Programmierung solcher neuronaler Netze entwickelt, der die zeitliche Entwicklung der Nervensignale völlig anders beschreibt als bisher. Inspirieren ließ man sich dabei von einem besonders einfachen und gut erforschten Lebewesen, dem Fadenwurm C. elegans. Sein Gehirn wurde am Computer simuliert, das Modell wurde dann mit speziell entwickelten Lernalgorithmen angepasst. So gelang es, mit einer extrem niedrigen Zahl simulierter Nervenzellen bemerkenswerte Aufgaben zu lösen. Obwohl das vom Wurm inspirierte Netzwerk nur über 12 Neuronen verfügt, kann man es darauf trainieren, ein Auto an einen vorherbestimmten Ort zu manövrieren. Ramin Hasani von Institut für Computer Engineering der TU Wien hat diese Arbeit nun am 20. Oktober bei der TEDx-Konferenz in Wien präsentiert.

Mathematisch lässt sich zeigen, dass diese neuartigen neuronalen Netze extrem vielseitig sind. Außerdem lässt sich ihr Verhalten gut untersuchen und verstehen – im Gegensatz zu bisherigen neuronalen Netzen, die man oft als nützliche aber undurchschaubare „Black Box“ betrachtete.

Signale in verzweigten Netzen

„Neuronale Netze müssen zuerst trainiert werden“, erklärt Ramin Hasani. „Man liefert einen bestimmten Input und passt die Verbindungen zwischen den Neuronen so an, dass am Ende möglichst zuverlässig der richtige Output geliefert wird.“

Der Input kann beispielsweise ein Bild sein – und der Output der Name der Person, die darauf zu sehen ist. „Die Zeit spielt bei diesem Vorgang normalerweise keine Rolle“, sagt Radu Grosu (Institut für Computer Engineering, TU Wien). „Bei den meisten neuronalen Netzen wird zu einem bestimmten Zeitpunkt der gesamte Input geliefert und daraus ergibt sich sofort ein bestimmter Output. In der Natur ist das aber ganz anders.“

Spracherkennung etwa ist eine zwangsläufig zeitabhängige Aufgabe, genauso wie Simultanübersetzungen oder Bewegungsabläufe, die auf eine wechselnde Umwelt reagieren. „Solche Aufgaben können viel besser gelöst werden, wenn man sogenannte RNN verwendet – recurrent neural networks“, sagt Ramin Hasani. „Das ist eine Architektur, die Zeitabläufe besser abbildet, weil sie dafür sorgt, dass sich die Nervenzellen merken, was bisher passiert ist.“

Hasani und sein Team schlugen eine neuartige RNN-Architektur vor, die auf biophysikalischen Modellen von Neuronen und Synapsen beruht und zeitabhängige Dynamik erlaubt. „In einem gewöhnlichen RNN-Modell gibt es eine unveränderliche Verbindung zwischen Neuron eins und Neuron zwei, die festlegt, wie stark das eine Neron die Aktivität des anderen beeinflusst“, erklärt Ramin Hasani. „In unserem neuartigen RNN ist diese Verbindung eine nichtlineare Funktion der Zeit.“

Indem man zulässt, dass sich die Zellaktivität und die Verbindungen zwischen den Zellen mit der Zeit verändern, eröffnet man völlig neue Möglichkeiten. Ramini Hasani, Mathias Lechner und ihr Team konnten mathematisch zeigen, dass sich mit dieser Methode im Prinzip neuronale Netze mit beliebiger Dynamik erzeugen lassen. Um die Vielseitigkeit des neuen Typs neuronaler Netze zu demonstrieren, entwickelten und trainierten sie ein spezielles kleines Neuro-Netzwerk: „Wir bildeten das Nervensystem nach, das der Fadenwurm C. elegans verwendet, um einen ganz einfachen Reflex zu realisieren – nämlich das Rückzugsverhalten bei einer Berührung“, sagt Mathias Lechner (derzeit am Institute of Science and Technology Austria). „Das neuronale Netz wurde stimuliert und trainiert, um reale Aufgaben zu lösen.“

Der Erfolg ist erstaunlich: Obwohl es sich um ein kleines, einfaches Netz mit nur 12 Nervenzellen handelt, kann es (nach der entsprechenden Optimierung der Nervenverbindungen) bemerkenswert komplexe Aufgaben lösen. Das Netz kann trainiert werden, ein Fahrzeug in eine Parklücke zu manövrieren. „Der Output des neuronalen Netzes, der in der Natur die Bewegung des Fadenwurms steuern würde, wird bei uns in das Lenken und Beschleunigen des Fahrzeugs umgesetzt“, sagt Hasani. „Wir beweisen damit, dass mit unserer Methode sehr einfache neuronale Netze komplizierte Aufgaben in einer physisch realen Umgebung lösen können.“

Zusätzlich hat die neue Methode den Vorteil, dass sie einen besseren Einblick in die Funktionsweise des neuronalen Netzes bietet: Während man bei bisherigen neuronalen Netzen, die oft aus vielen tausend Knotenpunkten bestanden, nur das Ergebnis analysieren kann und die Abläufe im Inneren unüberschaubar komplex sind, lässt sich beim kleineren aber leistungsfähigen Netz der TU Wien zumindest teilweise verstehen, welche Nervenzellen welche Effekte hervorrufen. „Für die Forschung und die weitere Verbesserung des Konzeptes ist das ein großer Vorteil“, sagt Hasani.

Das bedeutet freilich nicht, dass Autos in Zukunft von künstlichen Würmern eingeparkt werden – aber es zeigt, dass künstliche Intelligenz mit der richtigen Architektur deutlich leistungsfähiger sein kann als bisher gedacht. (Florian Aigner)

Externer Link: www.tuwien.ac.at

Hochautomatisiert unterwegs – OTH Amberg-Weiden schließt Forschungsprojekt Ko-HAF ab

Pressemeldung der OTH Amberg-Weiden vom 16.10.2018

Hochautomatisiertes Fahren bei höheren Geschwindigkeiten – daran haben 16 Partner aus Industrie, Wissenschaft und öffentlicher Hand seit 2015 gemeinsam im Projekt „Ko-HAF – Kooperatives Hochautomatisiertes Fahren“ erfolgreich geforscht. Die OTH Amberg-Weiden war in dem vom Bundesministerium für Wirtschaft und Energie im Rahmen des Programms „Neue Fahrzeug- und Systemtechnologien“ geförderten Forschungsprojekt für die Kommunikation der Fahrzeuge mit einem Safety Server zuständig.

Das Projekt Ko-HAF zielt auf das sichere hochautomatisierte Fahren bei höheren Geschwindigkeiten auf Autobahnen: Solche Systeme muss der Fahrer nicht mehr dauerhaft überwachen. Er kann sich anderen Aufgaben widmen, muss jedoch immer in der Lage sein, die Steuerung nach Aufforderung mit einer gewissen Zeitreserve zu übernehmen. Dazu muss die Vorausschau des Fahrzeugs weiter reichen, als dies mit fahrzeugeigenen Sensoren möglich ist. Hier setzt Ko-HAF an: Fahrzeuge senden Umfeldinformationen (etwa geänderte Straßenführung bei Baustellen oder Hindernisse auf der Fahrbahn) über Mobilfunk an den sogenannten Safety Server. Dort werden diese gesammelt und verdichtet, sodass eine hochgenaue und hochaktuelle Karte zur Verfügung steht. Diese liefert die im Sinne eines künstlichen Horizonts benötigte weitere Vorausschau. Etwaige Änderungen der Karte werden über Mobilfunk an alle Fahrzeuge im Ko-HAF-Verbund übertragen. Die Kommunikationseinheit hierfür wurde durch das Projektteam von Prof. Alfred Höß von der OTH in Amberg entwickelt, realisiert und den Projektpartnern zur Verfügung gestellt.

Bei der Anschlusspräsentation referierte M.Sc. Josef Schmid vom Projektteam der OTH Amberg-Weiden zur Übertragung von hochgenauen Karten. Wie unterschiedlich die erreichbaren Übertragungsgeschwindigkeiten bei Mobilfunk (LTE) im realen Umfeld sein können, wurde an einem Stand und auch live im Forschungsfahrzeug der Hochschule demonstriert.

Externer Link: www.oth-aw.de

Mit dem Virtual-Reality-Handschuh virtuelle Objekte «berühren»

Medienmitteilung der ETH Zürich vom 15.10.2018

Forscher der ETH Zürich und der EPFL haben einen ultraleichten Handschuh entwickelt, der es seinen Nutzern erlaubt, virtuelle Objekte zu «berühren» und zu manipulieren. Der Handschuh mit dem Namen DextrES wiegt weniger als acht Gramm und gibt seinem Träger ein äusserst realistisches, haptisches Feedback. Zudem bietet er dank künftig möglichem Batteriebetrieb eine noch nie da gewesene Bewegungsfreiheit.

Weltweit befassen sich Ingenieure und Software-Entwickler mit der Entwicklung von Technologien, die es dem Nutzer erlauben, virtuelle Objekte zu berühren, zu greifen und zu manipulieren – mit dem gleichen Gefühl, wie wenn sie etwas in der realen Welt berühren würden. Forschern der EPFL und der ETH Zürich ist mit diesem neuen, haptischen Handschuh soeben ein wichtiger Schritt auf dem Weg zu diesem Ziel gelungen. Der DextrES überzeugt nämlich nicht nur durch sein geringes Gewicht, sondern gibt auch ein äusserst realistisches Feedback. Zudem ist er in der Lage, mit einer Spannung von gerade mal 200 Volt und einigen Milliwatt Leistung an jedem Finger eine Haltekraft von bis zu 40 Newton zu generieren. Und nicht zuletzt besitzt er das Potenzial, um künftig mit nur einer sehr kleinen Batterie betrieben zu werden. Diese Eigenschaften, in Kombination mit dem geringen Formfaktor des Handschuhs – er ist gerade mal 2 mm dick – führen zu einer beispiellosen Präzision und Bewegungsfreiheit.

«Unser Ziel war es, ein leichtgewichtiges Gerät zu entwickeln, das – anders als bestehende Virtual-Reality-Handschuhe – kein sperriges Exoskelett, Pumpen oder sehr dicke Kabel benötigt», erklärt Herbert Shea, Leiter des Soft Transducers Laboratory (LMTS) der EPFL. DextrES wurde an der ETH Zürich erfolgreich von Freiwilligen getestet und wird am kommenden ACM Symposium on User Interface Software and Technology (UIST) einem Fachpublikum vorgestellt.

Gewebe, Metallbänder und Elektrizität

Der Handschuh besteht aus Baumwolle und dünnen, elastischen Metallbändern, die über die Finger laufen. Diese Bänder sind durch einen dünnen Isolator voneinander getrennt. Wenn die Finger des Trägers mit einem virtuellen Objekt in Kontakt kommen, appliziert die Steuereinheit eine Spannungsdifferenz zwischen den Metallbändern, die dazu führt, dass sie aufgrund elektrostatischer Anziehung zusammenkleben. Dies wiederum erzeugt eine Bremskraft, die die Bewegungen der Finger oder des Daumens blockiert. Sobald die Spannung unterbrochen wird, gleiten die Metallbänder wieder reibungslos, und der Träger kann seine Finger frei bewegen.

Das Hirn austricksen

Zurzeit wird DextrES noch über ein sehr dünnes elektrisches Kabel mit Strom versorgt. Dank der geringen erforderlichen Spannung und Leistung könnte letztlich jedoch eine kleine Batterie diese Aufgabe übernehmen. «Das System benötigt deshalb so wenig Strom, weil keine Bewegung erzeugt, sondern eine gebremst wird», so Shea. Um herauszufinden, wie exakt reale Bedingungen simuliert werden müssen, um dem Nutzer ein realistisches Erlebnis zu verschaffen, sind nun weitere Tests erforderlich. «Die menschliche Sensorik ist hochentwickelt und hochkomplex. In den Fingergelenken und eingebettet in die Haut, verfügen wir über eine hohe Dichte an unterschiedlichen Rezeptoren. Die Wiedergabe eines realistischen Feedbacks in der Interaktion mit virtuellen Objekten stellt deshalb eine grosse Herausforderung dar, die zurzeit noch ungelöst ist. Unsere Arbeit geht einen Schritt in diese Richtung, indem wir uns insbesondere auf das kinästhetische Feedback fokussieren», erklärt Otmar Hilliges, Leiter des Advanced Interactive Technologies Lab der ETH Zürich.

Im Rahmen dieses gemeinsamen Forschungsprojekts wurde auf dem Microcity-Campus der EPFL in Neuenburg die Hardware entwickelt, während an der ETH Zürich das Virtual-Reality-System kreiert und die Nutzertests durchgeführt wurden. «Unsere Partnerschaft mit dem LMTS-Lab der EPFL hat sich als goldrichtig erwiesen. Sie erlaubt es uns, eine der ältesten Herausforderungen im Bereich Virtual Reality mit einer Geschwindigkeit und in einer Präzision anzugehen, die anderweitig nicht möglich wären», ergänzt Hilliges.

Der nächste Schritt wird nun eine Vergrösserung des Gerätemassstabs und damit einhergehend der Einsatz an anderen Körperteilen mittels eines leitfähigen Gewebes sein. «Gamer sind heute der grösste Markt. Es gibt jedoch zahlreiche weitere mögliche Anwendungsgebiete, insbesondere im Gesundheitswesen – beispielsweise für die Schulung von Chirurgen. Möglich wäre der Einsatz der Technologie auch in Augmented-Reality-Anwendungen», so Shea.

Externer Link: www.ethz.ch