Faden-Kunst aus Roboterhand

Presseaussendung der TU Wien vom 10.09.2018

Als „String Art“ bezeichnet man Bilder aus kunstvoll gespannten Fäden. Was bisher Erfahrung und eine ruhige Hand benötigte, gelingt an der TU Wien nun mit einem Roboter – ein Beispiel, welch komplexe Aufgaben digitale Fabrikation mittlerweile lösen kann.

Die Grundidee ist einfach: Auf einem Brett befinden sich Nägel, und zwischen ihnen soll ein langer Faden so hin und her gespannt werden, dass er ein bestimmtes Bild ergibt. Recht einfach lassen sich so interessante geometrische Muster produzieren. Den wahren Profis gelingt es sogar, durch eine ausgeklügelte Anordnung der Fadenlinien ein Portrait zu erstellen.

An der TU Wien hat man diese Kunstform nun automatisiert: Beliebige Bilder können verwendet werden, der Computer berechnet den optimalen Faden-Weg, der das gewünschte Bild möglichst exakt wiedergibt. Ein Industrie-Roboter übernimmt dann die Arbeit des Fadenspannens und erzeugt ein kreisrundes Fadenbild.

Unzählige Möglichkeiten

„Aus wissenschaftlicher Sicht ist das ein sehr interessantes Problem, weil es ganz besonders schwer zu lösen ist“, sagt Przemyslaw Musialski vom Institut für Diskrete Mathematik und Geometrie der TU Wien. Im Allgemeinen lässt sich ein Bild auf diese Weise nicht exakt reproduzieren – schließlich kann man mit der Faden-Methode keine einzelnen Bildpunkte setzen, sondern nur durchgängige Linien ziehen. Man muss daher eine möglichst gute Näherungslösung finden.

Außerdem ist die Anzahl der Möglichkeiten, wie man einen Faden zwischen einer größeren Anzahl von Nägeln spannen kann, astronomisch hoch. Es ist völlig unmöglich, alle denkbaren Varianten durchzuprobieren. „Es handelt sich um ein sogenanntes NP-schweres Problem“, sagt Musialski. „Zu dieser Klasse von Aufgaben gehören Rechenprobleme, die mit Computern in überschaubarer Zeit nicht exakt gelöst werden können.“

Für die Erstellung des Bildes verwendet man einen Kreis aus 256 Haken. „Unsere Rechnungen haben gezeigt, dass eine größere Anzahl von Haken das Endergebnis nur noch marginal verbessert“, sagt Przemyslaw Musialski. Der Faden kann jeweils von der rechten oder linken Seite jedes Hakens zur rechten oder linken Seite jedes anderen Hakens gespannt werden. Schon bei ungefähr 30 Fadenlinien ergeben sich somit mehr mögliche Varianten als das beobachtbare Universum Atome hat – und um ein erkennbares Bild wiederzugeben, braucht man noch viel mehr Linien. Es ist daher eine große mathematische Herausforderung, aus der unüberblickbaren Vielzahl an möglichen Wegen einen herauszufinden, der das gewünschte Bild möglichst gut reproduziert.

Der Präzisions-Roboterarm als Fadenkünstler

Die mathematische Lösung des Problems war dem Forschungsteam aber noch nicht genug. Das Ziel war, echte „String Art“ völlig automatisiert zu produzieren. Daher setzte man einen hochpräzisen Industrie-Roboter ein, der normalerweise an der Fakultät für Architektur der TU Wien zum Fräsen komplizierter 3D-Formen verwendet wird. Der Roboterarm spannt einen einzigen langen Faden zwischen den 256 Haken, sodass am Ende ein kreisrundes Fadenbild mit 63cm Durchmesser entsteht. Auch für den Industrieroboter ist die Aufgabe nicht im Handumdrehen erledigt: Je nach Bildmotiv dauert die Produktion 2-5 Stunden und benötigt zwischen 2 und 6 Kilometer Faden.

Unterstützt wurde das Team der TU Wien von Peter Wonkas Arbeitsgruppe an der King Abdullah University of Science and Technology in Saudi-Arabien. „Auch wenn unser Roboter hübsche Bilder erzeugt, ist unsere Arbeit natürlich kein Kunstprojekt“, sagt Przemyslaw Musialski. „Letztlich wollen wir zeigen, wie man besonders schwierige technische Probleme am besten lösen kann. Im String-Art-Projekt arbeiten wir mit Methoden, die in Zukunft auch in der digitalen Fabrikation eine wichtige Rolle spielen werden.“ (Florian Aigner)

Externer Link: www.tuwien.ac.at

Drohnensteuerung via Sprachkanal

Presseinformation (Forschung Kompakt) der Fraunhofer-Gesellschaft vom 01.08.2018

Die Zukunft liegt in der Luft. Drohnen können schon bald Straßen entlasten, Lieferwege optimieren oder Brandbekämpfung sicherer und effizienter machen. Bis die Technologie jedoch flächendeckend kommerziell eingesetzt werden kann, müssen noch einige Herausforderungen gemeistert werden. Zum Beispiel die Frage der Kommunikation zur Steuerung und Ortung. Diese muss stabil und überall verfügbar sein, sollte möglichst günstig sein und muss auch außer Sichtweite funktionieren. Wissenschaftler des Fraunhofer-Instituts für Nachrichtentechnik, Heinrich-Hertz-Institut, HHI in Berlin haben eine Lösung gefunden: Sie rufen die Drohne einfach an.

Drohnen sind eine vielversprechende Technologie. Zum Beispiel könnte mit ihnen schon in naher Zukunft der Lieferverkehr von der Straße in die Luft verlegt werden. Das würde Straßen entlasten und den CO2-Ausstoß senken. Obendrein würden die Lieferwege deutlich kürzer und Pakete könnten wesentlich schneller den Kunden erreichen. Bei der Brandbekämpfung könnten Drohnen voraus fliegen und den Feuerwehrleuten ein erstes Bild vom Einsatzort liefern. Zahlreiche weitere Einsatzszenarien sind denkbar. Doch vor dem flächendeckenden Drohneneinsatz gilt es noch einige Herausforderungen zu bewältigen. Zum Beispiel eine zuverlässige Kommunikation zur Steuerung und Ortung der Drohnen. Bisher werden Drohnen oft direkt per Funk gesteuert, die begrenzte Reichweite schränkt die Einsatzmöglichkeiten jedoch deutlich ein. Das Senden und Empfangen von Informationen über Mobilfunkdatenkanäle ist eine weitere Möglichkeit. Doch auch diese weist Schwächen auf, die den flächendeckenden, zuverlässigen kommerziellen Einsatz derzeit nicht erlauben. So sind diese Kanäle nicht auf eine konstante Echtzeitverbindung, sondern für das kurzzeitige Übermitteln von Datenpaketen, beispielsweise beim Laden einer Website, ausgelegt. Die Folge: Verbindungsabbrüche. Darüber hinaus ist bei der Nutzung von Datenkanälen gerade in Städten oder bei Großveranstaltungen Überlastung ein Problem. Eine Alternative wäre die Errichtung einer eigenen Infrastruktur, über die Drohnen mit dem Controller kommunizieren. Dies ist nicht nur aufwändig und teuer, es stehen dafür auch kaum Funkressourcen zur Verfügung. Verfügbare Frequenzbereiche sind meist anfällig für Störungen und Überlastungen, sodass eine derartige Lösung weder wirtschaftlich noch sicherheitstechnisch sinnvoll ist.

Experten vom Fraunhofer HHI haben eine Lösung entwickelt, die stabil, günstig, reichweiteunabhängig und prinzipiell sofort umsetzbar ist: Die Steuerung über die Sprachkanäle des Mobilfunknetzes. »Ein großer Vorteil ist, dass Sprachkanäle im Gegensatz zu Datenverbindungen nahezu überall verfügbar und äußerst zuverlässig sind«, erklärt Tom Piechotta, Wissenschaftler beim Fraunhofer HHI. »Selbst in Gegenden, wo eine Datenverbindung nicht oder nur eingeschränkt möglich ist, ist die Netzabdeckung für Sprachkanäle meist noch gegeben.« Darüber hinaus entstehen kaum zusätzliche Kosten, da weder eine neue Infrastruktur aufgebaut werden muss, noch spezielle Verträge für priorisierte Datenverbindungen mit den Netzbetreibern geschlossen werden müssen. Alles was nötig ist, ist eine einfache Sprachverbindung, wie sie mit jeder Prepaidkarte bereitgestellt wird.

Weltweit erreichbar

Um Drohnen steuern zu können, müssen einerseits Befehle an die Drohne übermittelt, andererseits Informationen wie Position, Höhe oder Akkuzustand an den Controller am Boden übermittelt werden. »Bei den Steuerbefehlen und Ortsinformationen handelt es sich um verhältnismäßig kleine Informationsmengen, die aber zuverlässig übertragen werden müssen,« sagt Piechotta. »Wir wandeln die Befehle in Audiosignale um, ähnlich wie früher bei Modems. Diese übersetzt ein kleines Modul auf der Drohne zurück in den Steuerbefehl. Das Besondere ist, dass diese Art der Übertragung nicht nur in Echtzeit funktioniert und äußerst robust gegenüber Ausfällen und Verbindungsabbrüchen ist. Sie funktioniert auch schon heute, ohne neue Funkstandards, ohne neue Infrastruktur – und zwar weltweit.« Denn da die Übertragung über das normale Mobilfunknetz läuft, ist eine Verbindung zur Drohne an nahezu jedem Punkt der Erde möglich – quasi per Ferngespräch.

Zukunftssichere Steuerung in Echtzeit

Doch wie funktioniert die Steuerung, wenn die Drohne außer Sichtweite – vielleicht sogar am anderen Ende der Welt ist? Visualisiert wird der Standort der Drohne zum Beispiel über Online-Kartendienste wie Google Maps. Position und Höhe des Fluggeräts werden in Echtzeit übertragen und auf der Karte angezeigt. Zusätzlich können die Drohnen mit eigenen Sensoren ausgestattet werden, um spontane Hindernisse, beispielsweise andere Drohnen, Hubschrauber oder Kräne, zu erkennen und zu umfliegen. Die Steuerung erfolgt entweder manuell oder über das Senden von Wegpunkten, was besonders für Anwendungen wie die Paketzustellung interessant ist.

»Funklöchern begegnen wir mit unserem System extrem selten. Sollte ein Netz ausfallen, weicht die Verbindung auf einen anderen Mobilfunkstandard aus, zum Beispiel von LTE auf GSM oder UMTS, und sollte die Verbindung doch einmal abbrechen, ruft die Drohne innerhalb kürzester Zeit automatisch zurück«, erklärt Piechotta. »Ein weiterer Vorteil ist, dass die Technologie absolut zukunftssicher ist: Mobilfunkstandards kommen und gehen – für Sprachkanäle gilt dies nicht. Das Mobilfunknetz wird immer Sprachkanäle zur Verfügung stellen, und solange dies der Fall ist, ist das System eine zuverlässige und kostengünstige Alternative zu konventionellen Datenverbindungen.« Kurzum: Die Drohne ist ab sofort an jedem Ort und zu jeder Zeit erreichbar.

Externer Link: www.fraunhofer.de

Neues Computersystem erkennt Persönlichkeit eines Menschen anhand seiner Augenbewegungen

Pressemitteilung der Universität des Saarlandes vom 24.07.2018

Menschen erkennen Gesten und deuten Blicke blitzschnell und nahezu automatisch. Computer und Roboter schaffen dies nicht. Daher forschen Wissenschaftler weltweit daran, wie man die Zusammenarbeit zwischen Mensch und Computer sozialer, effizienter und flexibler gestalten kann. Informatiker aus Saarbrücken und Stuttgart haben nun zusammen mit Psychologen aus Australien einen wichtigen Meilenstein erreicht. Das von ihnen entwickelte Softwaresystem verarbeitet die Augenbewegungen einer Person, um zu berechnen, ob diese verletzlich, gesellig, verträglich, gewissenhaft oder neugierig ist.

„Mit unseren Augen erfassen wir nicht nur die Umgebung, sie sind auch das Fenster zu unserer Seele. Denn sie verraten, wer wir sind, wie wir uns fühlen und was wir machen“, erklärt Andreas Bulling, der in Saarbrücken am Max-Planck-Institut für Informatik und am Exzellenzcluster der Universität des Saarlandes die Forschungsgruppe „Perceptual User Interfaces“ leitet. Mit Wissenschaftlern in Stuttgart und Australien hat Bulling ein eigenes Softwaresystem so trainiert, dass es Augenbewegungen auswerten und darüber auf die Charakterzüge einer Person schließen kann. Das Forscherteam verwendete dafür spezielle Rechenverfahren des Maschinellen Lernens.

Um die Daten für das Training und die Evaluierung zu erhalten, wirkten an der Flinders University in Australien 50 Studenten, darunter 42 Frauen und acht Männer, im Durchschnittsalter von 22 Jahren mit. Nach ihrer Ankunft im Labor statteten die Forscher die Studenten mit einem sogenannten „Eye Tracker“ aus. Dieser filmte die Augenbewegungen der Probanden, während sie rund zehn Minuten über den Campus schlenderten und sich einen Kaffee oder andere Artikel im Campus-Laden kauften. Danach baten die Wissenschaftler die Studenten, die Brillen abzulegen und spezielle Fragebögen auszufüllen, um so auf herkömmliche Art und Weise die Persönlichkeit und den Grad der Neugierde zu bestimmen.

„Um die aufgenommenen Augendaten unabhängig von der jeweiligen Dauer der Aufnahme zu analysieren, haben wir mit einem verschiebbaren Zeitfenster gearbeitet, da so keine Charakteristika abgeschwächt werden“, erklärt Bulling. Aus jedem der sich ergebenden Zeitfenster gewannen die Forscher 207 Merkmale. Zu diesen gehörten Statistiken über Blickfixierungen ebenso wie die Blinzel-Rate. Basierend darauf und auf den Informationen aus den Fragebögen fassten die Forscher pro Persönlichkeitszug rund 100 Entscheidungsbäume zu einem Klassifikator zusammen und trainierten diesen. Das Ergebnis: Im anschließenden Test mit bisher noch nicht verwendetem Datenmaterial konnten sie nachweisen, dass das Softwaresystem sicher Charakterzüge wie emotionale Labilität, Geselligkeit, Verträglichkeit und Gewissenhaftigkeit erkennt.

„Das so gewonnene Wissen über nonverbales Verhalten können wir auch auf Roboter übertragen, so dass diese sich wie Menschen benehmen. Solche Systeme würden dann auf eine viel natürlichere Weise mit Menschen kommunizieren und wären dadurch effizienter und flexibler einsetzbar“, erklärt Bulling den Nutzen der Forschungsergebnisse. Gemeinsam mit Sabrina Hoppe von der Universität Stuttgart, Tobias Loetscher von der University of South Australia im australischen Adelaide und Stephanie Morey von der Flinders University, ebenfalls in Adelaide, hat Andreas Bulling die Ergebnisse in dem Aufsatz „Eye Movements During Everyday Behavior Predict Personality Traits“ diskutiert, den die Forscher im Journal „Frontiers in Human Neuroscience“ veröffentlicht haben. Das Projekt wurde finanziert aus Mitteln des australischen Forschungsrates, des Exzellenzclusters „Multimodal Computing and Interaction“ an der Universität des Saarlandes und durch ein Promotionsstipendium der Stiftung des deutschen Volkes.

Externer Link: www.uni-saarland.de

Mehr Sicherheit für sensible Daten: EU-Projekt PRISMACLOUD zieht erfolgreiche Schlussbilanz

Pressemeldung der Universität Passau vom 24.07.2018

Zweimal mit dem schwarzen Filzstift drüber und dann durch den Kopierer lassen: So stellte man früher sicher, dass ein Dokument nur noch an den gewünschten Stellen lesbar war. Wissenschaftler des Lehrstuhls für IT-Sicherheit an der Universität Passau haben im EU-Forschungsprojekt PRISMACLOUD erfolgreich neuartige kryptographische Methoden eingesetzt, um für mehr Sicherheit und Datenschutz für Nutzerinnen und Nutzer der Cloud zu sorgen – u. a. durch eine Form der digitalen Schwärzung, die sensible Daten zukünftig deutlich sicherer macht.

„PRISMACLOUD erarbeitet ein Portfolio neuartiger Cloud Services, um die nötige Sicherheit sensibler Daten in der Cloud mit kryptographischen Verfahren zu erhöhen“, so Projektleiter Prof. Dr. Joachim Posegga, Inhaber des Lehrstuhls für IT-Sicherheit an der Universität Passau.

Im Fokus: Sicherung von Gesundheitsdaten

An der Universität Passau lag der wissenschaftliche Fokus auf der Sicherung von Gesundheitsdaten gegen unerkannte unerlaubte Änderung (Schutz der Integrität). Für Patientinnen und Patienten ist alleine schon die Frage, wer Daten über medizinische Behandlungen in welchem Maße einsehen und verwenden können soll, sehr sensibel: „Der Krankenkasse möchte man die Behandlung belegen, aber nicht unbedingt deren Ergebnisse. In anderen Situationen kann es wichtig sein, dass die Echtheit der Daten zweifelsfrei beweisbar ist. Und ganz sicher wollen Patienten nicht riskieren, dass Drittanbieter, welche die Daten verwalten, in irgendeiner Weise Eingriffe vornehmen können“, erklärt Henrich C. Pöhls, der den Schwerpunktbereich zur Entwicklung sicherer Cloud-Services innerhalb des international besetzten Forschungsprojektes koordiniert hat.

Rechenfehler der Cloud werden sofort erkennbar

Der Fokus von PRISMACLOUD liegt daher auf kryptographischen Methoden zur Erhöhung der Sicherheit und der Privatsphäre für Cloud-Nutzerinnen und -Nutzer, sowie auf der Umsetzung dieser Methoden in der Software. Dabei wurde durch das sogenannte „verifiable computing“ erreicht, dass das Ergebnis einer korrekten statistischen Berechnung aus zuvor signierten Eingangswerten auch eine prüfbare digitale Signatur trägt. Diese Signatur erlaubt, dass die Korrektheit der statistischen Berechnung stets geprüft werden kann. „Rechenfehler der Cloud fallen damit sofort auf und der Arzt oder Cloud-Kunde kann sich umgehend beschweren“, so Pöhls.

Schwärzen ja – aber die Signatur bleibt erhalten

Des Weiteren ermöglicht PRISMACLOUD, abermals über die praktische Implementierung geeigneter Kryptographie in modernen Cloud-Services, integritäts-gesicherte Dokumente nachträglich so zu „schwärzen“, das gewisse Bereiche von signierten Gesundheitsdaten hinterher unwiederbringlich gelöscht sind. Dennoch behält die digitale Signatur für die restlichen Daten ihre Gültigkeit. Dies wird durch sogenannte „editierbare Signaturen“ („redactable signatures“) bewerkstelligt, deren Einsatzmöglichkeiten, kryptographische Feinheiten und rechtliche Relevanz am Lehrstuhl für IT-Sicherheit von Henrich C. Pöhls erforscht werden.

Sichere Cloud benötigt Zusammenarbeit unterschiedlicher Expertinnen und Experten

Der Projektbeitrag der Universität koordinierte zugleich auch die Interaktion zwischen Expertinnen und Experten aus den drei beteiligten – zum Teil recht unterschiedlichen – Disziplinen: Kryptographie, Software-Entwicklung und Anwendungs-Experten. „Erst wenn diese drei Gruppen eine gemeinsame Sprache sprechen und koordiniert zusammenarbeiten, fördert dies den schnellen und sicheren Einsatz auch modernster kryptographischer Verfahren in der Praxis“, fasst Henrich C. Pöhls den Lösungsansatz von PRISMACLOUD zur Entwicklung sicherer Cloud-Services zusammen. Er koordinierte hierzu die Zusammenarbeit der internationalen Experten aus Industrie und akademischer Forschung und entwickelte hierfür geeignete Kommunikationsstrategien und -hilfsmittel.

Die EU förderte PRISMACLOUD von 2015-2018 mit rund acht Millionen Euro aus dem 8. Forschungsrahmenprogramm HORIZON 2020 (Vereinbarung Nr. 644962), zudem erhielt PRISMACLOUD rund 500.000 Euro Fördermittel von SERI-Swiss State Secretariat for Education. Die Gesamtprojektleitung hat das Austrian Institute of Technology inne. (Katrina Jordan)

Externer Link: www.uni-passau.de

Erweiterte Realität hilft beim Bauen von Flugzeugtanks

Presseinformation des KIT (Karlsruher Institut für Technologie) vom 13.06.2018

Forscherinnen und Forscher des KIT entwickeln ein Assistenzsystem, welches Technikerinnen und Technikern das Fertigen und Warten enger Flugzeugtanks erleichtert

Durch eine fremde Stadt laufen und sich eine Wegbeschreibung oder Simulationen nicht mehr vorhandener Gebäude anzeigen lassen: In der Augmented Reality oder erweiterten Realität vermischen sich virtuelle Inhalte und „echte“ Welt. Wissenschaftlerinnen und Wissenschaftler des Karlsruher Instituts für Technologie (KIT) entwickeln auf Basis dieser Technologie ein Assistenzsystem, das Technikerinnen und Techniker beim Fertigen und Warten von Flugzeugtanks unterstützt. Das System wird gerade in der Industrie erprobt.

Bei Augmented-Reality-Anwendungen (AR) liefern ein Tablet, Smartphone oder eine spezielle Videobrille, auch Head-Mounted Display genannt, zusätzliche Informationen zur Realität. Virtuelle Inhalte vermischen sich auf dem Display mit der echten Welt. Zu den bekanntesten AR-Anwendungen zählt das Spiel Pokémon GO, eine virtuelle Jagd nach virtuellen Wesen, die an allen erdenklichen realen Orten „auftauchen“. Aber auch in der Industrie gewinnt die Technik immer mehr an Bedeutung: „Wir entwickeln eine Software, die dabei hilft, Flugzeugtanks zu bauen und zu warten. Sie soll die Flexibilität der Mitarbeiter erhöhen, den Arbeitsablauf beschleunigen und die Prozesse vernetzen und optimieren“, sagt Christian Tesch vom Institut für Anthropomatik und Robotik des KIT, Lehrstuhl für Intelligente Sensor-Aktor-Systeme (ISAS, Leitung Prof. Uwe D. Hanebeck). Viele Verkehrsflugzeuge sind zunächst nicht für lange Flüge ausgerüstet, der Treibstofftank ist zu klein. Damit sie dennoch lange Strecken zurücklegen können, werden zusätzliche Tanks benötigt, die regelmäßig gewartet werden müssen. Dazu müssen die Technikerinnen und Techniker bislang durch eine kleine Öffnung in die Tanks einsteigen. Bei der Montage von Bauteilen benötigen sie oft jedoch beide Hände, doch gerade neue Arbeitskräfte brauchen gleichzeitig auch eine Bauanleitung.

„Die Augmented-Reality-Brille – momentan nutzen wir die HoloLens von Microsoft – zeigt die zu erledigenden Arbeitsschritte im Sichtfeld der Techniker an, die so die Hände frei haben, um Bauteile anzubringen oder zu reparieren“, so Tesch. Die Brille ist mit Kameras ausgestattet. Über diese scannt der Nutzer vorab spezielle Marker am Tank, die beispielsweise den genauen Standort und die Größe des Tanks an die Brille übermitteln. Auf den „echten“ Tank wird dann ein transparentes 3-D-Computermodell vom Inneren des Tanks projiziert – so können Techniker auch von außerhalb in den geschlossenen Tank blicken, die Konstruktion im Detail nachvollziehen und sich Schritt für Schritt anleiten lassen, wie etwa ein Rohr zu montieren ist. Außerdem zeigt die Brille anhand eingeblendeter Markierungen auf dem Boden an, wo im Lagerraum die benötigten Bauteile zu finden sind. Dieses erkennt die Brille ebenfalls anhand vorab eingelernter Marker. „Wir vernetzen das eigentliche Arbeiten am Tank mit der Lokalisierung von Objekten und können so ein Gesamtkonzept erstellen“, sagt Tesch.

Alle für dieses Konzept erforderlichen Berechnungen finden direkt in der Brille statt. Zusätzliche Informationen über den Tankzustand, den Arbeitsfortschritt oder den Lagerbestand der Bauteile erhält sie über eine externe Datenbank, sodass die Nutzer immer auf dem aktuellsten Stand sind. Über Gesten- und Sprachsteuerung können sie die AR-Brille bedienen.

Die Forscher entwickeln das System nicht nur für AR-Brillen: „Viele Menschen besitzen heute ein Smartphone oder ein Tablet; auch in den Berufsalltag sind diese Geräte längst fest integriert. Deshalb soll unsere Software in Zukunft auch mit handelsüblichen Smartphones funktionieren“, sagt Dr. Antonio Zea, der am Institut für Anthropomatik und Robotik die Entwicklung der Software für mobile Endgeräte betreut. In den nächsten Jahren werde sich vermutlich auch die Hardware für AR-Anwendungen noch weiter verbessern, die AR-Brillen könnten kleiner und erschwinglicher und damit noch vielfältiger einsetzbar werden.

Das KIT kooperiert in dem Projekt mit der Firma PFW Aerospace GmbH. Die Wissenschaftlerinnen und Wissenschaftler können so die Software unter realen Bedingungen testen und verbessern. Bis Anfang 2019 wollen sie diese einsatzbereit machen. (swi)

Externer Link: www.kit.edu