Hochautomatisiert unterwegs – OTH Amberg-Weiden schließt Forschungsprojekt Ko-HAF ab

Pressemeldung der OTH Amberg-Weiden vom 16.10.2018

Hochautomatisiertes Fahren bei höheren Geschwindigkeiten – daran haben 16 Partner aus Industrie, Wissenschaft und öffentlicher Hand seit 2015 gemeinsam im Projekt „Ko-HAF – Kooperatives Hochautomatisiertes Fahren“ erfolgreich geforscht. Die OTH Amberg-Weiden war in dem vom Bundesministerium für Wirtschaft und Energie im Rahmen des Programms „Neue Fahrzeug- und Systemtechnologien“ geförderten Forschungsprojekt für die Kommunikation der Fahrzeuge mit einem Safety Server zuständig.

Das Projekt Ko-HAF zielt auf das sichere hochautomatisierte Fahren bei höheren Geschwindigkeiten auf Autobahnen: Solche Systeme muss der Fahrer nicht mehr dauerhaft überwachen. Er kann sich anderen Aufgaben widmen, muss jedoch immer in der Lage sein, die Steuerung nach Aufforderung mit einer gewissen Zeitreserve zu übernehmen. Dazu muss die Vorausschau des Fahrzeugs weiter reichen, als dies mit fahrzeugeigenen Sensoren möglich ist. Hier setzt Ko-HAF an: Fahrzeuge senden Umfeldinformationen (etwa geänderte Straßenführung bei Baustellen oder Hindernisse auf der Fahrbahn) über Mobilfunk an den sogenannten Safety Server. Dort werden diese gesammelt und verdichtet, sodass eine hochgenaue und hochaktuelle Karte zur Verfügung steht. Diese liefert die im Sinne eines künstlichen Horizonts benötigte weitere Vorausschau. Etwaige Änderungen der Karte werden über Mobilfunk an alle Fahrzeuge im Ko-HAF-Verbund übertragen. Die Kommunikationseinheit hierfür wurde durch das Projektteam von Prof. Alfred Höß von der OTH in Amberg entwickelt, realisiert und den Projektpartnern zur Verfügung gestellt.

Bei der Anschlusspräsentation referierte M.Sc. Josef Schmid vom Projektteam der OTH Amberg-Weiden zur Übertragung von hochgenauen Karten. Wie unterschiedlich die erreichbaren Übertragungsgeschwindigkeiten bei Mobilfunk (LTE) im realen Umfeld sein können, wurde an einem Stand und auch live im Forschungsfahrzeug der Hochschule demonstriert.

Externer Link: www.oth-aw.de

Mit dem Virtual-Reality-Handschuh virtuelle Objekte «berühren»

Medienmitteilung der ETH Zürich vom 15.10.2018

Forscher der ETH Zürich und der EPFL haben einen ultraleichten Handschuh entwickelt, der es seinen Nutzern erlaubt, virtuelle Objekte zu «berühren» und zu manipulieren. Der Handschuh mit dem Namen DextrES wiegt weniger als acht Gramm und gibt seinem Träger ein äusserst realistisches, haptisches Feedback. Zudem bietet er dank künftig möglichem Batteriebetrieb eine noch nie da gewesene Bewegungsfreiheit.

Weltweit befassen sich Ingenieure und Software-Entwickler mit der Entwicklung von Technologien, die es dem Nutzer erlauben, virtuelle Objekte zu berühren, zu greifen und zu manipulieren – mit dem gleichen Gefühl, wie wenn sie etwas in der realen Welt berühren würden. Forschern der EPFL und der ETH Zürich ist mit diesem neuen, haptischen Handschuh soeben ein wichtiger Schritt auf dem Weg zu diesem Ziel gelungen. Der DextrES überzeugt nämlich nicht nur durch sein geringes Gewicht, sondern gibt auch ein äusserst realistisches Feedback. Zudem ist er in der Lage, mit einer Spannung von gerade mal 200 Volt und einigen Milliwatt Leistung an jedem Finger eine Haltekraft von bis zu 40 Newton zu generieren. Und nicht zuletzt besitzt er das Potenzial, um künftig mit nur einer sehr kleinen Batterie betrieben zu werden. Diese Eigenschaften, in Kombination mit dem geringen Formfaktor des Handschuhs – er ist gerade mal 2 mm dick – führen zu einer beispiellosen Präzision und Bewegungsfreiheit.

«Unser Ziel war es, ein leichtgewichtiges Gerät zu entwickeln, das – anders als bestehende Virtual-Reality-Handschuhe – kein sperriges Exoskelett, Pumpen oder sehr dicke Kabel benötigt», erklärt Herbert Shea, Leiter des Soft Transducers Laboratory (LMTS) der EPFL. DextrES wurde an der ETH Zürich erfolgreich von Freiwilligen getestet und wird am kommenden ACM Symposium on User Interface Software and Technology (UIST) einem Fachpublikum vorgestellt.

Gewebe, Metallbänder und Elektrizität

Der Handschuh besteht aus Baumwolle und dünnen, elastischen Metallbändern, die über die Finger laufen. Diese Bänder sind durch einen dünnen Isolator voneinander getrennt. Wenn die Finger des Trägers mit einem virtuellen Objekt in Kontakt kommen, appliziert die Steuereinheit eine Spannungsdifferenz zwischen den Metallbändern, die dazu führt, dass sie aufgrund elektrostatischer Anziehung zusammenkleben. Dies wiederum erzeugt eine Bremskraft, die die Bewegungen der Finger oder des Daumens blockiert. Sobald die Spannung unterbrochen wird, gleiten die Metallbänder wieder reibungslos, und der Träger kann seine Finger frei bewegen.

Das Hirn austricksen

Zurzeit wird DextrES noch über ein sehr dünnes elektrisches Kabel mit Strom versorgt. Dank der geringen erforderlichen Spannung und Leistung könnte letztlich jedoch eine kleine Batterie diese Aufgabe übernehmen. «Das System benötigt deshalb so wenig Strom, weil keine Bewegung erzeugt, sondern eine gebremst wird», so Shea. Um herauszufinden, wie exakt reale Bedingungen simuliert werden müssen, um dem Nutzer ein realistisches Erlebnis zu verschaffen, sind nun weitere Tests erforderlich. «Die menschliche Sensorik ist hochentwickelt und hochkomplex. In den Fingergelenken und eingebettet in die Haut, verfügen wir über eine hohe Dichte an unterschiedlichen Rezeptoren. Die Wiedergabe eines realistischen Feedbacks in der Interaktion mit virtuellen Objekten stellt deshalb eine grosse Herausforderung dar, die zurzeit noch ungelöst ist. Unsere Arbeit geht einen Schritt in diese Richtung, indem wir uns insbesondere auf das kinästhetische Feedback fokussieren», erklärt Otmar Hilliges, Leiter des Advanced Interactive Technologies Lab der ETH Zürich.

Im Rahmen dieses gemeinsamen Forschungsprojekts wurde auf dem Microcity-Campus der EPFL in Neuenburg die Hardware entwickelt, während an der ETH Zürich das Virtual-Reality-System kreiert und die Nutzertests durchgeführt wurden. «Unsere Partnerschaft mit dem LMTS-Lab der EPFL hat sich als goldrichtig erwiesen. Sie erlaubt es uns, eine der ältesten Herausforderungen im Bereich Virtual Reality mit einer Geschwindigkeit und in einer Präzision anzugehen, die anderweitig nicht möglich wären», ergänzt Hilliges.

Der nächste Schritt wird nun eine Vergrösserung des Gerätemassstabs und damit einhergehend der Einsatz an anderen Körperteilen mittels eines leitfähigen Gewebes sein. «Gamer sind heute der grösste Markt. Es gibt jedoch zahlreiche weitere mögliche Anwendungsgebiete, insbesondere im Gesundheitswesen – beispielsweise für die Schulung von Chirurgen. Möglich wäre der Einsatz der Technologie auch in Augmented-Reality-Anwendungen», so Shea.

Externer Link: www.ethz.ch

Faden-Kunst aus Roboterhand

Presseaussendung der TU Wien vom 10.09.2018

Als „String Art“ bezeichnet man Bilder aus kunstvoll gespannten Fäden. Was bisher Erfahrung und eine ruhige Hand benötigte, gelingt an der TU Wien nun mit einem Roboter – ein Beispiel, welch komplexe Aufgaben digitale Fabrikation mittlerweile lösen kann.

Die Grundidee ist einfach: Auf einem Brett befinden sich Nägel, und zwischen ihnen soll ein langer Faden so hin und her gespannt werden, dass er ein bestimmtes Bild ergibt. Recht einfach lassen sich so interessante geometrische Muster produzieren. Den wahren Profis gelingt es sogar, durch eine ausgeklügelte Anordnung der Fadenlinien ein Portrait zu erstellen.

An der TU Wien hat man diese Kunstform nun automatisiert: Beliebige Bilder können verwendet werden, der Computer berechnet den optimalen Faden-Weg, der das gewünschte Bild möglichst exakt wiedergibt. Ein Industrie-Roboter übernimmt dann die Arbeit des Fadenspannens und erzeugt ein kreisrundes Fadenbild.

Unzählige Möglichkeiten

„Aus wissenschaftlicher Sicht ist das ein sehr interessantes Problem, weil es ganz besonders schwer zu lösen ist“, sagt Przemyslaw Musialski vom Institut für Diskrete Mathematik und Geometrie der TU Wien. Im Allgemeinen lässt sich ein Bild auf diese Weise nicht exakt reproduzieren – schließlich kann man mit der Faden-Methode keine einzelnen Bildpunkte setzen, sondern nur durchgängige Linien ziehen. Man muss daher eine möglichst gute Näherungslösung finden.

Außerdem ist die Anzahl der Möglichkeiten, wie man einen Faden zwischen einer größeren Anzahl von Nägeln spannen kann, astronomisch hoch. Es ist völlig unmöglich, alle denkbaren Varianten durchzuprobieren. „Es handelt sich um ein sogenanntes NP-schweres Problem“, sagt Musialski. „Zu dieser Klasse von Aufgaben gehören Rechenprobleme, die mit Computern in überschaubarer Zeit nicht exakt gelöst werden können.“

Für die Erstellung des Bildes verwendet man einen Kreis aus 256 Haken. „Unsere Rechnungen haben gezeigt, dass eine größere Anzahl von Haken das Endergebnis nur noch marginal verbessert“, sagt Przemyslaw Musialski. Der Faden kann jeweils von der rechten oder linken Seite jedes Hakens zur rechten oder linken Seite jedes anderen Hakens gespannt werden. Schon bei ungefähr 30 Fadenlinien ergeben sich somit mehr mögliche Varianten als das beobachtbare Universum Atome hat – und um ein erkennbares Bild wiederzugeben, braucht man noch viel mehr Linien. Es ist daher eine große mathematische Herausforderung, aus der unüberblickbaren Vielzahl an möglichen Wegen einen herauszufinden, der das gewünschte Bild möglichst gut reproduziert.

Der Präzisions-Roboterarm als Fadenkünstler

Die mathematische Lösung des Problems war dem Forschungsteam aber noch nicht genug. Das Ziel war, echte „String Art“ völlig automatisiert zu produzieren. Daher setzte man einen hochpräzisen Industrie-Roboter ein, der normalerweise an der Fakultät für Architektur der TU Wien zum Fräsen komplizierter 3D-Formen verwendet wird. Der Roboterarm spannt einen einzigen langen Faden zwischen den 256 Haken, sodass am Ende ein kreisrundes Fadenbild mit 63cm Durchmesser entsteht. Auch für den Industrieroboter ist die Aufgabe nicht im Handumdrehen erledigt: Je nach Bildmotiv dauert die Produktion 2-5 Stunden und benötigt zwischen 2 und 6 Kilometer Faden.

Unterstützt wurde das Team der TU Wien von Peter Wonkas Arbeitsgruppe an der King Abdullah University of Science and Technology in Saudi-Arabien. „Auch wenn unser Roboter hübsche Bilder erzeugt, ist unsere Arbeit natürlich kein Kunstprojekt“, sagt Przemyslaw Musialski. „Letztlich wollen wir zeigen, wie man besonders schwierige technische Probleme am besten lösen kann. Im String-Art-Projekt arbeiten wir mit Methoden, die in Zukunft auch in der digitalen Fabrikation eine wichtige Rolle spielen werden.“ (Florian Aigner)

Externer Link: www.tuwien.ac.at

Drohnensteuerung via Sprachkanal

Presseinformation (Forschung Kompakt) der Fraunhofer-Gesellschaft vom 01.08.2018

Die Zukunft liegt in der Luft. Drohnen können schon bald Straßen entlasten, Lieferwege optimieren oder Brandbekämpfung sicherer und effizienter machen. Bis die Technologie jedoch flächendeckend kommerziell eingesetzt werden kann, müssen noch einige Herausforderungen gemeistert werden. Zum Beispiel die Frage der Kommunikation zur Steuerung und Ortung. Diese muss stabil und überall verfügbar sein, sollte möglichst günstig sein und muss auch außer Sichtweite funktionieren. Wissenschaftler des Fraunhofer-Instituts für Nachrichtentechnik, Heinrich-Hertz-Institut, HHI in Berlin haben eine Lösung gefunden: Sie rufen die Drohne einfach an.

Drohnen sind eine vielversprechende Technologie. Zum Beispiel könnte mit ihnen schon in naher Zukunft der Lieferverkehr von der Straße in die Luft verlegt werden. Das würde Straßen entlasten und den CO2-Ausstoß senken. Obendrein würden die Lieferwege deutlich kürzer und Pakete könnten wesentlich schneller den Kunden erreichen. Bei der Brandbekämpfung könnten Drohnen voraus fliegen und den Feuerwehrleuten ein erstes Bild vom Einsatzort liefern. Zahlreiche weitere Einsatzszenarien sind denkbar. Doch vor dem flächendeckenden Drohneneinsatz gilt es noch einige Herausforderungen zu bewältigen. Zum Beispiel eine zuverlässige Kommunikation zur Steuerung und Ortung der Drohnen. Bisher werden Drohnen oft direkt per Funk gesteuert, die begrenzte Reichweite schränkt die Einsatzmöglichkeiten jedoch deutlich ein. Das Senden und Empfangen von Informationen über Mobilfunkdatenkanäle ist eine weitere Möglichkeit. Doch auch diese weist Schwächen auf, die den flächendeckenden, zuverlässigen kommerziellen Einsatz derzeit nicht erlauben. So sind diese Kanäle nicht auf eine konstante Echtzeitverbindung, sondern für das kurzzeitige Übermitteln von Datenpaketen, beispielsweise beim Laden einer Website, ausgelegt. Die Folge: Verbindungsabbrüche. Darüber hinaus ist bei der Nutzung von Datenkanälen gerade in Städten oder bei Großveranstaltungen Überlastung ein Problem. Eine Alternative wäre die Errichtung einer eigenen Infrastruktur, über die Drohnen mit dem Controller kommunizieren. Dies ist nicht nur aufwändig und teuer, es stehen dafür auch kaum Funkressourcen zur Verfügung. Verfügbare Frequenzbereiche sind meist anfällig für Störungen und Überlastungen, sodass eine derartige Lösung weder wirtschaftlich noch sicherheitstechnisch sinnvoll ist.

Experten vom Fraunhofer HHI haben eine Lösung entwickelt, die stabil, günstig, reichweiteunabhängig und prinzipiell sofort umsetzbar ist: Die Steuerung über die Sprachkanäle des Mobilfunknetzes. »Ein großer Vorteil ist, dass Sprachkanäle im Gegensatz zu Datenverbindungen nahezu überall verfügbar und äußerst zuverlässig sind«, erklärt Tom Piechotta, Wissenschaftler beim Fraunhofer HHI. »Selbst in Gegenden, wo eine Datenverbindung nicht oder nur eingeschränkt möglich ist, ist die Netzabdeckung für Sprachkanäle meist noch gegeben.« Darüber hinaus entstehen kaum zusätzliche Kosten, da weder eine neue Infrastruktur aufgebaut werden muss, noch spezielle Verträge für priorisierte Datenverbindungen mit den Netzbetreibern geschlossen werden müssen. Alles was nötig ist, ist eine einfache Sprachverbindung, wie sie mit jeder Prepaidkarte bereitgestellt wird.

Weltweit erreichbar

Um Drohnen steuern zu können, müssen einerseits Befehle an die Drohne übermittelt, andererseits Informationen wie Position, Höhe oder Akkuzustand an den Controller am Boden übermittelt werden. »Bei den Steuerbefehlen und Ortsinformationen handelt es sich um verhältnismäßig kleine Informationsmengen, die aber zuverlässig übertragen werden müssen,« sagt Piechotta. »Wir wandeln die Befehle in Audiosignale um, ähnlich wie früher bei Modems. Diese übersetzt ein kleines Modul auf der Drohne zurück in den Steuerbefehl. Das Besondere ist, dass diese Art der Übertragung nicht nur in Echtzeit funktioniert und äußerst robust gegenüber Ausfällen und Verbindungsabbrüchen ist. Sie funktioniert auch schon heute, ohne neue Funkstandards, ohne neue Infrastruktur – und zwar weltweit.« Denn da die Übertragung über das normale Mobilfunknetz läuft, ist eine Verbindung zur Drohne an nahezu jedem Punkt der Erde möglich – quasi per Ferngespräch.

Zukunftssichere Steuerung in Echtzeit

Doch wie funktioniert die Steuerung, wenn die Drohne außer Sichtweite – vielleicht sogar am anderen Ende der Welt ist? Visualisiert wird der Standort der Drohne zum Beispiel über Online-Kartendienste wie Google Maps. Position und Höhe des Fluggeräts werden in Echtzeit übertragen und auf der Karte angezeigt. Zusätzlich können die Drohnen mit eigenen Sensoren ausgestattet werden, um spontane Hindernisse, beispielsweise andere Drohnen, Hubschrauber oder Kräne, zu erkennen und zu umfliegen. Die Steuerung erfolgt entweder manuell oder über das Senden von Wegpunkten, was besonders für Anwendungen wie die Paketzustellung interessant ist.

»Funklöchern begegnen wir mit unserem System extrem selten. Sollte ein Netz ausfallen, weicht die Verbindung auf einen anderen Mobilfunkstandard aus, zum Beispiel von LTE auf GSM oder UMTS, und sollte die Verbindung doch einmal abbrechen, ruft die Drohne innerhalb kürzester Zeit automatisch zurück«, erklärt Piechotta. »Ein weiterer Vorteil ist, dass die Technologie absolut zukunftssicher ist: Mobilfunkstandards kommen und gehen – für Sprachkanäle gilt dies nicht. Das Mobilfunknetz wird immer Sprachkanäle zur Verfügung stellen, und solange dies der Fall ist, ist das System eine zuverlässige und kostengünstige Alternative zu konventionellen Datenverbindungen.« Kurzum: Die Drohne ist ab sofort an jedem Ort und zu jeder Zeit erreichbar.

Externer Link: www.fraunhofer.de

Neues Computersystem erkennt Persönlichkeit eines Menschen anhand seiner Augenbewegungen

Pressemitteilung der Universität des Saarlandes vom 24.07.2018

Menschen erkennen Gesten und deuten Blicke blitzschnell und nahezu automatisch. Computer und Roboter schaffen dies nicht. Daher forschen Wissenschaftler weltweit daran, wie man die Zusammenarbeit zwischen Mensch und Computer sozialer, effizienter und flexibler gestalten kann. Informatiker aus Saarbrücken und Stuttgart haben nun zusammen mit Psychologen aus Australien einen wichtigen Meilenstein erreicht. Das von ihnen entwickelte Softwaresystem verarbeitet die Augenbewegungen einer Person, um zu berechnen, ob diese verletzlich, gesellig, verträglich, gewissenhaft oder neugierig ist.

„Mit unseren Augen erfassen wir nicht nur die Umgebung, sie sind auch das Fenster zu unserer Seele. Denn sie verraten, wer wir sind, wie wir uns fühlen und was wir machen“, erklärt Andreas Bulling, der in Saarbrücken am Max-Planck-Institut für Informatik und am Exzellenzcluster der Universität des Saarlandes die Forschungsgruppe „Perceptual User Interfaces“ leitet. Mit Wissenschaftlern in Stuttgart und Australien hat Bulling ein eigenes Softwaresystem so trainiert, dass es Augenbewegungen auswerten und darüber auf die Charakterzüge einer Person schließen kann. Das Forscherteam verwendete dafür spezielle Rechenverfahren des Maschinellen Lernens.

Um die Daten für das Training und die Evaluierung zu erhalten, wirkten an der Flinders University in Australien 50 Studenten, darunter 42 Frauen und acht Männer, im Durchschnittsalter von 22 Jahren mit. Nach ihrer Ankunft im Labor statteten die Forscher die Studenten mit einem sogenannten „Eye Tracker“ aus. Dieser filmte die Augenbewegungen der Probanden, während sie rund zehn Minuten über den Campus schlenderten und sich einen Kaffee oder andere Artikel im Campus-Laden kauften. Danach baten die Wissenschaftler die Studenten, die Brillen abzulegen und spezielle Fragebögen auszufüllen, um so auf herkömmliche Art und Weise die Persönlichkeit und den Grad der Neugierde zu bestimmen.

„Um die aufgenommenen Augendaten unabhängig von der jeweiligen Dauer der Aufnahme zu analysieren, haben wir mit einem verschiebbaren Zeitfenster gearbeitet, da so keine Charakteristika abgeschwächt werden“, erklärt Bulling. Aus jedem der sich ergebenden Zeitfenster gewannen die Forscher 207 Merkmale. Zu diesen gehörten Statistiken über Blickfixierungen ebenso wie die Blinzel-Rate. Basierend darauf und auf den Informationen aus den Fragebögen fassten die Forscher pro Persönlichkeitszug rund 100 Entscheidungsbäume zu einem Klassifikator zusammen und trainierten diesen. Das Ergebnis: Im anschließenden Test mit bisher noch nicht verwendetem Datenmaterial konnten sie nachweisen, dass das Softwaresystem sicher Charakterzüge wie emotionale Labilität, Geselligkeit, Verträglichkeit und Gewissenhaftigkeit erkennt.

„Das so gewonnene Wissen über nonverbales Verhalten können wir auch auf Roboter übertragen, so dass diese sich wie Menschen benehmen. Solche Systeme würden dann auf eine viel natürlichere Weise mit Menschen kommunizieren und wären dadurch effizienter und flexibler einsetzbar“, erklärt Bulling den Nutzen der Forschungsergebnisse. Gemeinsam mit Sabrina Hoppe von der Universität Stuttgart, Tobias Loetscher von der University of South Australia im australischen Adelaide und Stephanie Morey von der Flinders University, ebenfalls in Adelaide, hat Andreas Bulling die Ergebnisse in dem Aufsatz „Eye Movements During Everyday Behavior Predict Personality Traits“ diskutiert, den die Forscher im Journal „Frontiers in Human Neuroscience“ veröffentlicht haben. Das Projekt wurde finanziert aus Mitteln des australischen Forschungsrates, des Exzellenzclusters „Multimodal Computing and Interaction“ an der Universität des Saarlandes und durch ein Promotionsstipendium der Stiftung des deutschen Volkes.

Externer Link: www.uni-saarland.de