Gesichtserkennung für Münzen

Presseinformation (Forschung Kompakt) der Fraunhofer-Gesellschaft vom 01.02.2019

In deutschen Landesmuseen lagern unzählige historische Münzen, die sich nur im Detail voneinander unterscheiden. Anders als Gemälde lassen sich diese archäologischen Fundstücke nicht beschriften oder durch Barcodes kennzeichnen. Forscherinnen und Forscher des Fraunhofer-Instituts für Fabrikbetrieb und -automatisierung IFF haben in Kooperation mit dem Landesamt für Denkmalpflege und Archäologie Sachsen-Anhalt einen Scanner und eine Auswertesoftware entwickelt, die die optischen Merkmale von Münzen in Sekundenschnelle digital erfassen und eindeutig beschreiben. Mithilfe des Messsystems können Münzfunde identifiziert und wiedererkannt werden.

Fälschung oder Original? Selbst Experten mit geschultem Auge tun sich schwer, diese Frage in Bezug auf historische Münzen zu beantworten. Wie können Fälschungen von Münzen erkannt werden, wenn sie beispielsweise von einer Verleihung an eine externe Ausstellung ins Museum zurückkommen? Wie lassen sich Vertauschungen und Verwechslungen beim Verleih der Exponate zwischen Museen vermeiden? Antworten auf diese Fragen suchten auch die Mitarbeiter des Landesamts für Denkmalpflege und Archäologie Sachsen-Anhalt. Rund 20 000 Münzen – oftmals mehrere Jahrhunderte alt – lagern in den Archiven und Tresoren des Amts, der Bestand wächst ständig. Die eindeutige Erfassung und Dokumentation der historischen Münzen, die in einer unüberschaubaren Form- und Variantenvielfalt vorliegen, ist mühsam und wird bislang manuell vorgenommen. Anders als Gemälde können die Münzen nicht beklebt und beschriftet oder mit einem Barcode versehen werden. Auf der Suche nach einer Lösung des Problems und im Rahmen einer Digitalisierungsoffensive des Landes Sachsen-Anhalt, die die Digitalisierung von Kulturgütern, archäologischen Funden und historischen Münzen umfasst, wandte sich das Landesamt an das Fraunhofer IFF in Magdeburg.

Digitaler Fingerabdruck für archäologische Funde

»Ziel des Landesamts war es, den kompletten Münzbestand zu digitalisieren. Dabei entstand die Idee, einen digitalen Fingerabdruck zu erstellen, mit dem man die einzelnen Münzen wiedererkennen und klassifizieren kann – ähnlich der Gesichtserkennung beim Menschen. Der Fingerabdruck ersetzt quasi den Barcode«, beschreibt Dr. Christian Teutsch, Wissenschaftler am Fraunhofer IFF, den ersten Kontakt mit dem Landesamt für Denkmalpflege. Um dies zu realisieren und eine eindeutige Signatur der Münzen zu ermöglichen, konzipierten die Projektpartner in enger Zusammenarbeit im Projekt »Digitaler Fingerabdruck für archäologische Funde – Prototyp für die Individualisierung und Wiedererkennung von Fundstücken« ein optisches Datenerfassungssystem und Softwareanalyseverfahren, das die alten Münzen digital erfasst und eindeutig beschreibt. Das Messsystem sollte eine Wiedererkennungsrate von über 98 Prozent erzielen, berührungslos arbeiten und die beidseitige Datenerfassung gewährleisten. Geprüft werden sollen Gold-, Silber-, Bronze- und Kupfermünzen mit einem Durchmesser von fünf bis 75 Millimeter.

Fälschungen aufspüren

Der neuartige Scanner O.S.C.A.R. – kurz für Optical System for Coin Analysis and Recognition – erfasst nicht nur die optischen Merkmale der Münzen, sondern auch feinste Gebrauchsspuren wie Kratzer, Abbrüche, Konturen, Ecken, Vertiefungen und Dellen, die ein Objekt einzigartig machen. Dies ist unabdingbar, um viele Münzen des gleichen Typs identifizieren zu können. »Es ist naheliegend, dass man Veränderungen feststellen kann, wenn man eine Münze zweimal scannt. Hat man Münzen verliehen, kann man somit bei der Zurücknahme prüfen, ob beispielsweise Kratzer hinzugekommen sind, ob das Fundstück beschädigt wurde oder ob es sich gar um ein Plagiat handelt«, sagt der Ingenieur, Mitarbeiter der Abteilung »Mess- und Prüftechnik«.

Variable Lichtquellenverschiebung auf den digitalisierten Münzen

Der Scanner umfasst mehrere Kameras sowie mehrere Lichtquellen, die die Münzen aus unterschiedlichen Richtungen beleuchten und hochgenaue Auflösungen und Vergrößerungen erlauben. So können Teutsch und sein Team alle Merkmale hervorheben und erfassen, ohne dass Spiegelungen und Reflektionen auftreten. »Die Lichtquellen lassen sich am Bildschirm virtuell drehen und beliebig über die Münzoberflächen ziehen. Das ist ein großer Vorteil für Numismatiker, die nun nur sehr schlecht zu erkennende Ober- und Unterseiten schneller und exakter identifizieren können«, betont Teutsch.

Der Digitalisierungsvorgang selbst ist einfach: Die Münzen werden einzeln unter den Scanner gelegt, nachdem zuvor ein Barcode gescannt wurde, der sich auf der zugehörigen Tüte befindet. Ein Knopfdruck genügt, um das Gerät zu starten. Mithilfe eines eigens entwickelten optischen Analyseverfahrens werden die Farb- und Oberflächeneigenschaften der historischen Fundstücke rekonstruiert. Der Scanner erfasst mehr als 1000 optische Merkmale pro Münze. Die aufgenommenen Bilder werden als Messdaten interpretiert. Referenzmuster und Farbtafeln sorgen dafür, dass alle Bilder normiert und der Farbraum vergleichbar ist. Somit ist gesichert, dass sich die Bilddaten zwischen verschiedenen Institutionen vergleichen lassen. Im nächsten Schritt werden sämtliche Messdaten an die Auswertesoftware übertragen, die die Daten nutzt, um den digitalen Fingerabdruck zu berechnen. »Die Software nimmt den Münzvergleich mit der Datenbank vor, sprich sie sucht nach der Signatur. Bisher gab es die Möglichkeit der Identifizierung nicht. Fiel eine Tüte zu Boden und die Münze aus der Tüte, so waren das Wissen um den Fundort und andere Informationen verloren«, so Teutsch. Jetzt sind die Landesämter und -museen der Bundesländer zusätzlich in der Lage, die Münzfunde der Öffentlichkeit zugänglich machen. Darüber hinaus ist die Vergleichbarkeit der Münzdatenbanken aller Bundesländer gegeben. Auch die Zusammenarbeit mit der KENOM-Datenbank, einer länderübergreifenden Datenbank für Münzen, wird auf eine neue Ebene gehoben. Anhand der digitalen Daten können Numismatiker die Beziehungen zwischen verschiedenen Münzen oder Fundorten und damit historische Nutzungszusammenhänge herstellen.

Bereits 10 000 Münzen digitalisiert

Das neue Messsystem ermöglicht die automatische Digitalisierung und Dokumentation des Münzbestands, die bislang mühselige Arbeit wird enorm beschleunigt. Die Projektpartner haben bereits 10 000 Münzen eingescannt, bald soll der komplette Bestand von 20 000 Exemplaren digitalisiert sein.

Münzforscher zeigten sich nach einer ersten Präsentation des Prototyps begeistert. »Das neue Messsystem wird die Münzforschung in Europa revolutionieren«, resümiert Teutsch. Der Clou: Mit der Anwendung lassen sich potenziell auch Gemälde analysieren, da das System auch Pinselstriche erfasst. Farben kann man fälschen, die exakte Pinselführung jedoch nicht. »Wir erkennen mit unserer Lösung garantiert jeden Van Gogh. Ein Plagiat ließe sich aufgrund der Unterschiede in den Details der Farbaufträge und Erhebungen durch die Pinselhaare sofort identifizieren.«

Externer Link: www.fraunhofer.de

„Finde den Stuhl“: Wie Maschinen Kunstgeschichte lernen

Pressemeldung der Universität Passau vom 08.12.2018

Menschen wissen intuitiv, was ein Stuhl ist. Sie haben von klein auf viele Beispiele gesehen und anhand dieser Beispiele gelernt, was einen Stuhl ausmacht: Beine, Sitzfläche, Lehne. Diese Merkmale haben sie so verinnerlicht, dass sie einen Stuhl nicht mehr in seine einzelnen Bestandteile zerlegen müssen, um zu wissen: „Das ist ein Stuhl“. Menschen besitzen die Fähigkeit zum Deep Learning – ein Begriff, der häufig in Zusammenhang mit künstlicher Intelligenz fällt. Im Projekt Neoclassica bringt ein Team aus Informatikern, einer Informatikerin und einem Historiker Maschinen bei, klassizistische Möbel auf Abbildungen zu erkennen. Sie nutzen dafür neuronale Netze, die Google bereits vortrainiert hat.

Simon Donig ist Historiker und interessiert sich für klassizistische Möbel. Donig hat sich über mehrere Jahre hinweg Expertenwissen angeeignet. Er weiß noch ein bisschen mehr als ein durchschnittlicher Mensch über bestimmte Stühle, kann deren Merkmale und Eigenheiten bestimmten Epochen zuordnen. Zum Beispiel weiß er, dass ein klassizistischer Stuhl in seiner Formsprache auf die Antike zurückgreift. Diese ist schlichter, geradliniger und geometrischer als jene eines barocken Stuhls und weist weniger florale Verzierungen auf. Hier gibt er dieses Wissen an eine Maschine weiter.

Damit die Maschine den Historiker versteht, braucht es die Vermittlung aus der Informatik. Das Team am Passauer Lehrstuhl für Informatik mit Schwerpunkt Digital Libraries and Web Information Systems hat unter der Leitung von Siegfried Handschuh im Projekt Neoclassica den Editor aufgebaut, mit dessen Hilfe der Historiker Donig der Maschine die klassizistische Formsprache beibringen kann. Die Informatikerin Maria Christoforaki hat das Wissen des Historikers modelliert und in eine Form gebracht, die Maschinen verstehen können. Gemeinsam haben sie eine Ontologie aufgebaut, eine Art Wörterbuch für einen Computer.

Die Passauer Ontologie basiert auf dem CIDOC Conceptual Reference Model, das viele Museen weltweit zur Dokumentation des kulturellen Erbes nutzen. Es handelt sich dabei um eine Norm (ISO 21127:2014) für den kontrollierten Austausch von Informationen im Bereich des kulturellen Erbes. Dies soll sicherstellen, dass auch andere Forschende die mit der Neoclassica Ontologie annotierten Daten nutzen können.

Historische Definitionen „füttern“ künstliche Intelligenz

„In dieser Ontologie findet sich die Handschrift von Simon Donig. Und dessen Rechercheleistung“, sagt Prof. Dr. Handschuh, assoziierter Professor an der Universität Passau und Ordinarius für Data Science an der Universität St. Gallen. Donig hat Primärquellen recherchiert, darunter etwa das „Cabinet Dictionary“ aus dem Jahr 1803, in dem der englische Möbelhersteller Thomas Sheraton inspirierende Abbildungen von Stühlen zusammengetragen hat. Darin wiederum taucht der Begriff fauteuil – Armlehnstuhl – auf und wird wie folgt definiert: „Fauteuil, from the French, signifies a large chair.“ Diese Definition findet sich nun auch in der Passauer Ontologie und infolgedessen im CIDOC. Die Ontologie modelliert also das Fachwissen und macht dieses dem Computer zugänglich. Sie ist allerdings nur ein Teil der künstlichen Intelligenz, die das Passauer Team nutzt. Die zweite Komponente ist ein intelligentes, lernfähiges System, ein künstliches neuronales Netz. Dieses identifiziert und klassifiziert die eingespeisten Abbildungen.

Deep Learning funktioniert bei der Maschine ähnlich wie beim menschlichen Gehirn: das künstliche neuronale Netz identifiziert in den verschiedenen Schichten bestimmte Merkmale und gibt diese an die jeweils tiefer liegende Schicht weiter. Es kann die Merkmale auf das Wesentliche reduzieren und generalisieren. Anhand dieses Wissens kann es die Wahrscheinlichkeit berechnen, ob es sich bei einer bislang nicht bekannten Abbildung ebenfalls um einen Stuhl handelt.

Nun ist es zwar so, dass das Team um Neoclassica viele Abbildungen klassizistischer Möbelstücke zusammengetragen hat – insgesamt 1246 Dateien aus namhaften Museen wie dem New Yorker Museum of Modern Art, dem Amsterdamer Rijksmuseum oder der Eremitage in Sankt Petersburg. Allerdings sind das zu wenig, um das Netz erfolgreich trainieren zu können. Für ein Trainingsbeispiel haben sie bisweilen nur fünf bis 20 Abbildungen zur Verfügung. Üblich sind 100 bis 1000.

Um die Treffsicherheit zu verbessern, bedient sich das Forschungsteam in Neoclassica daher eines Tricks: Es setzt auf die Vorarbeit von Google, das das neuronale Netz bereits auf Alltagswissen trainiert hat. Die künstliche Intelligenz kennt also bereits das Konzept Stuhl und erkennt Stühle auf Abbildungen. Klassizistische Objekte hingegen kennt das vortrainierte Google-Netzwerk noch nicht, stattdessen ordnet es die Formen Gegenständen aus unserem heutigen Alltag zu. Einem Laptop, zum Beispiel. Oder einer Mikrowelle. Trainiert mit dem Wissen des Historikers Donig aber schafft es das Netz, klassizistische Möbelstücke selbst auf bislang nicht bekannten Abbildungen mit hoher Zuverlässigkeit zu erkennen. Für den Internet-Giganten Google, der sich auf die Digitalisierung unseres Alltags spezialisiert hat, ist solches Wissen uninteressant. Den Historiker hingegen bringen die neuen Instrumente ins Schwärmen: Sie könnten Expertinnen und Experten aus dem Bereich der Kunstgeschichte ganz neue Chancen eröffnen.

Das Projekt wird vom Bundesministerium für Bildung und Forschung im Rahmen des Passauer Centre for eHumanities (PACE) gefördert. (Katrina Jordan)

Externer Link: www.uni-passau.de

Polyurethan-Schäume zuverlässig simulieren

Presseinformation (Forschung Kompakt) vom 02.11.2018

Autositze, Matratzen und Dämmstoffe bestehen oftmals aus Polyurethan-Schäumen. Der Aufschäumprozess der flüssigen Polymer-Emulsionen ist komplex. Fraunhofer-Forscherinnen und Forscher können das Aufschäumverhalten nun simulieren und das Material verlässlich charakterisieren. Dies funktioniert auch mit Verbundwerkstoffen, bei denen die Kunststoff-Schäume mit Textilstrukturen kombiniert werden.

Polyurethan-Schäume oder kurz PU-Schäume spielen eine große Rolle in unserem Alltag – auch wenn wir uns dessen nicht bewusst sind. Doch wir sitzen und liegen täglich darauf: So bestehen Autositze und Matratzen beispielsweise aus weichen PU-Schäumen. Harte PU-Schäume setzt man dagegen unter anderem für Dämmstoffe in Gebäuden ein. Die Eigenschaften von Schäumen vorherzusagen und sie zu charakterisieren ist sehr komplex – experimentelle Untersuchungen führen vielfach zu falschen Parametern.

Neue Produktlinien besser planen

Interessant ist vor allem die Frage: Wie setzt sich die anfängliche Flüssigkeit in Schaum um? Und wie ist es um die Eigenschaften des entstehenden Schaumes bestellt? Forscherinnen und Forscher vom Fraunhofer-Institut für Techno- und Wirtschaftsmathematik ITWM in Kaiserslautern können diese Fragen nun zuverlässig beantworten und Herstellern von PU-Schaum-Produkten eine gute Charakterisierung der verwendeten Polymere an die Hand geben – was die Planung neuer Produktlinien deutlich erleichtert.

Am besten lässt sich dies an einem Beispiel erläutern, etwa einem Autositz. In diesem sollen einige Zonen fester sein, andere wiederum weicher. Um dies zu erreichen, spritzen die Hersteller verschiedene Schäume mit unterschiedlichen Eigenschaften gegeneinander. Als Ausgangssubstanzen dienen ihnen dabei flüssige Polymergemische, die in eine entsprechende Form eingespritzt werden. Nun beginnt ein schneller, jedoch komplizierter chemischer Prozess: Innerhalb weniger Sekunden verwandeln sich die beiden flüssigen Emulsionen in einen komplexen Polymerschaum. Doch wie schäumen die beiden verschiedenen Substanzen genau aus? Haben sie die gewünschten Eigenschaften, und verteilen sie sich wie vorgesehen in die Zonen? »Statt wie bisher bei der Chemie anzusetzen und alle Parameter wie Reaktionsraten und Viskosität experimentell in vielen unabhängigen Experimenten zu bestimmen, machen wir zwei, drei einfache Experimente – etwa das Aufschäumen im Becherglas«, erläutert Dr. Konrad Steiner, Abteilungsleiter am Fraunhofer ITWM. »Diese Experimente simulieren wir eins zu eins im Rechner. Diese bilden die Basis zur Ermittlung der notwendigen Modellparameter, die zum Berechnen des Aufschäumverhaltens nötig sind. Die darauf basierenden Simulationen mit dem Simulationstool FOAM sind robust und die Ergebnisse für den Anwendungsfall verlässlich.« Ergo: Statt wie bisher jeden charakterisierenden Para-meter einzeln in einem Experiment bestimmen zu müssen – und dann Werte zu erhalten, die ungenau sein können – erhalten die Forschenden in kurzer Zeit und mit wenig Aufwand verlässliche Daten für den Aufschäumprozess.

»Die Hersteller nutzen üblicherweise drei oder vier unterschiedliche Schäume – bei neuen Produkten ändern sich meist nur die Kombination der Schäume und die End-Geometrien«, sagt Steiner. Haben die Fraunhofer-Forscher einen PU-Schaum über ihre Simulation einmal charakterisiert, ist eine gute Basis für neue Produkte gelegt: Die Hersteller können die erhaltenen Schaumdaten in das Simulationstool FOAM eingeben und auf diese Weise für jedes neue Produkt und jede neue Geometrie simulieren, wie die Massen und die Wärme beim Aufschäumen transportiert werden. Sie können also beispielsweise genau herausfinden, wie sie die beiden Schäume gegeneinander spritzen müssen, um die verschiedenen Zonen im Sitz an den gewünschten Stellen zu erhalten. Die Simulationsmethodik zur Parameteridentifikation und Schaumsimulation mit FOAM ist etabliert, es laufen bereits mehrere Projekte mit verschiedenen Kunden.

Verbundwerkstoffe mit PU-Schäumen

Auch bei Verbundwerkstoffen setzen Hersteller vielfach auf PU-Schäume – etwa für Trägerstrukturen im Auto, die zum einen stabil, zum anderen leicht sein sollen. Dazu integrieren sie Verstärkungsstrukturen wie Textilien in die Schäume. Das Ergebnis: Würde eine Hartschaumplatte etwa bei einer Verbiegung bereits brechen, hält die Platte mit integriertem Textil problemlos stand. Durch das Textil in der Form verändert sich allerdings das Strömungsverhalten der Polymer-Emulsion, schließlich bildet die Textilstruktur einen Widerstand. Damit ändert sich auch die Dynamik der Schaumbildung und die Struktur des Schaums: Die Blasen werden kleiner, der Schaum dichter.

Das Forscherteam des Fraunhofer ITWM hat erstmalig eine Simulation für Verbundmaterialien entwickelt, gemeinsam mit den Kollegen am Lehrstuhl für Strukturleichtbau und Kunststoffverarbeitung der TU Chemnitz. »Den Strömungswiderstand, den die entsprechende Textilstruktur hervorruft, können wir ausrechnen – das ist eine Expertise, die wir schon lange haben. Anschließend können wir das Aufschäumen in und um die Textilstruktur simulieren«, erklärt Steiner. Bisher mussten Hersteller mühsam ausprobieren, ob der erhaltene Schaumverbund die gewünschten Eigenschaften hat – was durchaus mehrere Wochen oder gar Monate dauern kann. Die Simulation dagegen wartet bereits nach ein bis zwei Tagen mit einem verlässlichen Ergebnis auf. Die Forscher haben sie bereits an Bauteilen validiert und überprüft. Die Ergebnisse stimmen sehr gut mit der Realität überein.

Externer Link: www.fraunhofer.de

Künstliche Intelligenz: Ein Auto parken mit zwölf Neuronen

Presseaussendung der TU Wien vom 22.10.2018

An der TU Wien nahm man sich beim Programmieren künstlicher Intelligenz natürliche Nervenbahnen zum Vorbild. Die neuen Ansätze erzielen mit wenig Aufwand verblüffende Leistungen.

Ein natürlich gewachsenes Gehirn funktioniert ganz anders als ein gewöhnliches Computerprogramm. Es besteht nicht aus Befehlen mit klaren logischen Anweisungen, sondern aus einem Netz von Zellen, die miteinander kommunizieren. Man kann heute aber solche Netze auch am Computer nachbilden, um Probleme zu lösen, die sich nur schwer in logische Befehle zerlegen lassen.

An der TU Wien hat man nun einen neuen Ansatz für die Programmierung solcher neuronaler Netze entwickelt, der die zeitliche Entwicklung der Nervensignale völlig anders beschreibt als bisher. Inspirieren ließ man sich dabei von einem besonders einfachen und gut erforschten Lebewesen, dem Fadenwurm C. elegans. Sein Gehirn wurde am Computer simuliert, das Modell wurde dann mit speziell entwickelten Lernalgorithmen angepasst. So gelang es, mit einer extrem niedrigen Zahl simulierter Nervenzellen bemerkenswerte Aufgaben zu lösen. Obwohl das vom Wurm inspirierte Netzwerk nur über 12 Neuronen verfügt, kann man es darauf trainieren, ein Auto an einen vorherbestimmten Ort zu manövrieren. Ramin Hasani von Institut für Computer Engineering der TU Wien hat diese Arbeit nun am 20. Oktober bei der TEDx-Konferenz in Wien präsentiert.

Mathematisch lässt sich zeigen, dass diese neuartigen neuronalen Netze extrem vielseitig sind. Außerdem lässt sich ihr Verhalten gut untersuchen und verstehen – im Gegensatz zu bisherigen neuronalen Netzen, die man oft als nützliche aber undurchschaubare „Black Box“ betrachtete.

Signale in verzweigten Netzen

„Neuronale Netze müssen zuerst trainiert werden“, erklärt Ramin Hasani. „Man liefert einen bestimmten Input und passt die Verbindungen zwischen den Neuronen so an, dass am Ende möglichst zuverlässig der richtige Output geliefert wird.“

Der Input kann beispielsweise ein Bild sein – und der Output der Name der Person, die darauf zu sehen ist. „Die Zeit spielt bei diesem Vorgang normalerweise keine Rolle“, sagt Radu Grosu (Institut für Computer Engineering, TU Wien). „Bei den meisten neuronalen Netzen wird zu einem bestimmten Zeitpunkt der gesamte Input geliefert und daraus ergibt sich sofort ein bestimmter Output. In der Natur ist das aber ganz anders.“

Spracherkennung etwa ist eine zwangsläufig zeitabhängige Aufgabe, genauso wie Simultanübersetzungen oder Bewegungsabläufe, die auf eine wechselnde Umwelt reagieren. „Solche Aufgaben können viel besser gelöst werden, wenn man sogenannte RNN verwendet – recurrent neural networks“, sagt Ramin Hasani. „Das ist eine Architektur, die Zeitabläufe besser abbildet, weil sie dafür sorgt, dass sich die Nervenzellen merken, was bisher passiert ist.“

Hasani und sein Team schlugen eine neuartige RNN-Architektur vor, die auf biophysikalischen Modellen von Neuronen und Synapsen beruht und zeitabhängige Dynamik erlaubt. „In einem gewöhnlichen RNN-Modell gibt es eine unveränderliche Verbindung zwischen Neuron eins und Neuron zwei, die festlegt, wie stark das eine Neron die Aktivität des anderen beeinflusst“, erklärt Ramin Hasani. „In unserem neuartigen RNN ist diese Verbindung eine nichtlineare Funktion der Zeit.“

Indem man zulässt, dass sich die Zellaktivität und die Verbindungen zwischen den Zellen mit der Zeit verändern, eröffnet man völlig neue Möglichkeiten. Ramini Hasani, Mathias Lechner und ihr Team konnten mathematisch zeigen, dass sich mit dieser Methode im Prinzip neuronale Netze mit beliebiger Dynamik erzeugen lassen. Um die Vielseitigkeit des neuen Typs neuronaler Netze zu demonstrieren, entwickelten und trainierten sie ein spezielles kleines Neuro-Netzwerk: „Wir bildeten das Nervensystem nach, das der Fadenwurm C. elegans verwendet, um einen ganz einfachen Reflex zu realisieren – nämlich das Rückzugsverhalten bei einer Berührung“, sagt Mathias Lechner (derzeit am Institute of Science and Technology Austria). „Das neuronale Netz wurde stimuliert und trainiert, um reale Aufgaben zu lösen.“

Der Erfolg ist erstaunlich: Obwohl es sich um ein kleines, einfaches Netz mit nur 12 Nervenzellen handelt, kann es (nach der entsprechenden Optimierung der Nervenverbindungen) bemerkenswert komplexe Aufgaben lösen. Das Netz kann trainiert werden, ein Fahrzeug in eine Parklücke zu manövrieren. „Der Output des neuronalen Netzes, der in der Natur die Bewegung des Fadenwurms steuern würde, wird bei uns in das Lenken und Beschleunigen des Fahrzeugs umgesetzt“, sagt Hasani. „Wir beweisen damit, dass mit unserer Methode sehr einfache neuronale Netze komplizierte Aufgaben in einer physisch realen Umgebung lösen können.“

Zusätzlich hat die neue Methode den Vorteil, dass sie einen besseren Einblick in die Funktionsweise des neuronalen Netzes bietet: Während man bei bisherigen neuronalen Netzen, die oft aus vielen tausend Knotenpunkten bestanden, nur das Ergebnis analysieren kann und die Abläufe im Inneren unüberschaubar komplex sind, lässt sich beim kleineren aber leistungsfähigen Netz der TU Wien zumindest teilweise verstehen, welche Nervenzellen welche Effekte hervorrufen. „Für die Forschung und die weitere Verbesserung des Konzeptes ist das ein großer Vorteil“, sagt Hasani.

Das bedeutet freilich nicht, dass Autos in Zukunft von künstlichen Würmern eingeparkt werden – aber es zeigt, dass künstliche Intelligenz mit der richtigen Architektur deutlich leistungsfähiger sein kann als bisher gedacht. (Florian Aigner)

Externer Link: www.tuwien.ac.at

Hochautomatisiert unterwegs – OTH Amberg-Weiden schließt Forschungsprojekt Ko-HAF ab

Pressemeldung der OTH Amberg-Weiden vom 16.10.2018

Hochautomatisiertes Fahren bei höheren Geschwindigkeiten – daran haben 16 Partner aus Industrie, Wissenschaft und öffentlicher Hand seit 2015 gemeinsam im Projekt „Ko-HAF – Kooperatives Hochautomatisiertes Fahren“ erfolgreich geforscht. Die OTH Amberg-Weiden war in dem vom Bundesministerium für Wirtschaft und Energie im Rahmen des Programms „Neue Fahrzeug- und Systemtechnologien“ geförderten Forschungsprojekt für die Kommunikation der Fahrzeuge mit einem Safety Server zuständig.

Das Projekt Ko-HAF zielt auf das sichere hochautomatisierte Fahren bei höheren Geschwindigkeiten auf Autobahnen: Solche Systeme muss der Fahrer nicht mehr dauerhaft überwachen. Er kann sich anderen Aufgaben widmen, muss jedoch immer in der Lage sein, die Steuerung nach Aufforderung mit einer gewissen Zeitreserve zu übernehmen. Dazu muss die Vorausschau des Fahrzeugs weiter reichen, als dies mit fahrzeugeigenen Sensoren möglich ist. Hier setzt Ko-HAF an: Fahrzeuge senden Umfeldinformationen (etwa geänderte Straßenführung bei Baustellen oder Hindernisse auf der Fahrbahn) über Mobilfunk an den sogenannten Safety Server. Dort werden diese gesammelt und verdichtet, sodass eine hochgenaue und hochaktuelle Karte zur Verfügung steht. Diese liefert die im Sinne eines künstlichen Horizonts benötigte weitere Vorausschau. Etwaige Änderungen der Karte werden über Mobilfunk an alle Fahrzeuge im Ko-HAF-Verbund übertragen. Die Kommunikationseinheit hierfür wurde durch das Projektteam von Prof. Alfred Höß von der OTH in Amberg entwickelt, realisiert und den Projektpartnern zur Verfügung gestellt.

Bei der Anschlusspräsentation referierte M.Sc. Josef Schmid vom Projektteam der OTH Amberg-Weiden zur Übertragung von hochgenauen Karten. Wie unterschiedlich die erreichbaren Übertragungsgeschwindigkeiten bei Mobilfunk (LTE) im realen Umfeld sein können, wurde an einem Stand und auch live im Forschungsfahrzeug der Hochschule demonstriert.

Externer Link: www.oth-aw.de