Krebserkrankungen über die Atemluft erkennen

Presseinformation (Forschung Kompakt) der Fraunhofer-Gesellschaft vom 01.12.2020

Unsere Atemluft enthält Informationen, die sich für die Diagnostik von Krankheiten nutzen lassen. Forscherinnen und Forscher am Fraunhofer-Projektzentrum für Mikroelektronische und Optische Systeme für die Biomedizin MEOS entwickeln Lösungen, die künftig die Analyse der Atemluft ermöglichen. Bei ihren Forschungsarbeiten fokussieren sie sich auf das frühzeitige Erkennen von Krebserkrankungen. Aber auch die Unterscheidung zwischen COVID-19 und anderen Atemwegsinfektionen ist denkbar.

Manche Krankheiten kann man riechen. Ein leicht süßlich-fruchtiger Acetongeruch etwa deutet auf Diabetes hin. Bereits im antiken Griechenland berichteten Ärzte, Krankheiten im ausgeatmeten Atem zu erkennen. Die charakteristischen Gerüche entstehen durch spezifische flüchtige organische Verbindungen (VOC). Diese werden durch die erkrankten Gewebe oder die Krankheitserreger selbst freigesetzt, noch bevor Symptome auftreten.

Die Ausatemluft – Fingerabdruck des menschlichen Stoffwechsels

»Bei einer Vielzahl von Erkrankungen verändert sich die Zusammensetzung der flüchtigen organischen Spurengase in der Atemluft, die als Biomarker verwendet werden können. Oftmals sind es Kombinationen aus mehreren Spurengasen in einer deutlich erhöhten oder deutlich erniedrigten Konzentration, die charakteristisch für eine bestimme Krankheit sind. Man spricht hier auch von einem VOC-Fingerprint oder einem Muster an VOCs«, erläutert Dr. Jessy Schönfelder, Wissenschaftlerin am Fraunhofer MEOS. Am Projektzentrum in Erfurt arbeiten die Fraunhofer-Institute für Zelltherapie und Immunologie IZI, für Photonische Mikrosysteme IPMS und für Angewandte Optik und Feinmechanik IOF interdisziplinär zusammen.

Solche Marker-Kombinationen gibt es für sehr viel mehr Krankheiten als bisher bekannt. Sie müssen Stück für Stück entschlüsselt werden. Darin bestehe auch die Herausforderung für die Chemikerin und ihr Team. Sie entwickeln ein spezielles Ionenmobilitätspektrometer (IMS), um solche Muster an VOCs zu erkennen. Keine leichte Aufgabe, bedenkt man, dass jeder Mensch etwa 200 VOCs in der Atemluft hat. Im Mittelpunkt der Forschung stehen Krebsleiden, insbesondere Lungenkrebs.

Ziel des Forscherteams am Fraunhofer MEOS ist es, mit der neuen Technologie eine große Bandbreite an Biomarkern zu detektieren. Künftig wollen die Forscher das Messsystem auch zum Unterscheiden von COVID-19 und anderen Atemwegsinfektionen nutzen. Es kommt auch im Fraunhofer Clusterprojekt M3Infekt zum Einsatz, das die Entwicklung eines modularen, multimodalen und mobilen Monitoringsystems zum schnellen Eingreifen bei plötzlichen Zustandsverschlechterungen von COVID-19 Patienten zum Inhalt hat. Des weiteren soll die Atemanalytik künftig erste Hinweise auf neurodegenerative Erkrankungen wie Alzheimer liefern – und zwar früher und angenehmer als bisherige Methoden wie die Blutabnahme – schließlich muss der Patient nur in ein Röhrchen pusten.

»Das Potenzial der Atemluftsensorik ist groß. Die nicht invasive IMS-Technologie ist sensitiv und selektiv, schnell, kostengünstig und zudem klein und mobil, sodass sie problemlos in Arztpraxen und Krankenhäusern eingesetzt werden kann. Das fertige System wird die Größe eines Schuhkartons haben«, sagt Schönfelder.

FAIMS-Chip mit alternierender Spannung

Herzstück des neuartigen Ionenmobilitätsspektrometers ist ein miniaturisierter FAIMS-Chip (High Field Asymmetric Ion Mobility Spectrometry). Das MEMS-Bauelement umfasst einen Ionenfilter und einen Detektor. Eine UV-Lampe komplettiert das Gerät. Zunächst werden die VOCs in einem Trägergasstrom in das Spektrometer gepumpt, wo sie im nächsten Schritt mit Hilfe des UV-Lichts ionisiert werden. Das heißt, sie werden zu geladenen Molekülen. »Diese leiten wir an den FAIMS-Chip weiter, der am Fraunhofer IPMS entwickelt wurde. Anschließend legen wir an die Filterelektroden eine alternierende Spannung an. Durch das Einstellen der Spannung am Filter kann man auswählen, welche VOCs zum Detektor gelangen. Auf diese Weise erhalten wir unser VOC-Fingerprint, anhand dessen wir die Erkrankung erkennen können«, erklärt Schönfelder das Verfahren.

Derzeit arbeitet das Forscherteam an einer optimierten elektronischen Steuerung und einer verbesserten Probenentnahme und -Probenführung. Referenzmessungen an Zellkulturen wurden erfolgreich durchgeführt, weitere Untersuchungen mit humanen Proben aus der Klinik sind geplant. Am Fraunhofer IZI konnten in einem abgeschlossenen Projekt bereits sieben verschiedene Bakterienstämme mit einer ähnlichen Technologie unterschieden werden.

Darüber hinaus sollen eigens entwickelte KI-Algorithmen die Auswertung der VOC-Fingerprints erleichtern. »Pro Messung erhalten wir eine halbe Million Messwerte. Diese hohe Datenmenge wollen wir per Machine Learning auswerten«, so die Forscherin. Der Algorithmus wird mit Proben von gesunden Probanden und Krebspatienten trainiert. Das Messergebnis liegt innerhalb weniger Minuten vor. »Wir können uns auch vorstellen, dass unser Ionenmobilitätspektrometer in Zukunft zum Screening von Fluggästen eingesetzt wird, um zu prüfen, ob sie mit dem Coronavirus infiziert sind«, so die Chemikerin.

Externer Link: www.fraunhofer.de

Schnelle Hilfe für Verschüttete

Presseinformation (Forschung Kompakt) der Fraunhofer-Gesellschaft vom 01.10.2020

Sei es bei Lawinen, sei es bei Erdbeben – Verschüttete müssen schnellstmöglich geborgen werden. Mit einem neuartigen mobilen Radargerät des Fraunhofer-Instituts für Hochfrequenzphysik und Radartechnik FHR lassen sich künftig hektargroße Bereiche rasch und gründlich durchsuchen. Der Clou: Die Technologie kombiniert Bewegung und präzise Lebenszeichendetektion.

In manchen Regionen bebt die Erde täglich mehrere hundert Mal. Die meisten dieser Beben sind nicht allzu stark, andere jedoch entwickeln eine enorme Zerstörungskraft, bringen Gebäude zum Einsturz und lassen Tsunamis entstehen, die ganze Landstriche verwüsten. Rettungskräfte stehen bei einer solchen Katastrophe vor einer schwierigen Aufgabe: Wo in all den Trümmern befinden sich Verletzte, die dringend Hilfe benötigen? Anhaltspunkte können Radargeräte liefern. Jedoch lassen sich diese bislang nur stationär betreiben. Das System wird an einer Stelle aufgestellt und kann von dort aus – je nach Radar – etwa zwanzig bis dreißig Meter weit schauen. Diese Distanz ist zu gering, wenn es um großflächige Zerstörungen geht.

Eine Technologie des Fraunhofer FHR in Wachtberg kann den Suchradius deutlich vergrößern. »Wir haben ein mobiles Radargerät entwickelt, das Puls und Atmung verschütteter Personen bestimmen und sie auf diese Weise orten kann«, erläutert Dr. Reinhold Herschel, Teamleiter am Fraunhofer FHR. »Langfristig könnte eine Drohne, ausgerüstet mit dem Radargerät, die Unglücksstelle abfliegen. So lassen sich selbst hektargroße Bereiche effektiv und schnell durchsuchen.«

Mehrere Sender und Empfänger ermöglichen verschiedene Blickwinkel

Das dahinterliegende Prinzip: Das Radargerät sendet eine Welle aus, die an den Trümmerteilen zum Teil reflektiert wird, zum Teil durch sie hindurchgeht – und dann beispielsweise vom Verschütteten zurückgestrahlt wird. Über die Zeiten, die das Signal braucht, um wieder am Detektor des Radargeräts anzukommen, lassen sich die Entfernungen berechnen. Bewegt sich ein Objekt – hebt und senkt sich etwa die Haut des Verschütteten bei jedem Pulsschlag um einige hundert Mikrometer –, so ändert sich die Phase des Signals. Ebenso bei den Atembewegungen. Da man nur zehn- bis zwölfmal pro Minute Luft holt, das Herz aber durchschnittlich 60 Mal pro Minute schlägt, lassen sich diese Signaländerungen über Algorithmen gut voneinander trennen. Auch den Ort, an dem sich ein Verschütteter befindet, können die Forscher genau bestimmen. Möglich machen es MIMO-Radare, kurz für Multiple Input Multiple Output, die über mehrere Sender und Empfänger verfügen – es lassen sich also verschiedene »Blickwinkel« realisieren, über die dann die genaue Position bestimmt werden kann, an der die Rettungssanitäter nach dem Überlebenden graben müssen.

Algorithmus erkennt Herzflimmern

Das Besondere an der Technologie: Die Kombination von Bewegung und präziser Lebenszeichendetektion. Die Bewegung kann sich dabei zum einen auf eine Drohne beziehen, die das Unglücksgebiet überfliegt. Das Prinzip lässt sich aber auch umkehren: Stellt man das Gerät an eine feste Stelle, lassen sich die Lebenszeichen von Menschen detektieren, die sich im Umkreis des Geräts bewegen. Sinnvoll kann das etwa bei zahlreichen Verletzten sein, die beispielsweise nach einem Erdbeben in einer Turnhalle erstversorgt werden. Über das Radargerät lassen sich die Lebenszeichen aufzeichnen und den jeweiligen Verletzten zuordnen. Wer braucht die Hilfe am dringendsten? Der Algorithmus schaut dabei vor allem nach Veränderungen: Flimmert das Herz? Atmet der Patient sehr schnell? Die verschiedenen Signale können auseinander gerechnet und getrennt dargestellt werden. Und das mit hoher Genauigkeit: Die Pulsfrequenz beispielsweise misst das Radargerät auf ein Prozent genau, wie der Vergleich mit tragbaren Pulsgeräten ergab. Während bei der Suche nach Verschütteten per Radar noch Forschungsbedarf besteht, hat das Forscherteam bei der Lebenszeichendetektion von sich bewegenden Personen bereits erfolgreich Testläufe mit einem Abstand von bis zu 15 Metern durchgeführt. Der nächste Schritt zum Produkt wäre jetzt eine Verifikations-studie mit einem Partner im medizinischen Bereich. Nach positiver Evaluierung mit ausreichender Datenbasis kann dann zusammen mit interessierten Industriepartnern der Zertifizierungprozess gestartet werden. Die zuverlässige Detektion Verschütteter in schwierigen Fällen wie Erdreich oder Beton sowie die UAV-basierte Messung werden noch etwa zwei Jahre in Anspruch nehmen, bis eine ausreichend hohe Zuverlässigkeit für die Produktentwicklung erreicht ist. Hier ist das Fraunhofer FHR weiterhin forschend engagiert, um dieses ehrgeizige Ziel zu erreichen.

Externer Link: www.fraunhofer.de

Hygiene auf hohem Niveau: Mobiler Reinigungsroboter für die Produktion

Presseinformation (Forschung Kompakt) der Fraunhofer-Gesellschaft vom 01.07.2020

Produktionsräume und hygienische Bereiche müssen besonders rein sein. Speziell dort, wo Lebensmittel verarbeitet und Medizininstrumente behandelt werden, ist absolute Sauberkeit unerlässlich. Ein mobiles Reinigungsgerät von Fraunhofer-Forscherinnen und Forschern säubert die Anlagen und Produktionsräume bedarfsgerecht und reproduzierbar. Ausgestattet mit einem selbstlernenden System erkennt der autonom fahrende Roboter automatisch den Verschmutzungsgrad und wählt die geeignete Reinigungsprozedur aus.

In der industriellen Fertigung von Lebensmitteln ist eine kompromisslose Hygiene Voraussetzung. Sowohl die Produktionsanlagen als auch die Räume selber müssen regelmäßig gesäubert werden, Biofilme und Beläge dürfen sich keinesfalls bilden. Das Reinigungsergebnis wirkt sich auf die Hygiene aus und beeinflusst die Lebensmittelsicherheit. Bislang wird die anspruchsvolle und qualitätsbestimmende Säuberung der Produktionseinrichtungen größtenteils manuell erledigt. Doch bei aller Sorgfalt ist die Arbeit schwer reproduzierbar, fehlerbehaftet und zeitaufwändig.

Intelligente Reinigungsrobotik für den Innen- und Außenbereich

Ein Forscherteam des Fraunhofer-Instituts für Verfahrenstechnik und Verpackung IVV in Dresden hat daher modulare Reinigungsroboter entwickelt, die zurzeit in zwei Varianten vorliegen: Ein Modell fährt auf einem Förderband durch die Produktionsanlage und reinigt diese von innen, die zweite Variante reinigt Boden, Decken und Wände der Räume sowie die Außenseiten der Produktionsmaschinen. Ein ausfahrbarer Roboterarm mit Zielstrahlreiniger erreicht dabei auch höher gelegene Anlagenbereiche. Mobile Cleaning Device 4.0 (MCD) heißt das mobile, modulare Gerät, welches selbstständig durch die Produktionshalle fährt. In einem gemeinsamen Forschungsprojekt mit dem Fraunhofer IOSB-AST in Ilmenau wird gerade an einem Multisensorik-System für raue Umgebungsbedingungen geforscht, das zukünftig am MCD zum Einsatz kommen soll. Die Besonderheit: Basierend auf der Fluoreszenzmethode scannt und berechnet die installierte Sensorik den Verschmutzungsgrad und passt die Reinigungsparameter wie beispielsweise den Druck und die Menge des Reingungsschaums entsprechend adaptiv an. »Ein Detektor erkennt die fluoreszierenden Schmutzpartikel wie Fette, Öle und Proteine mithilfe von UV-Licht und dosiert den Schaum und das Wasser entsprechend der ermittelten Parameter wie Schichtdicke und Antrocknungsgrad.

Möglich werden soll dies durch ein selbstlernendes KI-System, das die geeigneten Reinigungsparameter auswählt und die Prozessschritte vorgibt«, erläutert Max Hesse, Teamleiter am Dresdner Institutsteil Verarbeitungstechnik, den Vorgang. Bei dem Prozess werden die Daten mit Hilfe einer Simulation in einem virtuellen Zwilling abgebildet. »Die erkannte Verschmutzung wird im virtuellen Zwilling auf das 3D-Modell der Anlage gemappt. In Abhängigkeit des Abstands des Geräts zur Oberfläche kann dann beispielweise der Sprühwasserdruck angepasst und gegebenenfalls reduziert werden – ganz im Sinne der Ressourceneffizienz.«

Ausgefeilte Sensorik

Der Batteriebetriebene Roboter bewegt sich autark, er ist lediglich durch einen Schlauch, aus dem das Reinigungsmittel zugeführt wird, mit der Docking Station verbunden. Die Steuerung erfolgt per WLAN. Ausgeklügelte Sensorik ermöglicht im Zusammenspiel mit der KI die adaptive Reinigung: Ein Radarsensor misst selbst durch Sprühnebel und Dampf hindurch, ein Ultrabreitband-Sensor misst die Position im Raum und ein dritter optischer Fluoreszenzsensor übernimmt die Verschmutzungserkennung und vermittelt einen Eindruck der Geometrie des Prüfobjekts – Experten nennen das visuelle Odometrie. Basierend auf dem erkannten Verschmutzungszustand und den fusionierten Sensordaten werden Prozessparameter abgeleitet – anschließend wird bereits während des Reinigungsprozesses geprüft, ob dieser korrekt durchgeführt wurde. Das Prüfergebnis wird im nächsten Schritt an den virtuellen Zwilling mit dem selbstlernenden System weitergeleitet. Bei jedem Reinigungsvorgang optimiert sich das System quasi selbst und gewährleistet somit einen ressourceneffizienten Reinigungserfolg. »Unsere Tests haben gezeigt, dass man auf diesem Weg bis zu 50 Prozent an Reinigungsmitteln sparen kann, da nur die tatsächlich benötigte Menge an Reinigungsmittel auf die Oberflächen aufgebracht wird«, sagt Hesse. »Beispielsweise kann man das System trainieren, in einem vorgegebenen Zeitraum, z.B. in einer freien Nachschicht im 2-Schichtsystem, möglichst ressourceneffizient zu reinigen. Zusätzlich können erhebliche Effizienzpotenziale erschlossen werden, wenn die bisher für die Reinigung eingesetzten Facharbeiter bereits andere Arbeiten durchführen können, während die MCDs hochparallelisiert Reinigungsprozesse vollenden.« Ein weiterer Pluspunkt: Der komplette Säuberungsprozess wird vollautomatisiert protokolliert und ist durch den hohen Automatisierungsgrad sehr reproduzierbar.

Mobile Cleaning Device ist branchenunabhängig und flexibel einsetzbar

Der Einsatz des Mobile Cleaning Device beschränkt sich nicht auf die Lebensmittelbranche: Der smarte Roboter lässt sich ebenso im Automotive-Umfeld, in der Pharma-, Medizintechnik- und Kosmetikindustrie oder im Agrar-Sektor anwenden. In Krisenzeiten wie der Corona-Pandemie profitieren unterschiedlichste Branchen von dem autonomen Reinigungsroboter. »Gerade bei Personalknappheit kann unser automatisiertes System seine Vorteile ausspielen. In der Lebensmittelproduktion sind etwa zehn Prozent der Mitarbeiter allein für die Reinigung eingeteilt«, sagt der Ingenieur. Hierfür seien Fachkräfte erforderlich, die auch in normalen Zeiten rar sind. Beide Robotervarianten werden konsequent weiterentwickelt, wodurch die Komplexität der zu übernehmenden Reinigungsaufgaben stetig steigt.

Externer Link: www.fraunhofer.de

Haben ein Auge für Farben: druckbare Lichtsensoren

Presseinformation des KIT (Karlsruher Institut für Technologie) vom 19.02.2020

Team des KIT entwickelt druckbare organische Fotodioden, die Wellenlängen unterscheiden und damit Datenübertragung via Licht ermöglichen können.

Kameras, Lichtschranken und Bewegungsmelder verbindet eines: Sie arbeiten mit Lichtsensoren, die schon jetzt bei vielen Anwendungen nicht mehr wegzudenken sind. Zukünftig könnten diese Sensoren auch bei der Telekommunikation eine wichtige Rolle spielen, indem sie die Datenübertragung mittels Licht ermöglichen. Wissenschaftlerinnen und Wissenschaftlern des Karlsruher Instituts für Technologie (KIT) am InnovationLab in Heidelberg ist hier ein entscheidender Entwicklungsschritt gelungen: druckbare Lichtsensoren, die Farben sehen können. Die Ergebnisse veröffentlichten sie jetzt in der Zeitschrift Advanced Materials (DOI: 10.1002/adma.201908258).

Neue Technologien werden die Nachfrage nach optischen Sensoren für eine Vielzahl von Anwendungen erhöhen, darunter auch die Kommunikation mithilfe von sichtbarem Licht (engl. Visible Light Communication, VLC). VLC nutzt die Innenbeleuchtung in Gebäuden für die optische Kommunikation. Diese Technologie bietet in Bezug auf Sicherheit, Geschwindigkeit und Zugänglichkeit eine Reihe von Vorteilen im Vergleich zu aktuellen Übertragungsverfahren wie WLAN oder Bluetooth. „Unsere Forschung trägt zu dieser Technologie bei, indem wir die Vorteile einer speziellen Art von Materialien, nämlich organische Halbleiter, und deren Herstellung mit Drucktechniken verbinden“, so Dr. Gerardo Hernandez-Sosa vom Lichttechnischen Institut des KIT, einer der Autoren der Publikation.

Halbleiter sind die Basis von Computern, Smartphones, Solarzellen und von vielen anderen Technologien. Einige der Halbleitermaterialien reagieren auf Licht, indem sich ihre Leitfähigkeit ändert und die Lichtintensität als elektrischer Strom gemessen werden kann. Innerhalb dieser Klasse von Materialien gibt es zudem einige, die wie Druckertinte mit einem Drucker auf ein Trägermaterial aufgebracht werden können. Diese Materialien reagieren auf unterschiedliche Wellenlängen, können also Farben unterscheiden. Dem Team um Hernandez-Sosa ist es nun gelungen, eine Materialzusammensetzung zu finden, die sich für den Einsatz als wellenlängensensibler Lichtdetektor eignet und sich zudem auf flexible Träger aufdrucken lässt. Dabei können Flächen von sehr klein bis sehr groß bedruckt werden. Das Layout lässt sich mithilfe eines Computers einfach gestalten. „Diese Fotosensoren können in großen Stückzahlen in jedem Design auf flexiblen, leichten Materialien hergestellt werden. Daher sind sie besonders für mobile Geräte geeignet”, so Erstautor Noah Strobel.

Der Druck von Halbleiterbauelementen ist eine relativ junge Entwicklung, aber ihr Potenzial für zukünftige Anwendungen ist sehr hoch. Schon jetzt investiert die Industrie in großem Umfang in die Herstellung von gedruckten OLED-Displays für Fernseher und Smartphones. Auch gedruckte flexible Solarzellen oder Drucksensoren sind bereits im Handel. Die Herstellung von gedruckten Lichtdetektoren hat gleichfalls bereits das industrielle Niveau erreicht. Daher sind die Chancen hoch, dass diese Elemente in Zukunft in vielen Anwendungen eingesetzt werden, insbesondere angesichts der steigenden Nachfrage nach Sensoren im Internet der Dinge, in Smart Cities und in der Industrie 4.0. (rl)

Originalpublikation:
Noah Strobel, Nikolaos Droseros, Wolfgang Köntges, Mervin  Seiberlich, Manuel  Pietsch, Stefan Schlisske, Felix Lindheimer, Rasmus R. Schröder, Uli Lemmer, Martin Pfannmöller, Natalie Banerji, Gerardo Hernandez-Sosa: „Color-selective Printed Organic Photodiodes for Filterless Multichannel Visible Light Communication“. Advanced Materials, 2020. DOI: 10.1002/adma.201908258.

Externer Link: www.kit.edu

Das hörende Auto der Zukunft

Presseinformation (Forschung Kompakt) der Fraunhofer-Gesellschaft vom 03.02.2020

Wer heute ein neues Auto kauft, muss auf Features wie ferngesteuertes Einparken, automatisches Spurhalten oder Müdigkeitserkennung nicht verzichten. Autonome Fahrzeuge werden zukünftig auch über einen Hörsinn verfügen. Forscherinnen und Forscher am Fraunhofer-Institut für Digitale Medientechnologie IDMT in Oldenburg haben erste Prototypen für das Erkennen von Außengeräuschen wie Sirenen entwickelt.

Moderne Fahrzeuge verfügen über zahlreiche Fahrerassistenzsysteme, die den Autofahrer entlasten, ihm etwa beim Einparken helfen oder den toten Winkel überwachen. Kamera, Lidar und Radar erfassen die relevanten Objekte in der Umgebung, sie fungieren quasi als Augen. Was den Automobilen bislang noch fehlt, ist der Hörsinn, sprich Systeme, die in der Lage sind, Außengeräusche wahrzunehmen und einzuordnen. Sie werden künftig im Zusammenspiel mit intelligenten Radar- und Kamerasensorik die Grundlage für das autonome Fahren bilden. Um das »hörende Auto« zu realisieren, entwickeln Forscherinnen und Forscher am Fraunhofer IDMT in Oldenburg KI-basierte Technologien zur akustischen Ereigniserkennung.

»Für autonome Fahrzeuge existieren externe akustische Wahrnehmungssysteme bisher nicht, trotz Ihres hohen Anwendungspotenzials. Sie signalisieren beispielsweise im Bruchteil einer Sekunde, wenn ein Fahrzeug mit eingeschaltetem Martinshorn naht. So weiß das autonome Fahrzeug, das es ausweichen muss, damit eine Rettungsgasse gebildet werden kann«, sagt Danilo Hollosi, Gruppenleiter Akustische Ereignisdetektion am Fraunhofer IDMT in Oldenburg. Neben der Sirenenerkennung gibt es zahlreiche weitere Szenarien, wo ein akustisches Frühwarnsystem unerlässlich ist: beim Einbiegen in Spielstraßen, aber auch zum Erkennen von gefährlichen Situationen oder Fehlern – etwa wenn ein Nagel im Reifen steckt. Darüber hinaus kann das System die Zustandsüberwachung des Fahrzeugs übernehmen oder per Spracherkennung als Notrufsäule fungieren.

KI-basierte Algorithmen analysieren die Geräusche

Um das »hörende Auto« zu verwirklichen, bringen die Entwicklerinnen und Entwickler am Fraunhofer IDMT in Oldenburg spezielle Projekterfahrungen im Bereich Automotive sowie gruppenübergreifende Kompetenzen mit. Zu den Herausforderungen zählen die optimale Signalaufnahme durch Sensorpositionierung, die Signalvorverarbeitung und – verbesserung sowie die Störgeräuschbefreiung. Eigene Beamforming-Algorithmen ermöglichen die dynamische Lokalisation von sich bewegenden Schallquellen, wie beispielsweise das Martinshorn an einem Einsatzfahrzeug. Die Ereignis-Erkenner des IDMT wurden zuvor über Machine-Learning-Verfahren mit den akustischen Signaturen der relevanten Töne trainiert. Hierfür wurden eigens akustische Bibliotheken angelegt. So entstehen intelligente Sensorplattformen mit effektiver Erkennerleistung. Eigens entwickelte KI-basierte Algorithmen zur Audioanalyse ermitteln die Stör- und Zielgeräusche. »Wir wenden Methoden des Maschinellen Lernens an. Wir trainieren unsere Algorithmen mit unterschiedlichsten, zuvor erhobenen Geräuschen«, so Hollosi. Gemeinsam mit Industriepartnern wurden bereits erste Prototypen realisiert, die Mitte des kommenden Jahrzehnts marktreif sein sollen.

Die akustische Sensorik der IDMT-Forscherinnen und -Forscher setzt sich aus eingehausten Mikrofonen, Steuergerät und Software zusammen. Außen am Fahrzeug angebracht nehmen die Mikrofone den Luftschall auf. Die Sensoren leiten die Audiodaten an ein spezielles Steuergerät weiter, wo diese dann zu relevanten Metadaten weiterverarbeitet werden. In vielen anderen Anwendungsfällen, zum Beispiel im Sicherheitsbereich, in der Pflege oder bei Consumer-Produkten, verwerten smarte Sensoren die Audiodaten direkt und geben nur Metadaten weiter.

Die computerbasierten Verfahren zur Ereigniserkennung des Forscherteams lassen sich in angepassten Varianten auch in anderen Branchen und Märkten einsetzen, etwa zur Qualitätssicherung in der industriellen Produktion. Hier verarbeiten intelligente akustische Sensoren batteriebetrieben Audiosignale von Maschinen und Anlagen. Aus den Informationen, die drahtlos an eine Auswerteeinheit weitergeleitet werden, lassen sich Rückschlüsse auf den Zustand der Fertigungsanlagen ziehen und mögliche Schäden vermeiden. Automatische Spracherkenner ermöglichen berührungslose Dokumentationssysteme für professionelle Einsatzzwecke, beispielsweise in der Turbinenwartung.

Externer Link: www.fraunhofer.de