Allzeit saubere Luft

Presseinformation (Forschung Kompakt) der Fraunhofer-Gesellschaft vom 01.10.2021

Durch die Metallbearbeitung mit Laser und Plasma gelangen viele verschiedene Schadstoffe in die Umgebungsluft. Das Fraunhofer-Institut für Werkstoff- und Strahltechnik IWS hat jetzt zusammen mit Partnern eine Filteranlage entwickelt, die sehr effizient die verschiedenen Substanzen aus der Luft entfernt. Sie kann individuell an die verschiedenen Materialien und die jeweils freigesetzten Stoffe angepasst werden. Künftig soll die Technik in weiteren Anwendungen wie der additiven Fertigung zum Einsatz kommen.

Bei der Bearbeitung von Metallen mit Lasern oder Plasma werden Mikropartikel und gesundheitsschädliche Gase und Stoffe freigesetzt. In metallverarbeitenden Betrieben entfernt man die Substanzen in der Regel mit Absaug- und Lüftungsanlagen vom Arbeitsplatz. Wo das nicht möglich ist, tragen Mitarbeiter Schutzmasken. Mit der zunehmenden Automatisierung der Produktion beispielsweise durch Fertigungsroboter rückt der Emissionsschutz heute aber immer wieder einmal in den Hintergrund, wenn Menschen nicht permanent anwesend sind. »Das ist problematisch, weil Mitarbeiter hin und wieder die Räume betreten müssen, um Schäden zu beheben, die Anlage zu warten oder die Qualität der Produkte zu überprüfen«, sagt Jens Friedrich, Gruppenleiter Gas- und Partikelfiltration am Fraunhofer-Institut für Werkstoff- und Strahltechnik IWS in Dresden. »Die Mitarbeiter werden dann im Unklaren darüber gelassen, wie stark die Luft tatsächlich belastet ist.«

Eine Filteranlage für alles

Das Fraunhofer IWS in Dresden hat daher in einem öffentlich geförderten Projekt zusammen mit Unternehmen aus Sachsen eine Filteranlage entwickelt, die die Luft in Produktionsräumen reinigt und dabei eine Vielzahl von Schadstoffen gleichzeitig effektiv bindet. Standard sind heute Aktivkohle-Filteranlagen, die zum Beispiel flüchtige organische Substanzen, die sogenannten VOC, zurückhalten. In metallverarbeitenden Betrieben und Werkstätten kommen aber häufig Substanzen wie Formaldehyd, Stickoxide oder problematische Schwefelverbindungen hinzu. Beim Laserschweißen werden außerdem Mikropartikel aus Metall oder Schweißmaterial frei. Eine Anlage, die alle Substanzen gleichermaßen gut aus der Raumluft entfernt, gab es bislang nicht. Im Projekt MultiFUN haben die Partner erstmals ein solches flexibles Filtersystem entwickelt. Es besteht aus mehreren, einzeln austauschbaren Modulen. Jede Filterebene enthält ein bestimmtes Filtermedium, das spezifisch bestimmte Substanzen aus der Raumluft entfernt. Neben Aktivkohle kommen beispielsweise Zeolithe oder poröse Polymere zum Einsatz, aber auch sogenannte metallorganische Gerüstverbindungen.

Tests von vielen verschiedenen Substanzen

Um die richtige Filtersubstanz zu finden, haben die Forscherinnen und Forscher des Fraunhofer IWS im Labor zunächst eine ganze Reihe an Substanzen darauf hin getestet, wie gut diese die verschiedenen Luftschadstoffe adsorbieren. Die besten Kandidaten wurden dann in den Filteranlagen-Prototypen integriert, den das Unternehmen ULT aus Löbau gefertigt hat. Eine Besonderheit im Vergleich zu herkömmlichen Filteranlagen ist die Messsensorik, die automatisch erkennt, wann das Filtermedium mit Substanzen gesättigt ist und ausgetauscht werden muss. Der Zustand wird optisch über farbige LEDs für jede Filterebene und Schadstoffklasse separat angezeigt. Entsprechend muss auch nur die jeweils betreffende Filterebene ausgetauscht werden.

Besser nicht auf Filteranlagen verzichten

Durch die zunehmende Automatisierung steigt derzeit die Zahl an Fabrikräumen, in denen die Luft nur unzureichend gereinigt wird – beispielsweise auch bei 3D-Fertigungsanlagen. »Das wird unweigerlich zu Konflikten führen, weil es nie ganz ohne Menschen geht«, sagt Jens Friedrich. »Es ist absolut sinnvoll, Filteranlagen einzusetzen, um permanent die Gesundheit der Mitarbeiter zu schützen – auch wenn diese die automatisierten Areale nur gelegentlich betreten.« Bei der additiven Fertigung mit 3D-Laserrobotern kommt hinzu, dass in größeren Mengen Mikropartikel frei werden, die auch den Raum und die Werkstücke verschmutzen, wenn sie sich ablagern. Die Partikel können hochwertige Produkte kontaminieren. Außerdem stellen sie eine Unfallgefahr da, weil man auf den Kügelchen ausrutschen kann, wenn sie sich auf dem Fußboden sammeln.

Zusammen mit mehreren Unternehmen arbeitet das Fraunhofer IWS derzeit an der Entwicklung einer Anlage, die speziell auf die Filterung von Schadstoffen und Substanzen abgestimmt ist, die bei der additiven Fertigung frei werden. »Unser Institut verfügt über Kompetenz in der Laserbearbeitung, über Material-Know-how und über Expertise bei der Entwicklung ganzer Systeme«, sagt Friedrich. »Insofern sind wir der richtige Partner für die Entwicklung solcher Filterlösungen.« Auch für die Fertigung und das Recycling von Batterien sieht er einen wachsenden Bedarf an Filteranlagen, die verschiedene Substanzen aus der Luft entfernen. Insbesondere, weil dort Metalle wie Nickel, Mangan und Kobalt zum Einsatz kommen, die Verbindungen bilden können, die schon bei sehr geringen Dosen gesundheitsgefährdend sind.

Das Projekt MultiFUN wurde durch den Europäischen Fonds für regionale Entwicklung (EFRE) gefördert. Zu den Partnern gehören die ULT AG aus Löbau, die Firma SEMPA SYSTEMS GmbH aus Dresden, der Textilhersteller Norafin Industries GmbH aus Mildenau und das Fraunhofer IWS.

Externer Link: www.fraunhofer.de

Aktivitätserkennung im Fahrzeuginnenraum

Presseinformation (Forschung Kompakt) der Fraunhofer-Gesellschaft vom 01.09.2021

Ist der Autofahrer müde oder schläft er gar? Kameras im Innenraum überprüfen dies bereits. Wichtig und vom Gesetzgeber vorgeschrieben werden Innenraumkameras insbesondere beim automatisierten Fahren. Ein neues System des Fraunhofer-Instituts für Optronik, Systemtechnik und Bildauswertung IOSB leitet aus den Bilddaten erstmals Aussagen zu den Aktivitäten des Fahrers ab und analysiert, wie schnell dieser die Steuerung übernehmen könnte.

Beim automatisierten Fahren entscheidet das Fahrzeug, was es tun muss – es lenkt, bremst und beschleunigt. Bis es jedoch so weit ist, dass Fahrzeuge gänzlich auf einen Fahrer verzichten können, werden teilautomatisierte Fahrzeuge den Wagenlenker unterstützen und ihm zunehmend mehr Freiheiten verleihen. Naturgemäß sind bei teilautomatisierten Fahrzeugen Übergaben zwischen Auto und Fahrer nötig, etwa bei einer Baustelle auf der Autobahn oder beim Übergang in den Stadtverkehr nach einer Autobahnfahrt. Das Fahrzeug muss also nicht nur intelligent werden, um den Verkehr zu interpretieren, sondern auch nach innen schauen und mit dem Fahrer in den Dialog treten. Was macht der Fahrer gerade? Wie schnell könnte er die Steuerung des Fahrzeugs übernehmen? Zwar gibt es bereits Fahrerbeobachtungssysteme, diese nutzen jedoch bisher kaum Kamerabilddaten und beschränken sich vorwiegend auf die Erkennung von Müdigkeit.

Künstliche Intelligenz erkennt, was der Fahrer tut

Dem Dialog zwischen Fahrer und Auto widmen sich die Forscherinnen und Forscher am Fraunhofer IOSB – und füllen damit diese Lücke. »Mit unserer Technologie erkennen wir nicht nur das Gesicht, sondern vielmehr die aktuellen Posen des Fahrers und der Mitfahrer«, sagt Dr. Michael Voit, Gruppenleiter am Fraunhofer IOSB. »Aus diesen Posen wiederum können wir zuverlässig bestimmen, womit sich Fahrer und Insassen gerade beschäftigen.«

Der Kern der Entwicklung liegt in Algorithmen und Verfahren des maschinellen Lernens, also der Künstlichen Intelligenz. Die Algorithmen analysieren die Kameradaten in Echtzeit und finden heraus, ob der Fahrer telefoniert, mit den Kindern spielt oder auf das Handy des Mitfahrers schaut. Die Technologie des Fraunhofer IOSB geht damit über die reine Bilderkennung hinaus und interpretiert Aktivitäten im Kontext. Die Forscherinnen und Forscher haben das System zunächst angelernt, indem sie zahlreiche Kameraaufnahmen per Hand annotierten: Wo befinden sich Hände, Füße, Schultern der Personen, wo sind Objekte wie Smartphones, Bücher und Co. zu erkennen? Anschließend evaluierten sie die Algorithmen mit neuen Bildern und korrigierten oder verifizierten deren Ergebnisse.

Aufnahmen des Fahrers oder der Insassen abstrahiert das System zu einem digitalen Skelett – einer Art Strichmännchen, das die Körperpose der Person nachbildet. Aus der Skelettbewegung und einer ergänzenden Objekterkennung wiederum schließt es auf die Aktivität. »Die Algorithmen wissen also, ob jemand schläft oder auf die Straße blickt, wie abgelenkt die Person ist und wie lange es dauert, bis die volle Aufmerksamkeit wieder auf den Verkehr gerichtet werden kann«, erläutert Voit. Hierfür werden sowohl klassische Videokameras unterstützt als auch Infrarotkameras, die im Dunkeln sehen können, sowie 3D-Kameras, die die Entfernung der Objekte zur Kamera messen. Auch bei der Platzierung der Kameras lässt das System den Innenraumdesignern Freiheit.

Fragen rund um die Aktivitätserkennung im Fahrzeuginnenraum bearbeiten die Forscherinnen und Forscher in zahlreichen Verbundprojekten mit namhaften Autoherstellern wie Audi und Volkswagen, aber auch Zulieferern wie Bosch und Continental. Die Projekte werden durch das Bundesministerium für Bildung und Forschung BMBF, das Bundesministerium für Wirtschaft und Energie BMWi oder das Bundesministerium für Verkehr und digitale Infrastruktur BMVI unterstützt. »Wir erkennen nicht nur die Aktivitäten des Fahrers, sondern aller Insassen im gesamten Fahrzeuginnenraum«, bekräftigt Voit. »Die Technologie ist bereit für die Vorserie. Wir stehen schon im ersten Kontakt mit Unternehmen, die unsere Technologie nutzen wollen.« Bindeglied der Entwicklungen ist der institutseigene Fahrsimulator, von dem Industriekunden auch im Rahmen individueller F&E-Projekte profitieren können. Dank simulierbarer Verkehrssituationen bietet er die Grundlage für das Sammeln relevanter Fahrt- und Verhaltensdaten und ermöglicht mit seiner umfangreichen Sensorausstattung Studien für alle Insassen.

Für Datenschutz ist gesorgt

Was Datenschutz- und Sicherheitsaspekte angeht, so denken die Forscherinnen und Forscher diese von Anfang an mit. »Die Kameradaten werden in Echtzeit ausgewertet, nicht gespeichert und verlassen zu keinem Zeitpunkt das Fahrzeug. Personalisierte Modelle werden dafür ebenso wenig benötigt – somit werden keine personenbezogenen Daten gesammelt«, sagt Dr. Pascal Birnstill, Senior Scientist, zu den Themen Datensicherheit, Datenschutz und Transparenz am Fraunhofer IOSB. Die Technologie respektiert also von vornherein die Privatsphäre und entspricht damit den strengen Regularien und dem hohen Datenschutzbewusstsein in der EU.

Zahlreiche Anwendungen – auch jenseits der Aktivitätserkennung

Wie wichtig Aktivitätserkennungen sind, zeigt eine Verordnung der EU: Das »Driver Monitoring« soll bei der Automatisierung des Autos verpflichtend werden. Mit der Technologie aus dem Fraunhofer IOSB können Fahrzeughersteller nicht nur diese Richtlinie erfüllen, sondern zudem zahlreiche Visionen in puncto autonomes Fahren Realität werden lassen. Ein Beispiel: Spracherkennung stößt bei der Kommunikation von Mensch und Auto schnell an ihre Grenzen. So ist der Befehl »Park dort ein« für sich genommen nicht aussagekräftig. Über die Körperposen- und Aktivitätserkennung weiß das System jedoch, auf welche Parklücke der Nutzer in dem Moment zeigt. Auch bei Sicherheitsaspekten von fahrerlosen Fahrzeugen kann das System helfen: Während derzeit die Fahrenden noch darauf achten, dass alle Mitfahrer die Sicherheitsregeln einhalten und sich beispielsweise anschnallen, wird dies künftig das fahrerlose Fahrzeug übernehmen müssen – etwa bei autonom fahrenden Taxis oder Bussen. Auch hier ist eine zuverlässige Innenraumüberwachung unverzichtbar.

Externer Link: www.fraunhofer.de

Weiterentwicklung: Vollautonome Drohne kann vermisste Menschen in Wäldern finden

Pressemeldung der JKU Linz vom 24.06.2021

Eine Drohne, die Menschen auch unter einem Blätterdach finden kann gibt es seit 2020. Nun schafft sie diese Aufgabe aber auch vollautonom.

Sie sorgte im Vorjahr für Aufsehen: Eine Drohne, die mithilfe einer Zentrale am Boden vermisste Menschen auch in dichten Wäldern finden konnte. Nun hat das Institute für Computer Grafik der Johannes Kepler Universität Linz noch eines draufgesetzt – die Drohne kann diese Aufgabe nun auch vollständig autonom erfüllen.

Das bisherige System ist eine Kombination einer neuen Bildverarbeitungstechnik zum Wegrechnen von Verdeckungen (Airborne Optical Sectioning, AOS) – z.B. des Blätterdachs eines Waldes – und einer Methode, die mittels Machine Learning Wärmesignaturen auswerten und so Menschen erkennen kann. Das Verfahren erreicht zwar über 90% Trefferquote, allerdings muss die Drohne vorgegebene Bahnen abfliegen und die Daten werden später am Boden ausgewertet und berechnet.

Das Problem: Die Ergebnisse liegen erst verspätet vor und die Drohne benötigt zudem vorab Informationen über den festgelegten Flugweg. Beides kann bei Rettungseinsätzen problematisch sein.

Nun ist es JKU Wissenschaftler*innen unter Leitung von Institutsvorstand Prof. Oliver Bimber gelungen, den gesamten Berechnungsprozess in Echtzeit auf der Drohne selbst durchzuführen – und das während des Flugs. Das wiederum erlaubt eine vollautonome Suche nach Personen. D.h. die Drohne entscheidet nun anhand der aufgezeichneten Messdaten völlig eigenständig, welche Route sie fliegt, um Personen in kürzester Zeit und mit der höchsten Trefferquote aufzufinden. Die Flugroute wird also nicht mehr vorgegeben, und die Ergebnisse dieses vollautonomen Ansatzes übertreffen die des bisherigen manuellen Verfahrens bei Weitem – sowohl in der Trefferquote also auch in der benötigten Suchzeit.

Diese neue Methode wurde soeben im renommierten Wissenschaftsjournal Science Robotics veröffentlicht.

Einsatz bei Umweltschutz und Rettungsmissionen

Die Anwendungsmöglichkeiten dieser Technologie sind vielfältig und reichen von Such- und Rettungseinsätzen oder Wildtierzählungen bis hin zur Waldbranderkundungen. Nun soll in den kommenden Jahren die an der JKU entwickelte Technologie mit einem professionellen Drohnensystem, das eine mehrstündige Flugzeit ermöglicht, kombiniert und weiterentwickelt werden. (Christian Savoy)

Externer Link: www.jku.at

Smarte Muskeln und Nerven aus leichtem Kunststoff machen Roboter der Zukunft gefühlvoll

Pressemitteilung der Universität des Saarlandes vom 21.06.2021

Chirurgische Instrumente, die sich wie feine Oktopus-Arme in alle Richtungen schlängeln oder große, kraftvolle, aber leichte Roboter-Tentakel, die gefahrlos mit Menschen Hand in Hand arbeiten oder ihnen unter die Arme greifen: Mit starken Muskeln und sensiblen Nerven aus intelligentem Kunststoff entsteht eine neue Generation von Roboterarmen. Das Team um die Experten für smarte Materialsysteme Professor Stefan Seelecke und Juniorprofessor Gianluca Rizzello schafft hierfür die Grundlagen.

Als wäre der Roboterkollege aus Fleisch und Blut arbeiten in der Fabrik der Zukunft Mensch und Maschine Seite an Seite – einträchtig, im Team und spontan: Das ist die Vision der Arbeitswelt von morgen. Zwar haben „Cobots“, die kollaborativen Roboter, schon begonnen, die Industriehallen zu erobern. Aber noch ist es nicht so weit her mit dem Hand in Hand-Teamwork. Es gibt eine Schwachstelle: die körperliche Nähe des Menschen, der keinem festen Programm, sondern plötzlicher, mitunter unlogischer Eingebung folgt oder schlicht abgelenkt ist. Nicht ohne Grund stecken Roboterarme in Fertigungsstraßen oft in Käfigen. Wer hier reinläuft, für den wird es gefährlich. Die schweren Metallmaschinen sind kraftvoll, geschickt und flink, sie schweißen, montieren, lackieren, stapeln und hieven. Aber – programmiert ist programmiert – sie folgen strikt ihrem Bewegungsablauf. Und ist ein Mensch im Weg – dann ist er im Weg.

An einer neuen, smarten Art von Roboterarmen arbeitet das Team um Professor Stefan Seelecke und Juniorprofessor Gianluca Rizzello an der Universität des Saarlandes und am Saarbrücker Zentrum für Mechatronik und Automatisierungstechnik (Zema). „Unsere Technologie der intelligenten Polymersysteme ermöglicht neuartige, weiche Roboterwerkzeuge, die leichter, wendiger und flexibler sind als die heutigen starren technischen Bauteile“, erklärt Stefan Seelecke. Ein ungeplanter Schubs eines solchen Roboterarms der Zukunft ist dann eher wie der eines menschlichen Kollegen.

Der Stoff aus dem diese neuen, weichen Roboterarme gebaut sind, heißt „dielektrisches Elastomer“, eine Unterart der Polymere. Aus diesem Verbundwerkstoff erschaffen die Saarbrücker Forscherinnen und Forscher künstliche Muskeln und Nerven. Die besonderen Eigenschaften des Werkstoffs machen es möglich, nach dem Vorbild der Natur zu arbeiten: Elastomere lassen sich stauchen und nehmen ihre ursprüngliche Form wieder ein, strecken sich also wieder. „Wir bedrucken das Elastomer beidseitig mit Elektroden. Legen wir eine elektrische Spannung an, ziehen sich die Elektroden an und stauchen das Elastomer, das dabei gleichzeitig seine Fläche ausdehnt“, erklärt der Juniorprofessor für Adaptive polymerbasierte Systeme, Dr. Gianluca Rizzello. Der gebürtige Italiener arbeitet seit 2016 mit Seelecke in dessen Team. Das Elastomer kann sich also zusammenziehen und strecken wie ein Muskel. „Diese Eigenschaft nutzen wir als Aktor, also als Antrieb“, erklärt Rizzello. Indem sie das elektrische Feld ändern, lassen die Ingenieure das Elastomer hochfrequent vibrieren, stufenlos kraftvolle Hub-Bewegungen vollführen oder auch in jeder gewünschten Stellung verharren.

Aus vielen dieser kleinen Muskeln setzen die Forscher nun flexible Roboterarme zusammen. In einem Roboter-Tentakel aneinandergereiht, bewirkt ihr Zusammenspiel, dass dieser sich wie der Fangarm eines Kraken in alle Richtungen biegen und schlängeln kann: Anders als bei den schweren und starren Robotergelenken heute üblicher Roboter, die wie beim Menschen Bewegungen nur in bestimmte Richtung zulassen, sind der Freiheit dieses Tentakels keine Grenzen gesetzt. Für ihre Arbeit am Prototyp dieser Elastomer-Muskel-Tentakel, hat Gianluca Rizzello zusammen mit seinem Doktoranden Johannes Prechtl jüngst den Best Paper Award auf der RoboSoft2021-Konferenz erhalten – eine von vielen Auszeichnungen der Arbeitsgruppe um Stefan Seelecke. Ein Tentakel-Prototyp soll in etwa einem Jahr vorliegen.

Gianluca Rizzello ist Spezialist, wenn es darum geht, dem Kunststoff Intelligenz einzuhauchen. Er gibt dem Roboter-Gehirn, also der Steuerungseinheit, den nötigen Input, damit sie den Arm intelligent bewegen kann – ein überaus anspruchsvolles Unterfangen. „Diese Systeme sind komplexer als die heutiger Roboterarme. Polymerbasierte Komponenten mit künstlicher Intelligenz zu steuern, ist weit schwieriger als bei herkömmlichen mechatronischen Systemen“, erklärt Rizzello. Die Elastomer-Muskeln fungieren dabei zugleich als Nerven des Systems: Sie haben selbst Sensor-Eigenschaften. Daher kommt dieser Roboterarm ohne weitere Sensorik aus. „Jede Verformung des Elastomers, jede Änderung seiner Geometrie, bewirkt eine Änderung der elektrischen Kapazität und lässt sich präzisen Messwerten zuordnen. Messen wir die elektrische Kapazität, wissen wir, wie das Elastomer gerade verformt ist und können hieraus sensorische Daten ablesen“, erläutert der Ingenieur.

Mit diesen Werten lassen sich die Bewegungsabläufe präzise modellieren und programmieren: Hierfür intelligente Algorithmen zu entwickeln, um den neuartigen Roboter-Tentakeln ihr gewünschtes Verhalten anzutrainieren, steht im Mittelpunkt von Gianluca Rizzellos Forschung. „Wir arbeiten daran zu verstehen, welche physikalischen Eigenschaften dem Verhalten der Polymere zugrunde liegen. Je mehr wir darüber wissen, umso passgenauere Algorithmen können wir zu ihrer Steuerung entwerfen“, sagt der Juniorprofessor.

Die Technologie wird skalierbar sein: Sie kann in feinen Tentakeln etwa für medizinische Instrumente zum Einsatz kommen, aber auch bei großen Industrierobotern. Anders als die heutigen Roboterarme, die schon mit ihrem beachtlichen Gewicht gegen die Schwerkraft ankämpfen müssen, werden diese Roboterarme leicht sein. „Sie kommen ohne Motoren, Hydraulik oder Druckluft aus und funktionieren nur mit elektrischem Strom. Die Bauform der Elastomer-Muskeln kann dem jeweiligen Bedarf angepasst werden. Auch brauchen sie nur wenig Energie. Je nach Kapazität sind dies nur Ströme im Mikroampere-Bereich. Das macht diese Robotertechnologie, für die wir derzeit die Grundlagen erforschen, energieeffizient und kostengünstig“, erklärt Stefan Seelecke.

Die Deutsche Forschungsgemeinschaft fördert diese Forschung im Rahmen des DFG-Schwerpunktprogramms SPP2100 „Soft Material Robotic Systems“.

Externer Link: www.uni-saarland.de

Elektronische Nase unterscheidet Minzdüfte

Presseinformation des KIT (Karlsruher Institut für Technologie) vom 05.05.2021

Interdisziplinäre Forschungsgruppe des KIT entwickelt und erprobt künstliche Geruchserfassung durch Sensoren auf Basis neuartiger Materialkombinationen

In der Natur locken pflanzliche Duftstoffe beispielsweise Insekten an. Aber auch in der Industrie werden sie genutzt, etwa beim Herstellen von Parfums und Aromen. Um speziell die Duftstoffe der Minze zuverlässig, schnell und objektiv zu unterscheiden, haben Forschende des Karlsruher Instituts für Technologie (KIT) in einer interdisziplinären Zusammenarbeit eine elektronische Nase mit einem künstlichen Geruchssinn entwickelt: Mit hoher Präzision kann sie unterschiedliche Minzarten erkennen – damit eignet sie sich für Anwendungen von der pharmazeutischen Qualitätskontrolle bis hin zur Beobachtung von Minzöl als umweltfreundlichem Bioherbizid.

„Bislang kennt die Forschung schätzungsweise 100 000 unterschiedliche biologische Verbindungen, über die benachbarte Pflanzen miteinander interagieren oder andere Organismen wie Insekten steuern“, sagt Professor Peter Nick vom Botanischen Institut des KIT. „Diese Verbindungen sind bei Pflanzen der gleichen Gattung sehr ähnlich.“ Ein klassisches Beispiel in der Pflanzenwelt sei die Minze, bei der die verschiedenen Sorten mit sehr artspezifischen Duftstoffen ausgestattet seien. Insbesondere die industrielle Überwachung von Minzöl unterliege zum Vermeiden von Fälschungen einer strengen gesetzlichen Regelung, sei zeitaufwendig und erfordere viel Geschick, so der Wissenschaftler. Unterstützen soll dabei eine neue elektronische Nase auf Basis von Sensoren mit kombinierten Materialien, die Forschende vom Botanischen Institut, vom Institut für Funktionale Grenzflächen (IFG), vom Institut für Mikrostrukturtechnik (IMT) und vom Lichttechnischen Institut (LTI) des KIT gemeinsam entwickelt und bereits mit sechs unterschiedlichen Minzarten erprobt haben.

Elektronische Nase nach biologischem Vorbild

Bei der Entwicklung der elektronischen Nase orientiert sich das gesamte Forschungsteam so weit wie möglich am biologischen Vorbild: Die Geruchszellen, die beim Menschen Informationen über elektrische Impulse ans Gehirn geben, ersetzen sie durch insgesamt zwölf spezielle Sensoren (Quartz Crystal Microbalance-, kurz QCM-Sensoren). Diese bestehen aus zwei Elektroden mit einem Quarzkristall. Solche Bauteile sind beispielsweise auch in Mobiltelefonen verbaut, da sie kostengünstig eine hohe Genauigkeit der Mobilfunkfrequenzen garantieren. „Die Duftstoffe der Minze lagern sich auf der Oberfläche der Sensoren ab. Dadurch ändert sich deren Resonanzfrequenz, und wir erhalten eine Reaktion auf den jeweiligen Duft“, erläutert Professor Christof Wöll vom IFG. Duftstoffe bestehen aus organischen Molekülen in unterschiedlicher Zusammensetzung. Damit die neuen Sensoren diese aufnehmen können, haben die Forschenden vom IFG zwölf spezielle Sensormaterialien, unter anderem die am IFG entwickelten Metall-Organischen Gerüststrukturen (engl. Metal-Organic Frameworks, kurz MOFs), verwendet. „Diese Materialien sind hochporös und für Sensor-Anwendungen besonders gut geeignet, weil sie wie ein Schwamm viele Moleküle aufnehmen können“, so Wöll. „Durch die Kombination der Sensoren mit den unterschiedlichen Materialien verschalten wir quasi ein neuronales Netzwerk.“

Training mit sechs Minzarten durch Maschinelles Lernen

Die elektronische Nase haben die Wissenschaftlerinnen und Wissenschaftler mit sechs verschiedenen Minzarten getestet – darunter klassische Pfefferminze, Pferdeminze und Katzenminze. „Mit unterschiedlichen Methoden des Maschinellen Lernens trainieren wir die Sensoren so, dass sie aus den gesammelten Daten den Fingerabdruck des jeweiligen Dufts erstellen und so die Düfte voneinander unterscheiden können“, erläutert Wöll. Nach jeder Duftstoff-Probe werde die Nase etwa eine halbe Stunde lang mit Kohlendioxid (CO2) durchgespült, damit die Sensoren regenerieren.

Die Ergebnisse des interdisziplinären Forschungsteams haben gezeigt, dass die elektronische Nase mit QCM-Sensoren Minzdüfte mit hoher Spezifität einer Art zuordnen kann. Zusätzlich sei sie eine benutzerfreundliche, zuverlässige und kostengünstige Alternative zu herkömmlichen Methoden wie Massenspektrometrie, sagt der Wissenschaftler. Für die Weiterentwicklung stehen Sensoren im Fokus, die schneller regenerieren und dann erneut Gerüche aufnehmen können. Weiterhin konzentrieren sich die Forschenden vom IFG auf MOF-Materialien, um diese für andere Anwendungsbereiche wie beispielsweise für die künstliche Geruchserfassung in der medizinischen Diagnostik auszugestalten. (ase)

Originalpublikation:
Salih Okur, Mohammed Sarheed, Robert Huber, Zejun Zhang, Lars Heinke, Adnan Kanbar, Christof Wöll, Peter Nick, Ulrich Lemmer: Identification of Mint Scents Using a QCM Based E-Nose. Chemosensors.

Externer Link: www.kit.edu