Schnelle Hilfe für Verschüttete

Presseinformation (Forschung Kompakt) der Fraunhofer-Gesellschaft vom 01.10.2020

Sei es bei Lawinen, sei es bei Erdbeben – Verschüttete müssen schnellstmöglich geborgen werden. Mit einem neuartigen mobilen Radargerät des Fraunhofer-Instituts für Hochfrequenzphysik und Radartechnik FHR lassen sich künftig hektargroße Bereiche rasch und gründlich durchsuchen. Der Clou: Die Technologie kombiniert Bewegung und präzise Lebenszeichendetektion.

In manchen Regionen bebt die Erde täglich mehrere hundert Mal. Die meisten dieser Beben sind nicht allzu stark, andere jedoch entwickeln eine enorme Zerstörungskraft, bringen Gebäude zum Einsturz und lassen Tsunamis entstehen, die ganze Landstriche verwüsten. Rettungskräfte stehen bei einer solchen Katastrophe vor einer schwierigen Aufgabe: Wo in all den Trümmern befinden sich Verletzte, die dringend Hilfe benötigen? Anhaltspunkte können Radargeräte liefern. Jedoch lassen sich diese bislang nur stationär betreiben. Das System wird an einer Stelle aufgestellt und kann von dort aus – je nach Radar – etwa zwanzig bis dreißig Meter weit schauen. Diese Distanz ist zu gering, wenn es um großflächige Zerstörungen geht.

Eine Technologie des Fraunhofer FHR in Wachtberg kann den Suchradius deutlich vergrößern. »Wir haben ein mobiles Radargerät entwickelt, das Puls und Atmung verschütteter Personen bestimmen und sie auf diese Weise orten kann«, erläutert Dr. Reinhold Herschel, Teamleiter am Fraunhofer FHR. »Langfristig könnte eine Drohne, ausgerüstet mit dem Radargerät, die Unglücksstelle abfliegen. So lassen sich selbst hektargroße Bereiche effektiv und schnell durchsuchen.«

Mehrere Sender und Empfänger ermöglichen verschiedene Blickwinkel

Das dahinterliegende Prinzip: Das Radargerät sendet eine Welle aus, die an den Trümmerteilen zum Teil reflektiert wird, zum Teil durch sie hindurchgeht – und dann beispielsweise vom Verschütteten zurückgestrahlt wird. Über die Zeiten, die das Signal braucht, um wieder am Detektor des Radargeräts anzukommen, lassen sich die Entfernungen berechnen. Bewegt sich ein Objekt – hebt und senkt sich etwa die Haut des Verschütteten bei jedem Pulsschlag um einige hundert Mikrometer –, so ändert sich die Phase des Signals. Ebenso bei den Atembewegungen. Da man nur zehn- bis zwölfmal pro Minute Luft holt, das Herz aber durchschnittlich 60 Mal pro Minute schlägt, lassen sich diese Signaländerungen über Algorithmen gut voneinander trennen. Auch den Ort, an dem sich ein Verschütteter befindet, können die Forscher genau bestimmen. Möglich machen es MIMO-Radare, kurz für Multiple Input Multiple Output, die über mehrere Sender und Empfänger verfügen – es lassen sich also verschiedene »Blickwinkel« realisieren, über die dann die genaue Position bestimmt werden kann, an der die Rettungssanitäter nach dem Überlebenden graben müssen.

Algorithmus erkennt Herzflimmern

Das Besondere an der Technologie: Die Kombination von Bewegung und präziser Lebenszeichendetektion. Die Bewegung kann sich dabei zum einen auf eine Drohne beziehen, die das Unglücksgebiet überfliegt. Das Prinzip lässt sich aber auch umkehren: Stellt man das Gerät an eine feste Stelle, lassen sich die Lebenszeichen von Menschen detektieren, die sich im Umkreis des Geräts bewegen. Sinnvoll kann das etwa bei zahlreichen Verletzten sein, die beispielsweise nach einem Erdbeben in einer Turnhalle erstversorgt werden. Über das Radargerät lassen sich die Lebenszeichen aufzeichnen und den jeweiligen Verletzten zuordnen. Wer braucht die Hilfe am dringendsten? Der Algorithmus schaut dabei vor allem nach Veränderungen: Flimmert das Herz? Atmet der Patient sehr schnell? Die verschiedenen Signale können auseinander gerechnet und getrennt dargestellt werden. Und das mit hoher Genauigkeit: Die Pulsfrequenz beispielsweise misst das Radargerät auf ein Prozent genau, wie der Vergleich mit tragbaren Pulsgeräten ergab. Während bei der Suche nach Verschütteten per Radar noch Forschungsbedarf besteht, hat das Forscherteam bei der Lebenszeichendetektion von sich bewegenden Personen bereits erfolgreich Testläufe mit einem Abstand von bis zu 15 Metern durchgeführt. Der nächste Schritt zum Produkt wäre jetzt eine Verifikations-studie mit einem Partner im medizinischen Bereich. Nach positiver Evaluierung mit ausreichender Datenbasis kann dann zusammen mit interessierten Industriepartnern der Zertifizierungprozess gestartet werden. Die zuverlässige Detektion Verschütteter in schwierigen Fällen wie Erdreich oder Beton sowie die UAV-basierte Messung werden noch etwa zwei Jahre in Anspruch nehmen, bis eine ausreichend hohe Zuverlässigkeit für die Produktentwicklung erreicht ist. Hier ist das Fraunhofer FHR weiterhin forschend engagiert, um dieses ehrgeizige Ziel zu erreichen.

Externer Link: www.fraunhofer.de

Hygiene auf hohem Niveau: Mobiler Reinigungsroboter für die Produktion

Presseinformation (Forschung Kompakt) der Fraunhofer-Gesellschaft vom 01.07.2020

Produktionsräume und hygienische Bereiche müssen besonders rein sein. Speziell dort, wo Lebensmittel verarbeitet und Medizininstrumente behandelt werden, ist absolute Sauberkeit unerlässlich. Ein mobiles Reinigungsgerät von Fraunhofer-Forscherinnen und Forschern säubert die Anlagen und Produktionsräume bedarfsgerecht und reproduzierbar. Ausgestattet mit einem selbstlernenden System erkennt der autonom fahrende Roboter automatisch den Verschmutzungsgrad und wählt die geeignete Reinigungsprozedur aus.

In der industriellen Fertigung von Lebensmitteln ist eine kompromisslose Hygiene Voraussetzung. Sowohl die Produktionsanlagen als auch die Räume selber müssen regelmäßig gesäubert werden, Biofilme und Beläge dürfen sich keinesfalls bilden. Das Reinigungsergebnis wirkt sich auf die Hygiene aus und beeinflusst die Lebensmittelsicherheit. Bislang wird die anspruchsvolle und qualitätsbestimmende Säuberung der Produktionseinrichtungen größtenteils manuell erledigt. Doch bei aller Sorgfalt ist die Arbeit schwer reproduzierbar, fehlerbehaftet und zeitaufwändig.

Intelligente Reinigungsrobotik für den Innen- und Außenbereich

Ein Forscherteam des Fraunhofer-Instituts für Verfahrenstechnik und Verpackung IVV in Dresden hat daher modulare Reinigungsroboter entwickelt, die zurzeit in zwei Varianten vorliegen: Ein Modell fährt auf einem Förderband durch die Produktionsanlage und reinigt diese von innen, die zweite Variante reinigt Boden, Decken und Wände der Räume sowie die Außenseiten der Produktionsmaschinen. Ein ausfahrbarer Roboterarm mit Zielstrahlreiniger erreicht dabei auch höher gelegene Anlagenbereiche. Mobile Cleaning Device 4.0 (MCD) heißt das mobile, modulare Gerät, welches selbstständig durch die Produktionshalle fährt. In einem gemeinsamen Forschungsprojekt mit dem Fraunhofer IOSB-AST in Ilmenau wird gerade an einem Multisensorik-System für raue Umgebungsbedingungen geforscht, das zukünftig am MCD zum Einsatz kommen soll. Die Besonderheit: Basierend auf der Fluoreszenzmethode scannt und berechnet die installierte Sensorik den Verschmutzungsgrad und passt die Reinigungsparameter wie beispielsweise den Druck und die Menge des Reingungsschaums entsprechend adaptiv an. »Ein Detektor erkennt die fluoreszierenden Schmutzpartikel wie Fette, Öle und Proteine mithilfe von UV-Licht und dosiert den Schaum und das Wasser entsprechend der ermittelten Parameter wie Schichtdicke und Antrocknungsgrad.

Möglich werden soll dies durch ein selbstlernendes KI-System, das die geeigneten Reinigungsparameter auswählt und die Prozessschritte vorgibt«, erläutert Max Hesse, Teamleiter am Dresdner Institutsteil Verarbeitungstechnik, den Vorgang. Bei dem Prozess werden die Daten mit Hilfe einer Simulation in einem virtuellen Zwilling abgebildet. »Die erkannte Verschmutzung wird im virtuellen Zwilling auf das 3D-Modell der Anlage gemappt. In Abhängigkeit des Abstands des Geräts zur Oberfläche kann dann beispielweise der Sprühwasserdruck angepasst und gegebenenfalls reduziert werden – ganz im Sinne der Ressourceneffizienz.«

Ausgefeilte Sensorik

Der Batteriebetriebene Roboter bewegt sich autark, er ist lediglich durch einen Schlauch, aus dem das Reinigungsmittel zugeführt wird, mit der Docking Station verbunden. Die Steuerung erfolgt per WLAN. Ausgeklügelte Sensorik ermöglicht im Zusammenspiel mit der KI die adaptive Reinigung: Ein Radarsensor misst selbst durch Sprühnebel und Dampf hindurch, ein Ultrabreitband-Sensor misst die Position im Raum und ein dritter optischer Fluoreszenzsensor übernimmt die Verschmutzungserkennung und vermittelt einen Eindruck der Geometrie des Prüfobjekts – Experten nennen das visuelle Odometrie. Basierend auf dem erkannten Verschmutzungszustand und den fusionierten Sensordaten werden Prozessparameter abgeleitet – anschließend wird bereits während des Reinigungsprozesses geprüft, ob dieser korrekt durchgeführt wurde. Das Prüfergebnis wird im nächsten Schritt an den virtuellen Zwilling mit dem selbstlernenden System weitergeleitet. Bei jedem Reinigungsvorgang optimiert sich das System quasi selbst und gewährleistet somit einen ressourceneffizienten Reinigungserfolg. »Unsere Tests haben gezeigt, dass man auf diesem Weg bis zu 50 Prozent an Reinigungsmitteln sparen kann, da nur die tatsächlich benötigte Menge an Reinigungsmittel auf die Oberflächen aufgebracht wird«, sagt Hesse. »Beispielsweise kann man das System trainieren, in einem vorgegebenen Zeitraum, z.B. in einer freien Nachschicht im 2-Schichtsystem, möglichst ressourceneffizient zu reinigen. Zusätzlich können erhebliche Effizienzpotenziale erschlossen werden, wenn die bisher für die Reinigung eingesetzten Facharbeiter bereits andere Arbeiten durchführen können, während die MCDs hochparallelisiert Reinigungsprozesse vollenden.« Ein weiterer Pluspunkt: Der komplette Säuberungsprozess wird vollautomatisiert protokolliert und ist durch den hohen Automatisierungsgrad sehr reproduzierbar.

Mobile Cleaning Device ist branchenunabhängig und flexibel einsetzbar

Der Einsatz des Mobile Cleaning Device beschränkt sich nicht auf die Lebensmittelbranche: Der smarte Roboter lässt sich ebenso im Automotive-Umfeld, in der Pharma-, Medizintechnik- und Kosmetikindustrie oder im Agrar-Sektor anwenden. In Krisenzeiten wie der Corona-Pandemie profitieren unterschiedlichste Branchen von dem autonomen Reinigungsroboter. »Gerade bei Personalknappheit kann unser automatisiertes System seine Vorteile ausspielen. In der Lebensmittelproduktion sind etwa zehn Prozent der Mitarbeiter allein für die Reinigung eingeteilt«, sagt der Ingenieur. Hierfür seien Fachkräfte erforderlich, die auch in normalen Zeiten rar sind. Beide Robotervarianten werden konsequent weiterentwickelt, wodurch die Komplexität der zu übernehmenden Reinigungsaufgaben stetig steigt.

Externer Link: www.fraunhofer.de

Haben ein Auge für Farben: druckbare Lichtsensoren

Presseinformation des KIT (Karlsruher Institut für Technologie) vom 19.02.2020

Team des KIT entwickelt druckbare organische Fotodioden, die Wellenlängen unterscheiden und damit Datenübertragung via Licht ermöglichen können.

Kameras, Lichtschranken und Bewegungsmelder verbindet eines: Sie arbeiten mit Lichtsensoren, die schon jetzt bei vielen Anwendungen nicht mehr wegzudenken sind. Zukünftig könnten diese Sensoren auch bei der Telekommunikation eine wichtige Rolle spielen, indem sie die Datenübertragung mittels Licht ermöglichen. Wissenschaftlerinnen und Wissenschaftlern des Karlsruher Instituts für Technologie (KIT) am InnovationLab in Heidelberg ist hier ein entscheidender Entwicklungsschritt gelungen: druckbare Lichtsensoren, die Farben sehen können. Die Ergebnisse veröffentlichten sie jetzt in der Zeitschrift Advanced Materials (DOI: 10.1002/adma.201908258).

Neue Technologien werden die Nachfrage nach optischen Sensoren für eine Vielzahl von Anwendungen erhöhen, darunter auch die Kommunikation mithilfe von sichtbarem Licht (engl. Visible Light Communication, VLC). VLC nutzt die Innenbeleuchtung in Gebäuden für die optische Kommunikation. Diese Technologie bietet in Bezug auf Sicherheit, Geschwindigkeit und Zugänglichkeit eine Reihe von Vorteilen im Vergleich zu aktuellen Übertragungsverfahren wie WLAN oder Bluetooth. „Unsere Forschung trägt zu dieser Technologie bei, indem wir die Vorteile einer speziellen Art von Materialien, nämlich organische Halbleiter, und deren Herstellung mit Drucktechniken verbinden“, so Dr. Gerardo Hernandez-Sosa vom Lichttechnischen Institut des KIT, einer der Autoren der Publikation.

Halbleiter sind die Basis von Computern, Smartphones, Solarzellen und von vielen anderen Technologien. Einige der Halbleitermaterialien reagieren auf Licht, indem sich ihre Leitfähigkeit ändert und die Lichtintensität als elektrischer Strom gemessen werden kann. Innerhalb dieser Klasse von Materialien gibt es zudem einige, die wie Druckertinte mit einem Drucker auf ein Trägermaterial aufgebracht werden können. Diese Materialien reagieren auf unterschiedliche Wellenlängen, können also Farben unterscheiden. Dem Team um Hernandez-Sosa ist es nun gelungen, eine Materialzusammensetzung zu finden, die sich für den Einsatz als wellenlängensensibler Lichtdetektor eignet und sich zudem auf flexible Träger aufdrucken lässt. Dabei können Flächen von sehr klein bis sehr groß bedruckt werden. Das Layout lässt sich mithilfe eines Computers einfach gestalten. „Diese Fotosensoren können in großen Stückzahlen in jedem Design auf flexiblen, leichten Materialien hergestellt werden. Daher sind sie besonders für mobile Geräte geeignet”, so Erstautor Noah Strobel.

Der Druck von Halbleiterbauelementen ist eine relativ junge Entwicklung, aber ihr Potenzial für zukünftige Anwendungen ist sehr hoch. Schon jetzt investiert die Industrie in großem Umfang in die Herstellung von gedruckten OLED-Displays für Fernseher und Smartphones. Auch gedruckte flexible Solarzellen oder Drucksensoren sind bereits im Handel. Die Herstellung von gedruckten Lichtdetektoren hat gleichfalls bereits das industrielle Niveau erreicht. Daher sind die Chancen hoch, dass diese Elemente in Zukunft in vielen Anwendungen eingesetzt werden, insbesondere angesichts der steigenden Nachfrage nach Sensoren im Internet der Dinge, in Smart Cities und in der Industrie 4.0. (rl)

Originalpublikation:
Noah Strobel, Nikolaos Droseros, Wolfgang Köntges, Mervin  Seiberlich, Manuel  Pietsch, Stefan Schlisske, Felix Lindheimer, Rasmus R. Schröder, Uli Lemmer, Martin Pfannmöller, Natalie Banerji, Gerardo Hernandez-Sosa: „Color-selective Printed Organic Photodiodes for Filterless Multichannel Visible Light Communication“. Advanced Materials, 2020. DOI: 10.1002/adma.201908258.

Externer Link: www.kit.edu

Das hörende Auto der Zukunft

Presseinformation (Forschung Kompakt) der Fraunhofer-Gesellschaft vom 03.02.2020

Wer heute ein neues Auto kauft, muss auf Features wie ferngesteuertes Einparken, automatisches Spurhalten oder Müdigkeitserkennung nicht verzichten. Autonome Fahrzeuge werden zukünftig auch über einen Hörsinn verfügen. Forscherinnen und Forscher am Fraunhofer-Institut für Digitale Medientechnologie IDMT in Oldenburg haben erste Prototypen für das Erkennen von Außengeräuschen wie Sirenen entwickelt.

Moderne Fahrzeuge verfügen über zahlreiche Fahrerassistenzsysteme, die den Autofahrer entlasten, ihm etwa beim Einparken helfen oder den toten Winkel überwachen. Kamera, Lidar und Radar erfassen die relevanten Objekte in der Umgebung, sie fungieren quasi als Augen. Was den Automobilen bislang noch fehlt, ist der Hörsinn, sprich Systeme, die in der Lage sind, Außengeräusche wahrzunehmen und einzuordnen. Sie werden künftig im Zusammenspiel mit intelligenten Radar- und Kamerasensorik die Grundlage für das autonome Fahren bilden. Um das »hörende Auto« zu realisieren, entwickeln Forscherinnen und Forscher am Fraunhofer IDMT in Oldenburg KI-basierte Technologien zur akustischen Ereigniserkennung.

»Für autonome Fahrzeuge existieren externe akustische Wahrnehmungssysteme bisher nicht, trotz Ihres hohen Anwendungspotenzials. Sie signalisieren beispielsweise im Bruchteil einer Sekunde, wenn ein Fahrzeug mit eingeschaltetem Martinshorn naht. So weiß das autonome Fahrzeug, das es ausweichen muss, damit eine Rettungsgasse gebildet werden kann«, sagt Danilo Hollosi, Gruppenleiter Akustische Ereignisdetektion am Fraunhofer IDMT in Oldenburg. Neben der Sirenenerkennung gibt es zahlreiche weitere Szenarien, wo ein akustisches Frühwarnsystem unerlässlich ist: beim Einbiegen in Spielstraßen, aber auch zum Erkennen von gefährlichen Situationen oder Fehlern – etwa wenn ein Nagel im Reifen steckt. Darüber hinaus kann das System die Zustandsüberwachung des Fahrzeugs übernehmen oder per Spracherkennung als Notrufsäule fungieren.

KI-basierte Algorithmen analysieren die Geräusche

Um das »hörende Auto« zu verwirklichen, bringen die Entwicklerinnen und Entwickler am Fraunhofer IDMT in Oldenburg spezielle Projekterfahrungen im Bereich Automotive sowie gruppenübergreifende Kompetenzen mit. Zu den Herausforderungen zählen die optimale Signalaufnahme durch Sensorpositionierung, die Signalvorverarbeitung und – verbesserung sowie die Störgeräuschbefreiung. Eigene Beamforming-Algorithmen ermöglichen die dynamische Lokalisation von sich bewegenden Schallquellen, wie beispielsweise das Martinshorn an einem Einsatzfahrzeug. Die Ereignis-Erkenner des IDMT wurden zuvor über Machine-Learning-Verfahren mit den akustischen Signaturen der relevanten Töne trainiert. Hierfür wurden eigens akustische Bibliotheken angelegt. So entstehen intelligente Sensorplattformen mit effektiver Erkennerleistung. Eigens entwickelte KI-basierte Algorithmen zur Audioanalyse ermitteln die Stör- und Zielgeräusche. »Wir wenden Methoden des Maschinellen Lernens an. Wir trainieren unsere Algorithmen mit unterschiedlichsten, zuvor erhobenen Geräuschen«, so Hollosi. Gemeinsam mit Industriepartnern wurden bereits erste Prototypen realisiert, die Mitte des kommenden Jahrzehnts marktreif sein sollen.

Die akustische Sensorik der IDMT-Forscherinnen und -Forscher setzt sich aus eingehausten Mikrofonen, Steuergerät und Software zusammen. Außen am Fahrzeug angebracht nehmen die Mikrofone den Luftschall auf. Die Sensoren leiten die Audiodaten an ein spezielles Steuergerät weiter, wo diese dann zu relevanten Metadaten weiterverarbeitet werden. In vielen anderen Anwendungsfällen, zum Beispiel im Sicherheitsbereich, in der Pflege oder bei Consumer-Produkten, verwerten smarte Sensoren die Audiodaten direkt und geben nur Metadaten weiter.

Die computerbasierten Verfahren zur Ereigniserkennung des Forscherteams lassen sich in angepassten Varianten auch in anderen Branchen und Märkten einsetzen, etwa zur Qualitätssicherung in der industriellen Produktion. Hier verarbeiten intelligente akustische Sensoren batteriebetrieben Audiosignale von Maschinen und Anlagen. Aus den Informationen, die drahtlos an eine Auswerteeinheit weitergeleitet werden, lassen sich Rückschlüsse auf den Zustand der Fertigungsanlagen ziehen und mögliche Schäden vermeiden. Automatische Spracherkenner ermöglichen berührungslose Dokumentationssysteme für professionelle Einsatzzwecke, beispielsweise in der Turbinenwartung.

Externer Link: www.fraunhofer.de

Schnelltest für die Asthma-Diagnose

Presseinformation (Forschung Kompakt) der Fraunhofer-Gesellschaft vom 02.12.2019

Mit mehr als 235 Millionen Patienten ist Asthma weltweit eine der häufigsten Atemwegserkrankungen. Bei Kindern ist eine Diagnose oft schwerer zu stellen als bei Erwachsenen. Frühzeitig erkannt, lässt sich die Krankheit gut behandeln. Ein Forscherteam an der Fraunhofer-Einrichtung für Marine Biotechnologie und Zelltechnik EMB entwickelt gemeinsam mit Hightech-Unternehmen einen Schnelltest, der zur Asthma-Diagnose nur einen Tropfen Blut benötigt. Dabei bedienen sich die Partner der Methode des Maschinellen Lernens.

Atemnot, Kurzatmigkeit und Husten sind nur einige der möglichen Beschwerden bei Asthma. Betroffene leiden anfallsartig unter einer Verengung der Bronchien. Entscheidend ist es, die Krankheit rasch zu erkennen. Nur so lässt sich verhindern, dass die Atemwege bleibend geschädigt werden oder sogar Asthmaanfälle drohen, die schlimmstenfalls tödlich enden können. Insbesondere bei Kindern ist es wichtig, die Krankheit frühzeitig festzustellen, um schnell zu intervenieren und die Beschwerden zu lindern. Doch die Diagnose ist bei den Kleinen komplizierter und langwieriger als bei Erwachsenen. Manche Messverfahren, bei denen man in einen Schlauch pustet, sind bei kleinen Kindern nicht möglich. Zeitaufwändige Lungenfunktionstests eignen sich erst ab einem Alter von vier bis fünf Jahren. Im vom Land Schleswig-Holstein geförderten Projekt »KillAsthma« widmet sich die Fraunhofer EMB gemeinsam mit der Pattern Recognition Company und der Raytrix GmbH dieser Problematik. Mit einem neuen Schnelltest soll das Ergebnis bereits nach 60 bis 90 Minuten vorliegen. Der Clou: Für die Asthma-Diagnose sind lediglich ein Tropfen Blut und die darin befindlichen Immunzellen erforderlich.

KI-gestützte Analyse von Immunzellen

Das Bewegungsprofil der Blutzellen von Asthmatikern unterscheidet sich von dem gesunder Menschen. »Bei Asthma ist die Bewegung der Immunzellen stark verlangsamt, wenn sie einen Entzündungsreiz erfahren«, erklärt Dr. Daniel Rapoport, Leiter der Arbeitsgruppe Zellprozessierung an der Fraunhofer EMB. Dieses Wissen macht sich die Forschergruppe bei der Entwicklung des Testsets zunutze. Die Idee ist es, die Immunzellen aus dem Tropfen Blut unter einem eigens entwickelten holografischen Mikroskop etwa 90 Minuten lang zu beobachten und anhand ihrer Bewegungsmuster einzuschätzen, ob eine Asthmaerkrankung vorliegt. Das Mikroskop, auch als Zellscanner bezeichnet, ermöglicht ein automatisches, dreidimensionales Tracking der Zellen in Echtzeit. Eine entscheidende Rolle kommt der Künstlichen Intelligenz (KI) zu, die in den komplexen Bewegungsmustern tausender Zellen charakteristische Muster erkennt.

Doch wie funktioniert die Technologie im Detail? Das Blut und eine Substanz, die den Entzündungsreiz auslöst, werden in eine mikrofluidische Kartusche gefüllt und anschließend in das miniaturisierte Mikroskop geschoben. Dieses umfasst eine LED und einen optischen CMOS-PhotoSensor, der mit der Computersoftware verbunden ist. Die Bildauswertung erfolgt mittels eigens entwickelter Algorithmen. »Wir können 2000 bis 3000 Zellen zeitgleich beobachten, wodurch eine hohe statistische Genauigkeit gewährleistet ist«, so Rapoport. Die ermittelten Bewegungsmuster werden anschließend an ein neuronales Netz übergeben. Selbstlernende Algorithmen analysieren die Blutzellbewegungsmuster und errechnen den diagnostischen Index. »Mit KI kann man Abweichungen der Muster erkennen. Um die Unterschiede zu erfassen, verwenden wir selbstlernende Algorithmen. Anhand vieler Trainingsdaten lernen die neuronalen Netze Muster und können die Profile von Kranken und Gesunden unterscheiden.«

Methode auf andere Krankheiten erweiterbar

Dies lässt den Rückschluss zu, dass KI in der Lage ist, auch andere Abweichungen von der Norm zu lernen. »Mit unserer Methode lassen sich auch andere Krankheiten analysieren. Dies gilt insbesondere für Autoimmun- und chronisch entzündliche Erkrankungen wie Morbus Crohn, Colitis Ulcerosa und Rheuma. Hier sind die Diagnosen langwierig und lassen sich mit einem angepassten Schnelltest deutlich beschleunigen«, sagt der Lübecker Forscher. »Erste Tests sind erfolgreich abgeschlossen. Die Bildauswertung ergab, dass unser holografisches Mikroskop einem Hochleistungsmikroskop überlegen ist.« Rapoport und seine Projektpartner optimieren derzeit die Hardware sowie das Verfahren. Fernziel ist, die individuelle Ausprägung von Asthmaerkrankungen zu erkennen, um einen personalisierten Behandlungsplan entwickeln zu können.

Externer Link: www.fraunhofer.de