Hygiene auf hohem Niveau: Mobiler Reinigungsroboter für die Produktion

Presseinformation (Forschung Kompakt) der Fraunhofer-Gesellschaft vom 01.07.2020

Produktionsräume und hygienische Bereiche müssen besonders rein sein. Speziell dort, wo Lebensmittel verarbeitet und Medizininstrumente behandelt werden, ist absolute Sauberkeit unerlässlich. Ein mobiles Reinigungsgerät von Fraunhofer-Forscherinnen und Forschern säubert die Anlagen und Produktionsräume bedarfsgerecht und reproduzierbar. Ausgestattet mit einem selbstlernenden System erkennt der autonom fahrende Roboter automatisch den Verschmutzungsgrad und wählt die geeignete Reinigungsprozedur aus.

In der industriellen Fertigung von Lebensmitteln ist eine kompromisslose Hygiene Voraussetzung. Sowohl die Produktionsanlagen als auch die Räume selber müssen regelmäßig gesäubert werden, Biofilme und Beläge dürfen sich keinesfalls bilden. Das Reinigungsergebnis wirkt sich auf die Hygiene aus und beeinflusst die Lebensmittelsicherheit. Bislang wird die anspruchsvolle und qualitätsbestimmende Säuberung der Produktionseinrichtungen größtenteils manuell erledigt. Doch bei aller Sorgfalt ist die Arbeit schwer reproduzierbar, fehlerbehaftet und zeitaufwändig.

Intelligente Reinigungsrobotik für den Innen- und Außenbereich

Ein Forscherteam des Fraunhofer-Instituts für Verfahrenstechnik und Verpackung IVV in Dresden hat daher modulare Reinigungsroboter entwickelt, die zurzeit in zwei Varianten vorliegen: Ein Modell fährt auf einem Förderband durch die Produktionsanlage und reinigt diese von innen, die zweite Variante reinigt Boden, Decken und Wände der Räume sowie die Außenseiten der Produktionsmaschinen. Ein ausfahrbarer Roboterarm mit Zielstrahlreiniger erreicht dabei auch höher gelegene Anlagenbereiche. Mobile Cleaning Device 4.0 (MCD) heißt das mobile, modulare Gerät, welches selbstständig durch die Produktionshalle fährt. In einem gemeinsamen Forschungsprojekt mit dem Fraunhofer IOSB-AST in Ilmenau wird gerade an einem Multisensorik-System für raue Umgebungsbedingungen geforscht, das zukünftig am MCD zum Einsatz kommen soll. Die Besonderheit: Basierend auf der Fluoreszenzmethode scannt und berechnet die installierte Sensorik den Verschmutzungsgrad und passt die Reinigungsparameter wie beispielsweise den Druck und die Menge des Reingungsschaums entsprechend adaptiv an. »Ein Detektor erkennt die fluoreszierenden Schmutzpartikel wie Fette, Öle und Proteine mithilfe von UV-Licht und dosiert den Schaum und das Wasser entsprechend der ermittelten Parameter wie Schichtdicke und Antrocknungsgrad.

Möglich werden soll dies durch ein selbstlernendes KI-System, das die geeigneten Reinigungsparameter auswählt und die Prozessschritte vorgibt«, erläutert Max Hesse, Teamleiter am Dresdner Institutsteil Verarbeitungstechnik, den Vorgang. Bei dem Prozess werden die Daten mit Hilfe einer Simulation in einem virtuellen Zwilling abgebildet. »Die erkannte Verschmutzung wird im virtuellen Zwilling auf das 3D-Modell der Anlage gemappt. In Abhängigkeit des Abstands des Geräts zur Oberfläche kann dann beispielweise der Sprühwasserdruck angepasst und gegebenenfalls reduziert werden – ganz im Sinne der Ressourceneffizienz.«

Ausgefeilte Sensorik

Der Batteriebetriebene Roboter bewegt sich autark, er ist lediglich durch einen Schlauch, aus dem das Reinigungsmittel zugeführt wird, mit der Docking Station verbunden. Die Steuerung erfolgt per WLAN. Ausgeklügelte Sensorik ermöglicht im Zusammenspiel mit der KI die adaptive Reinigung: Ein Radarsensor misst selbst durch Sprühnebel und Dampf hindurch, ein Ultrabreitband-Sensor misst die Position im Raum und ein dritter optischer Fluoreszenzsensor übernimmt die Verschmutzungserkennung und vermittelt einen Eindruck der Geometrie des Prüfobjekts – Experten nennen das visuelle Odometrie. Basierend auf dem erkannten Verschmutzungszustand und den fusionierten Sensordaten werden Prozessparameter abgeleitet – anschließend wird bereits während des Reinigungsprozesses geprüft, ob dieser korrekt durchgeführt wurde. Das Prüfergebnis wird im nächsten Schritt an den virtuellen Zwilling mit dem selbstlernenden System weitergeleitet. Bei jedem Reinigungsvorgang optimiert sich das System quasi selbst und gewährleistet somit einen ressourceneffizienten Reinigungserfolg. »Unsere Tests haben gezeigt, dass man auf diesem Weg bis zu 50 Prozent an Reinigungsmitteln sparen kann, da nur die tatsächlich benötigte Menge an Reinigungsmittel auf die Oberflächen aufgebracht wird«, sagt Hesse. »Beispielsweise kann man das System trainieren, in einem vorgegebenen Zeitraum, z.B. in einer freien Nachschicht im 2-Schichtsystem, möglichst ressourceneffizient zu reinigen. Zusätzlich können erhebliche Effizienzpotenziale erschlossen werden, wenn die bisher für die Reinigung eingesetzten Facharbeiter bereits andere Arbeiten durchführen können, während die MCDs hochparallelisiert Reinigungsprozesse vollenden.« Ein weiterer Pluspunkt: Der komplette Säuberungsprozess wird vollautomatisiert protokolliert und ist durch den hohen Automatisierungsgrad sehr reproduzierbar.

Mobile Cleaning Device ist branchenunabhängig und flexibel einsetzbar

Der Einsatz des Mobile Cleaning Device beschränkt sich nicht auf die Lebensmittelbranche: Der smarte Roboter lässt sich ebenso im Automotive-Umfeld, in der Pharma-, Medizintechnik- und Kosmetikindustrie oder im Agrar-Sektor anwenden. In Krisenzeiten wie der Corona-Pandemie profitieren unterschiedlichste Branchen von dem autonomen Reinigungsroboter. »Gerade bei Personalknappheit kann unser automatisiertes System seine Vorteile ausspielen. In der Lebensmittelproduktion sind etwa zehn Prozent der Mitarbeiter allein für die Reinigung eingeteilt«, sagt der Ingenieur. Hierfür seien Fachkräfte erforderlich, die auch in normalen Zeiten rar sind. Beide Robotervarianten werden konsequent weiterentwickelt, wodurch die Komplexität der zu übernehmenden Reinigungsaufgaben stetig steigt.

Externer Link: www.fraunhofer.de

Haben ein Auge für Farben: druckbare Lichtsensoren

Presseinformation des KIT (Karlsruher Institut für Technologie) vom 19.02.2020

Team des KIT entwickelt druckbare organische Fotodioden, die Wellenlängen unterscheiden und damit Datenübertragung via Licht ermöglichen können.

Kameras, Lichtschranken und Bewegungsmelder verbindet eines: Sie arbeiten mit Lichtsensoren, die schon jetzt bei vielen Anwendungen nicht mehr wegzudenken sind. Zukünftig könnten diese Sensoren auch bei der Telekommunikation eine wichtige Rolle spielen, indem sie die Datenübertragung mittels Licht ermöglichen. Wissenschaftlerinnen und Wissenschaftlern des Karlsruher Instituts für Technologie (KIT) am InnovationLab in Heidelberg ist hier ein entscheidender Entwicklungsschritt gelungen: druckbare Lichtsensoren, die Farben sehen können. Die Ergebnisse veröffentlichten sie jetzt in der Zeitschrift Advanced Materials (DOI: 10.1002/adma.201908258).

Neue Technologien werden die Nachfrage nach optischen Sensoren für eine Vielzahl von Anwendungen erhöhen, darunter auch die Kommunikation mithilfe von sichtbarem Licht (engl. Visible Light Communication, VLC). VLC nutzt die Innenbeleuchtung in Gebäuden für die optische Kommunikation. Diese Technologie bietet in Bezug auf Sicherheit, Geschwindigkeit und Zugänglichkeit eine Reihe von Vorteilen im Vergleich zu aktuellen Übertragungsverfahren wie WLAN oder Bluetooth. „Unsere Forschung trägt zu dieser Technologie bei, indem wir die Vorteile einer speziellen Art von Materialien, nämlich organische Halbleiter, und deren Herstellung mit Drucktechniken verbinden“, so Dr. Gerardo Hernandez-Sosa vom Lichttechnischen Institut des KIT, einer der Autoren der Publikation.

Halbleiter sind die Basis von Computern, Smartphones, Solarzellen und von vielen anderen Technologien. Einige der Halbleitermaterialien reagieren auf Licht, indem sich ihre Leitfähigkeit ändert und die Lichtintensität als elektrischer Strom gemessen werden kann. Innerhalb dieser Klasse von Materialien gibt es zudem einige, die wie Druckertinte mit einem Drucker auf ein Trägermaterial aufgebracht werden können. Diese Materialien reagieren auf unterschiedliche Wellenlängen, können also Farben unterscheiden. Dem Team um Hernandez-Sosa ist es nun gelungen, eine Materialzusammensetzung zu finden, die sich für den Einsatz als wellenlängensensibler Lichtdetektor eignet und sich zudem auf flexible Träger aufdrucken lässt. Dabei können Flächen von sehr klein bis sehr groß bedruckt werden. Das Layout lässt sich mithilfe eines Computers einfach gestalten. „Diese Fotosensoren können in großen Stückzahlen in jedem Design auf flexiblen, leichten Materialien hergestellt werden. Daher sind sie besonders für mobile Geräte geeignet”, so Erstautor Noah Strobel.

Der Druck von Halbleiterbauelementen ist eine relativ junge Entwicklung, aber ihr Potenzial für zukünftige Anwendungen ist sehr hoch. Schon jetzt investiert die Industrie in großem Umfang in die Herstellung von gedruckten OLED-Displays für Fernseher und Smartphones. Auch gedruckte flexible Solarzellen oder Drucksensoren sind bereits im Handel. Die Herstellung von gedruckten Lichtdetektoren hat gleichfalls bereits das industrielle Niveau erreicht. Daher sind die Chancen hoch, dass diese Elemente in Zukunft in vielen Anwendungen eingesetzt werden, insbesondere angesichts der steigenden Nachfrage nach Sensoren im Internet der Dinge, in Smart Cities und in der Industrie 4.0. (rl)

Originalpublikation:
Noah Strobel, Nikolaos Droseros, Wolfgang Köntges, Mervin  Seiberlich, Manuel  Pietsch, Stefan Schlisske, Felix Lindheimer, Rasmus R. Schröder, Uli Lemmer, Martin Pfannmöller, Natalie Banerji, Gerardo Hernandez-Sosa: „Color-selective Printed Organic Photodiodes for Filterless Multichannel Visible Light Communication“. Advanced Materials, 2020. DOI: 10.1002/adma.201908258.

Externer Link: www.kit.edu

Das hörende Auto der Zukunft

Presseinformation (Forschung Kompakt) der Fraunhofer-Gesellschaft vom 03.02.2020

Wer heute ein neues Auto kauft, muss auf Features wie ferngesteuertes Einparken, automatisches Spurhalten oder Müdigkeitserkennung nicht verzichten. Autonome Fahrzeuge werden zukünftig auch über einen Hörsinn verfügen. Forscherinnen und Forscher am Fraunhofer-Institut für Digitale Medientechnologie IDMT in Oldenburg haben erste Prototypen für das Erkennen von Außengeräuschen wie Sirenen entwickelt.

Moderne Fahrzeuge verfügen über zahlreiche Fahrerassistenzsysteme, die den Autofahrer entlasten, ihm etwa beim Einparken helfen oder den toten Winkel überwachen. Kamera, Lidar und Radar erfassen die relevanten Objekte in der Umgebung, sie fungieren quasi als Augen. Was den Automobilen bislang noch fehlt, ist der Hörsinn, sprich Systeme, die in der Lage sind, Außengeräusche wahrzunehmen und einzuordnen. Sie werden künftig im Zusammenspiel mit intelligenten Radar- und Kamerasensorik die Grundlage für das autonome Fahren bilden. Um das »hörende Auto« zu realisieren, entwickeln Forscherinnen und Forscher am Fraunhofer IDMT in Oldenburg KI-basierte Technologien zur akustischen Ereigniserkennung.

»Für autonome Fahrzeuge existieren externe akustische Wahrnehmungssysteme bisher nicht, trotz Ihres hohen Anwendungspotenzials. Sie signalisieren beispielsweise im Bruchteil einer Sekunde, wenn ein Fahrzeug mit eingeschaltetem Martinshorn naht. So weiß das autonome Fahrzeug, das es ausweichen muss, damit eine Rettungsgasse gebildet werden kann«, sagt Danilo Hollosi, Gruppenleiter Akustische Ereignisdetektion am Fraunhofer IDMT in Oldenburg. Neben der Sirenenerkennung gibt es zahlreiche weitere Szenarien, wo ein akustisches Frühwarnsystem unerlässlich ist: beim Einbiegen in Spielstraßen, aber auch zum Erkennen von gefährlichen Situationen oder Fehlern – etwa wenn ein Nagel im Reifen steckt. Darüber hinaus kann das System die Zustandsüberwachung des Fahrzeugs übernehmen oder per Spracherkennung als Notrufsäule fungieren.

KI-basierte Algorithmen analysieren die Geräusche

Um das »hörende Auto« zu verwirklichen, bringen die Entwicklerinnen und Entwickler am Fraunhofer IDMT in Oldenburg spezielle Projekterfahrungen im Bereich Automotive sowie gruppenübergreifende Kompetenzen mit. Zu den Herausforderungen zählen die optimale Signalaufnahme durch Sensorpositionierung, die Signalvorverarbeitung und – verbesserung sowie die Störgeräuschbefreiung. Eigene Beamforming-Algorithmen ermöglichen die dynamische Lokalisation von sich bewegenden Schallquellen, wie beispielsweise das Martinshorn an einem Einsatzfahrzeug. Die Ereignis-Erkenner des IDMT wurden zuvor über Machine-Learning-Verfahren mit den akustischen Signaturen der relevanten Töne trainiert. Hierfür wurden eigens akustische Bibliotheken angelegt. So entstehen intelligente Sensorplattformen mit effektiver Erkennerleistung. Eigens entwickelte KI-basierte Algorithmen zur Audioanalyse ermitteln die Stör- und Zielgeräusche. »Wir wenden Methoden des Maschinellen Lernens an. Wir trainieren unsere Algorithmen mit unterschiedlichsten, zuvor erhobenen Geräuschen«, so Hollosi. Gemeinsam mit Industriepartnern wurden bereits erste Prototypen realisiert, die Mitte des kommenden Jahrzehnts marktreif sein sollen.

Die akustische Sensorik der IDMT-Forscherinnen und -Forscher setzt sich aus eingehausten Mikrofonen, Steuergerät und Software zusammen. Außen am Fahrzeug angebracht nehmen die Mikrofone den Luftschall auf. Die Sensoren leiten die Audiodaten an ein spezielles Steuergerät weiter, wo diese dann zu relevanten Metadaten weiterverarbeitet werden. In vielen anderen Anwendungsfällen, zum Beispiel im Sicherheitsbereich, in der Pflege oder bei Consumer-Produkten, verwerten smarte Sensoren die Audiodaten direkt und geben nur Metadaten weiter.

Die computerbasierten Verfahren zur Ereigniserkennung des Forscherteams lassen sich in angepassten Varianten auch in anderen Branchen und Märkten einsetzen, etwa zur Qualitätssicherung in der industriellen Produktion. Hier verarbeiten intelligente akustische Sensoren batteriebetrieben Audiosignale von Maschinen und Anlagen. Aus den Informationen, die drahtlos an eine Auswerteeinheit weitergeleitet werden, lassen sich Rückschlüsse auf den Zustand der Fertigungsanlagen ziehen und mögliche Schäden vermeiden. Automatische Spracherkenner ermöglichen berührungslose Dokumentationssysteme für professionelle Einsatzzwecke, beispielsweise in der Turbinenwartung.

Externer Link: www.fraunhofer.de

Schnelltest für die Asthma-Diagnose

Presseinformation (Forschung Kompakt) der Fraunhofer-Gesellschaft vom 02.12.2019

Mit mehr als 235 Millionen Patienten ist Asthma weltweit eine der häufigsten Atemwegserkrankungen. Bei Kindern ist eine Diagnose oft schwerer zu stellen als bei Erwachsenen. Frühzeitig erkannt, lässt sich die Krankheit gut behandeln. Ein Forscherteam an der Fraunhofer-Einrichtung für Marine Biotechnologie und Zelltechnik EMB entwickelt gemeinsam mit Hightech-Unternehmen einen Schnelltest, der zur Asthma-Diagnose nur einen Tropfen Blut benötigt. Dabei bedienen sich die Partner der Methode des Maschinellen Lernens.

Atemnot, Kurzatmigkeit und Husten sind nur einige der möglichen Beschwerden bei Asthma. Betroffene leiden anfallsartig unter einer Verengung der Bronchien. Entscheidend ist es, die Krankheit rasch zu erkennen. Nur so lässt sich verhindern, dass die Atemwege bleibend geschädigt werden oder sogar Asthmaanfälle drohen, die schlimmstenfalls tödlich enden können. Insbesondere bei Kindern ist es wichtig, die Krankheit frühzeitig festzustellen, um schnell zu intervenieren und die Beschwerden zu lindern. Doch die Diagnose ist bei den Kleinen komplizierter und langwieriger als bei Erwachsenen. Manche Messverfahren, bei denen man in einen Schlauch pustet, sind bei kleinen Kindern nicht möglich. Zeitaufwändige Lungenfunktionstests eignen sich erst ab einem Alter von vier bis fünf Jahren. Im vom Land Schleswig-Holstein geförderten Projekt »KillAsthma« widmet sich die Fraunhofer EMB gemeinsam mit der Pattern Recognition Company und der Raytrix GmbH dieser Problematik. Mit einem neuen Schnelltest soll das Ergebnis bereits nach 60 bis 90 Minuten vorliegen. Der Clou: Für die Asthma-Diagnose sind lediglich ein Tropfen Blut und die darin befindlichen Immunzellen erforderlich.

KI-gestützte Analyse von Immunzellen

Das Bewegungsprofil der Blutzellen von Asthmatikern unterscheidet sich von dem gesunder Menschen. »Bei Asthma ist die Bewegung der Immunzellen stark verlangsamt, wenn sie einen Entzündungsreiz erfahren«, erklärt Dr. Daniel Rapoport, Leiter der Arbeitsgruppe Zellprozessierung an der Fraunhofer EMB. Dieses Wissen macht sich die Forschergruppe bei der Entwicklung des Testsets zunutze. Die Idee ist es, die Immunzellen aus dem Tropfen Blut unter einem eigens entwickelten holografischen Mikroskop etwa 90 Minuten lang zu beobachten und anhand ihrer Bewegungsmuster einzuschätzen, ob eine Asthmaerkrankung vorliegt. Das Mikroskop, auch als Zellscanner bezeichnet, ermöglicht ein automatisches, dreidimensionales Tracking der Zellen in Echtzeit. Eine entscheidende Rolle kommt der Künstlichen Intelligenz (KI) zu, die in den komplexen Bewegungsmustern tausender Zellen charakteristische Muster erkennt.

Doch wie funktioniert die Technologie im Detail? Das Blut und eine Substanz, die den Entzündungsreiz auslöst, werden in eine mikrofluidische Kartusche gefüllt und anschließend in das miniaturisierte Mikroskop geschoben. Dieses umfasst eine LED und einen optischen CMOS-PhotoSensor, der mit der Computersoftware verbunden ist. Die Bildauswertung erfolgt mittels eigens entwickelter Algorithmen. »Wir können 2000 bis 3000 Zellen zeitgleich beobachten, wodurch eine hohe statistische Genauigkeit gewährleistet ist«, so Rapoport. Die ermittelten Bewegungsmuster werden anschließend an ein neuronales Netz übergeben. Selbstlernende Algorithmen analysieren die Blutzellbewegungsmuster und errechnen den diagnostischen Index. »Mit KI kann man Abweichungen der Muster erkennen. Um die Unterschiede zu erfassen, verwenden wir selbstlernende Algorithmen. Anhand vieler Trainingsdaten lernen die neuronalen Netze Muster und können die Profile von Kranken und Gesunden unterscheiden.«

Methode auf andere Krankheiten erweiterbar

Dies lässt den Rückschluss zu, dass KI in der Lage ist, auch andere Abweichungen von der Norm zu lernen. »Mit unserer Methode lassen sich auch andere Krankheiten analysieren. Dies gilt insbesondere für Autoimmun- und chronisch entzündliche Erkrankungen wie Morbus Crohn, Colitis Ulcerosa und Rheuma. Hier sind die Diagnosen langwierig und lassen sich mit einem angepassten Schnelltest deutlich beschleunigen«, sagt der Lübecker Forscher. »Erste Tests sind erfolgreich abgeschlossen. Die Bildauswertung ergab, dass unser holografisches Mikroskop einem Hochleistungsmikroskop überlegen ist.« Rapoport und seine Projektpartner optimieren derzeit die Hardware sowie das Verfahren. Fernziel ist, die individuelle Ausprägung von Asthmaerkrankungen zu erkennen, um einen personalisierten Behandlungsplan entwickeln zu können.

Externer Link: www.fraunhofer.de

Intelligente Kniebandage soll künftig bei Arthrose entlasten

Presseinformation des KIT (Karlsruher Institut für Technologie) vom 07.11.2019

Sportwissenschaftler, Mediziner, Informatiker und Industriepartner entwickeln einen mit Sensoren bestückten Prototyp, der mit selbstlernenden Algorithmen Belastungen einschätzen soll

Die intelligente Kniebandage „Anthrokinemat“ soll Arthrose-Patientinnen und -Patienten künftig bei der richtigen Dosierung ihrer alltäglichen Bewegungen unterstützen. Dabei werden sämtliche relevanten Daten zur Belastung der Gelenke gesammelt und aufs Handy der Betroffenen übertragen. Die Grundlagen für die Entwicklung der Bandage haben in den vergangenen drei Jahren Sportwissenschaftler des Karlsruher Instituts für Technologie (KIT) mit Fördermitteln des Bundesministeriums für Wirtschaft und Energie (BMWi) geschaffen. Partner sind die Universität Bremen sowie der Bandagen-Hersteller Bauerfeind und das Sensortechnikunternehmen ITP. In einem zweiten Forschungsprojekt soll nun ein Prototyp entwickelt werden.

„Bei der Prävention und der Behandlung einer Arthrose-Erkrankung spielt außer Gewicht und Ernährung vor allem das richtige Maß an Bewegung eine wichtige Rolle“, sagt Sportorthopäde Professor Stefan Sell vom Institut für Sport und Sportwissenschaft (IfSS) des KIT. Dieses richtige Maß zu finden, sei allerdings keine einfache Aufgabe und nur wenige Menschen und gut austrainierte Sportlerinnen und Sportler könnten die Signale ihres Körpers ohne fachliche Unterstützung richtig deuten. Der mit zahlreichen Sensoren ausgestattete Anthrokinemat soll Arthrose-Patientinnen und -Patienten deshalb vor dem Überschreiten der Belastungsgrenze per Warnsignal aufs Handy für mögliche Folgeschäden sensibilisieren. „Wer an Arthrose leidet, sollte sich am besten jeden Tag eine gewisse Zeit lang intensiv bewegen“, rät Sell. Eine übermäßige Belastung wie etwa eine mehrstündige Wanderung könne dagegen für Stress in den geschädigten Gelenken sorgen. Die Folge solcher Überbelastung seien oft wochenlange Schmerzen.

Maschinelles Lernen: Algorithmen trainieren mit Bewegungsdaten

Als größte Herausforderung bei der bisherigen Entwicklung der Bandage bezeichnet Professor Thorsten Stein, Leiter des BioMotion Centers am IfSS, die Suche nach einem passenden Algorithmus zum Quantifizieren der Kniebelastung. „Die Sensoren können lediglich Bewegung messen, nicht die Belastung an sich. Bei der Arthrose dürfen die Gelenke aber nicht allzu stark belastet werden – und deshalb müssen wir die Kräfte im Innern des Knies möglichst genau einschätzen können“, betont Stein. Zur Lösung dieses Problems sind Algorithmen des Maschinellen Lernens – künstliche neuronale Netze – im Einsatz. Dabei wird ein Algorithmus mit Bewegungsdaten trainiert: Der Algorithmus lernt im Laufe des Trainingsprozesses automatisch die mit einer Bewegung einhergehenden Kräfte im Knie zu schätzen. Teile dieser Forschungsergebnisse haben die Arbeitsgruppen von Sell und Stein bereits in der Fachzeitschrift Sensors publiziert.

„Die Arthrose ist eine echte Volkserkrankung“, sagt Stefan Sell. Laut den offiziellen Statistiken haben in Deutschland rund 35 Millionen Menschen radiologische Zeichen einer Arthrose und rund zehn Millionen davon sind manifest erkrankt. Weil der Gelenkverschleiß mit steigendem Alter zunimmt, leidet jeder vierte Bundesbürger über 50 Jahre und etwa 80 Prozent der über 75-Jährigen an einer Arthrose. Am häufigsten betroffen ist die Wirbelsäule, ebenfalls weit verbreitet sind Arthrosen an Knie- und Hüftgelenk. (eki)

Publikation:
Bernd J. Stetter, Steffen Ringhof, Frieder C. Krafft, Stefan Sell, Thorsten Stein: Estimation of Knee Joint Forces in Sport Movements Using Wearable Sensors and Machine Learning. Sensors, 2019. DOI: 10.3390/s19173690.

Externer Link: www.kit.edu