Hygiene auf hohem Niveau: Mobiler Reinigungsroboter für die Produktion

Presseinformation (Forschung Kompakt) der Fraunhofer-Gesellschaft vom 01.07.2020

Produktionsräume und hygienische Bereiche müssen besonders rein sein. Speziell dort, wo Lebensmittel verarbeitet und Medizininstrumente behandelt werden, ist absolute Sauberkeit unerlässlich. Ein mobiles Reinigungsgerät von Fraunhofer-Forscherinnen und Forschern säubert die Anlagen und Produktionsräume bedarfsgerecht und reproduzierbar. Ausgestattet mit einem selbstlernenden System erkennt der autonom fahrende Roboter automatisch den Verschmutzungsgrad und wählt die geeignete Reinigungsprozedur aus.

In der industriellen Fertigung von Lebensmitteln ist eine kompromisslose Hygiene Voraussetzung. Sowohl die Produktionsanlagen als auch die Räume selber müssen regelmäßig gesäubert werden, Biofilme und Beläge dürfen sich keinesfalls bilden. Das Reinigungsergebnis wirkt sich auf die Hygiene aus und beeinflusst die Lebensmittelsicherheit. Bislang wird die anspruchsvolle und qualitätsbestimmende Säuberung der Produktionseinrichtungen größtenteils manuell erledigt. Doch bei aller Sorgfalt ist die Arbeit schwer reproduzierbar, fehlerbehaftet und zeitaufwändig.

Intelligente Reinigungsrobotik für den Innen- und Außenbereich

Ein Forscherteam des Fraunhofer-Instituts für Verfahrenstechnik und Verpackung IVV in Dresden hat daher modulare Reinigungsroboter entwickelt, die zurzeit in zwei Varianten vorliegen: Ein Modell fährt auf einem Förderband durch die Produktionsanlage und reinigt diese von innen, die zweite Variante reinigt Boden, Decken und Wände der Räume sowie die Außenseiten der Produktionsmaschinen. Ein ausfahrbarer Roboterarm mit Zielstrahlreiniger erreicht dabei auch höher gelegene Anlagenbereiche. Mobile Cleaning Device 4.0 (MCD) heißt das mobile, modulare Gerät, welches selbstständig durch die Produktionshalle fährt. In einem gemeinsamen Forschungsprojekt mit dem Fraunhofer IOSB-AST in Ilmenau wird gerade an einem Multisensorik-System für raue Umgebungsbedingungen geforscht, das zukünftig am MCD zum Einsatz kommen soll. Die Besonderheit: Basierend auf der Fluoreszenzmethode scannt und berechnet die installierte Sensorik den Verschmutzungsgrad und passt die Reinigungsparameter wie beispielsweise den Druck und die Menge des Reingungsschaums entsprechend adaptiv an. »Ein Detektor erkennt die fluoreszierenden Schmutzpartikel wie Fette, Öle und Proteine mithilfe von UV-Licht und dosiert den Schaum und das Wasser entsprechend der ermittelten Parameter wie Schichtdicke und Antrocknungsgrad.

Möglich werden soll dies durch ein selbstlernendes KI-System, das die geeigneten Reinigungsparameter auswählt und die Prozessschritte vorgibt«, erläutert Max Hesse, Teamleiter am Dresdner Institutsteil Verarbeitungstechnik, den Vorgang. Bei dem Prozess werden die Daten mit Hilfe einer Simulation in einem virtuellen Zwilling abgebildet. »Die erkannte Verschmutzung wird im virtuellen Zwilling auf das 3D-Modell der Anlage gemappt. In Abhängigkeit des Abstands des Geräts zur Oberfläche kann dann beispielweise der Sprühwasserdruck angepasst und gegebenenfalls reduziert werden – ganz im Sinne der Ressourceneffizienz.«

Ausgefeilte Sensorik

Der Batteriebetriebene Roboter bewegt sich autark, er ist lediglich durch einen Schlauch, aus dem das Reinigungsmittel zugeführt wird, mit der Docking Station verbunden. Die Steuerung erfolgt per WLAN. Ausgeklügelte Sensorik ermöglicht im Zusammenspiel mit der KI die adaptive Reinigung: Ein Radarsensor misst selbst durch Sprühnebel und Dampf hindurch, ein Ultrabreitband-Sensor misst die Position im Raum und ein dritter optischer Fluoreszenzsensor übernimmt die Verschmutzungserkennung und vermittelt einen Eindruck der Geometrie des Prüfobjekts – Experten nennen das visuelle Odometrie. Basierend auf dem erkannten Verschmutzungszustand und den fusionierten Sensordaten werden Prozessparameter abgeleitet – anschließend wird bereits während des Reinigungsprozesses geprüft, ob dieser korrekt durchgeführt wurde. Das Prüfergebnis wird im nächsten Schritt an den virtuellen Zwilling mit dem selbstlernenden System weitergeleitet. Bei jedem Reinigungsvorgang optimiert sich das System quasi selbst und gewährleistet somit einen ressourceneffizienten Reinigungserfolg. »Unsere Tests haben gezeigt, dass man auf diesem Weg bis zu 50 Prozent an Reinigungsmitteln sparen kann, da nur die tatsächlich benötigte Menge an Reinigungsmittel auf die Oberflächen aufgebracht wird«, sagt Hesse. »Beispielsweise kann man das System trainieren, in einem vorgegebenen Zeitraum, z.B. in einer freien Nachschicht im 2-Schichtsystem, möglichst ressourceneffizient zu reinigen. Zusätzlich können erhebliche Effizienzpotenziale erschlossen werden, wenn die bisher für die Reinigung eingesetzten Facharbeiter bereits andere Arbeiten durchführen können, während die MCDs hochparallelisiert Reinigungsprozesse vollenden.« Ein weiterer Pluspunkt: Der komplette Säuberungsprozess wird vollautomatisiert protokolliert und ist durch den hohen Automatisierungsgrad sehr reproduzierbar.

Mobile Cleaning Device ist branchenunabhängig und flexibel einsetzbar

Der Einsatz des Mobile Cleaning Device beschränkt sich nicht auf die Lebensmittelbranche: Der smarte Roboter lässt sich ebenso im Automotive-Umfeld, in der Pharma-, Medizintechnik- und Kosmetikindustrie oder im Agrar-Sektor anwenden. In Krisenzeiten wie der Corona-Pandemie profitieren unterschiedlichste Branchen von dem autonomen Reinigungsroboter. »Gerade bei Personalknappheit kann unser automatisiertes System seine Vorteile ausspielen. In der Lebensmittelproduktion sind etwa zehn Prozent der Mitarbeiter allein für die Reinigung eingeteilt«, sagt der Ingenieur. Hierfür seien Fachkräfte erforderlich, die auch in normalen Zeiten rar sind. Beide Robotervarianten werden konsequent weiterentwickelt, wodurch die Komplexität der zu übernehmenden Reinigungsaufgaben stetig steigt.

Externer Link: www.fraunhofer.de

technologiewerte.de – MOOCblick Juli 2020

Spannende Themen, herausragende Dozenten und flexible Lernmöglichkeiten tragen zum wachsenden Erfolg der Massively Open Online Courses (MOOCs) bei – offene, internetgestützte Kurse mit einer Vielzahl an Teilnehmern rund um den Globus.

Folgender Kurs – zu finden auf der MOOC-Plattform edX – sollte einen Blick wert sein:

Drones for Agriculture: Prepare and Design Your Drone (UAV) Mission
Lammert Kooistra (Wageningen University & Research) et al.
Start: flexibel / Arbeitsaufwand: 6-15 Stunden

Externer Link: www.edx.org

Neuer Ansatz für eine biologische Programmiersprache

Presseaussendung der TU Graz vom 23.06.2020

Neue Erkenntnisse von Forschern rund um die TU Graz-Informatiker Wolfgang Maass und Robert Legenstein zu neuronaler Informationsverarbeitung im Gehirn könnten effizientere AI-Methoden ermöglichen.

Konkret ist es den Forschenden gelungen, das Entstehen und Interagieren zwischen sogenannten „Assemblies“ mathematisch zu modellieren. Dabei handelt es sich um Neuronenverbände im Gehirn, die die Grundlage für höhere kognitive Fähigkeiten bilden wie beispielsweise dem Denken, dem Vorstellungsvermögen, dem Argumentieren, Planen oder der Sprachverarbeitung.

Besseres Verständnis für die Funktionsweise des Gehirns

Der kanadische Neurowissenschaftler Donald H. Hebb hat bereits 1949 postuliert, dass sich Neuronen zu solchen Verbänden zusammenschließen, also gemeinsam aktiv sind, um einzelne Wörter oder Symbole, aber auch ganzheitliche „Konzepte“ zu kodieren. „Die Existenz von Assemblies verdichtete sich allerdings erst in den letzten Jahren und unsere Modelle bauen auf den jüngsten Ergebnissen aus der Hirnforschung auf“, erklärt Maass.

Assemblies sind fließende Gebilde, die sich ständig neu organisieren, um Umweltreize zu verarbeiten, diesen eine symbolische Bedeutung geben, sie strukturieren und in Wissen umwandeln. Diese Anpassungsfähigkeit – auch Plastizität genannt – liefert dem Gehirn die Möglichkeit, über die begrenzte Verarbeitungskapazität hinwegzukommen und eine „unbegrenzte“ Anzahl von Mustern zu bilden.

Die Ergebnisse tragen nicht nur zu einem besseren Verständnis des Gehirns bei – sie könnten auch zu neuen effizienten AI-Methoden führen, da sie die Vorteile der zwei Hauptansätze in der AI-Forschung miteinander verbinden – der symbolistische und der konnektionistische.

Symbolistische vs. Konnektionistische Informationsverarbeitung

Algorithmen in Symbolsystemen basieren auf definierten Regeln (Wenn-/Dann-Befehle) und logischen Formeln, und überzeugen durch ihre Abstraktionsfähigkeit – also einerseits die Fähigkeit zur Verallgemeinerung sowie andererseits die Fähigkeit, allgemeine Zusammenhänge auf konkrete Sachverhalte anzuwenden. Sie sind daher prädestiniert für eine leichte Anwendung auf ganz neue Situationen. Symbol-basierte Systeme müssen aber aufwendig programmiert werden und lassen sich nicht mittels großer Datenmengen für anspruchsvolle Anwendungen trainieren, wie das bei neuronalen Netzwerken möglich ist. Diese bestehen aus kleinen miteinander vernetzten und lernfähigen Recheneinheiten, die sich selbst organisieren und im Verbund komplexe Probleme schnell lösen können. Die Lernfähigkeit neuronaler Netzwerke hat den konnektionistischen Ansatz für die aktuelle AI-Forschung und für moderne AI-Anwendungen attraktiver gemacht. Allerdings haben neuronale Netzwerke Schwierigkeiten bei jenen Aufgaben, die in den Trainingsmengen nicht vorkommen.

„Menschliche“ Gehirnarchitektur für Maschinen

Die vorgestellten Assembly-Modelle zielen nun darauf ab, die Abstraktionsfähigkeit mit der Lernfähigkeit zu kombinieren. „Es handelt sich dabei um neuronale Netzwerke, die mit ihren Assemblies symbolartig arbeiten. Als Paradigma dient uns das menschliche Gehirn, das auch beides miteinander kombiniert“, so Legenstein.

Die Arbeiten, an denen auch Forschende der University of Nottingham, der University of California, Berkeley und dem Georgia Institute of Technology beteiligt sind, fließen teilweise ins Human Brain Project ein (HBP) – dieser europaweite interdisziplinäre Forschungsverbund arbeitet seit 2015 daran, das menschliche Gehirn elektronisch nachzubauen und seine Funktionen zu simulieren. Wolfgang Maass und sein Team sind darin für das Arbeitspaket „Principles of Brain Computation“ verantwortlich. (Christoph Pelzl)

Externer Link: www.tugraz.at

KI unterstützt Fachkräfte bei der Montage

Presseinformation des KIT (Karlsruher Institut für Technologie) vom 08.06.2020

Kimoknow, eine Ausgründung des KIT, entwickelt digitalen Montageassistenten – Basis ist die automatisierte KI-gestützte Objekterkennung

Künstliche Intelligenz (KI) macht es möglich, dass auch Maschinen Objekte erkennen können. Hierfür braucht es große Mengen an qualitativ hochwertigen Bilddaten, mit denen die Algorithmen manuell trainiert werden. Das am Karlsruher Institut für Technologie (KIT) entstandene Start-up Kimoknow hat eine Technologie entwickelt, um dieses Training zu automatisieren. Der erste Use Case: Ein digitaler Montageassistent für die kontaktlose Zusammenarbeit von Menschen und Maschinen. Er wird in Kooperation mit der Elabo GmbH am Center for Artificial Intelligence Talents (CAIT) erprobt.

„KI-Systeme für die Erkennung von Objekten zu trainieren, ist nach wie vor zeitaufwändig, unflexibel, teuer, stark umgebungsabhängig und erfordert einen hohen Rechenaufwand“, erklärt Kimoknow-Mitgründer Lukas Kriete. Das Start-up des KIT greift deswegen auf Bilddaten zurück, die bei computerunterstützten Entwicklungsprozessen (CAD) und im Produktionsdatenmanagement (PDM) ohnehin für alle Objekte entstehen. Sie geben unter anderem Aufschluss über Material, Geometrie und Position des jeweiligen Gegenstandes. Die CAD- und PDM-Daten werden extrahiert und für das automatisierte Training der KI genutzt.

Das auf diese Weise geschulte Objekterkennungssystem kann vielfältig eingesetzt werden, unter anderem in Augmented Reality (AR)-Brillen. Sie erfassen relevante Gegenstände im Sichtfeld des Nutzers in Echtzeit und verfügen zudem über notwendige Kontextinformationen zum betreffenden Objekt. Als ersten Use Case für solche AR-Brillen hat Kimoknow ein Assistenzsystem entwickelt, das Fachkräfte bei der Montage komplexer Geräte unterstützen soll. Der virtuelle Assistent führt Nutzerinnen und Nutzer durch den gesamten Montageprozess, visualisiert ohne zusätzliches Display Schritt für Schritt die Bauanleitung und zeigt so in welcher Reihenfolge welches Teil mit welchen Werkzeugen und Montagematerialien verarbeitet wird. Er wiederholt einzelne Schritte, wenn Fehler auftauchen, und dokumentiert den Prozess. Der Monteur hat beide Hände frei und kommuniziert über Blickkontakt, Handzeichen oder Sprachbefehl mit dem System. „Der Montageassistent macht den Prozess bei besserer Qualität effizienter, produktiver, schneller und kostengünstiger“, sagt Kriete.

Der Assistent eignet sich für alle Industrien, in denen hochkomplexe Produkte in geringer Stückzahl hergestellt werden. Der Prototyp wird für die Endmontage hoch spezialisierter Messgeräte eingesetzt und derzeit in Kooperation mit der Elabo GmbH am Center for Artificial Intelligence Talents (CAIT) am Institut für Informationsmanagement im Ingenieurwesen (IMI) des KIT erprobt.

Kimoknow ist eine Ausgründung des IMI und ging am 13. Mai 2020 als Unternehmergesellschaft (haftungsbeschränkt) an den Start. Neben Lukas Kriete gehören Roman Wiegand, Aaron Boll, Michael Grethler und Vesa Klumpp zum Gründungsteam.

Center for Artificial Intelligence Talents (CAIT)

Das Center for Artificial Intelligence Talents (CAIT) fördert gezielt Forschungstalente, die Methoden der Künstlichen Intelligenz und des Ingenieurwesens miteinander verknüpfen. Neben Infrastruktur, Ressourcen und Trainingsformaten bietet es ihnen vor allem die Möglichkeit, neue Entwicklungen und Ideen unter realen Arbeitsbedingungen und in Zusammenarbeit mit potenziellen Anwendern zu erproben, weiterzuentwickeln und schnell in die Praxis zu bringen. Im Fokus des Konzeptes stehen der Mensch und seine Interaktion mit der Künstlichen Intelligenz. „Nicht die neuen Technologien verändern die Welt, sondern die Menschen, die diese Technologien nutzen“, betont CAIT-Leiterin Professorin Jivka Ovtcharova. Forschende und Start-ups bekommen die Chance, neue KI-Technologien nah am Markt zu entwickeln. Unternehmen profitieren vom Know-how dieser Talente und von aktuellen Forschungsergebnissen. „Dies ist eine Win-Win-Situation und das optimale Modell für die Kooperation zwischen Wissenschaft und Wirtschaft“, erklärt Ovtcharova.

Das CAIT wurde unter der Leitung von Jivka Ovtcharova im Juni 2019 am IMI eröffnet und setzt das Konzept des bis dahin betriebenen Lifecycle Engineering Solutions Center (LESC) mit dem Fokus KI fort. Neben der Elabo GmbH sind unter anderem die abas Software AG und die SolidLine AG Partner des CAIT. (sur)

Externer Link: www.kit.edu