Fehler in Stromnetzen mit Künstlicher Intelligenz automatisiert erkennen

Presseinformation (Forschung Kompakt) der Fraunhofer-Gesellschaft vom 01.04.2019

Die Stromnetze verändern sich: Gab es in der Vergangenheit vor allem große, zentrale Stromerzeuger, kommen nun zunehmend kleine, dezentrale Erzeuger dazu. Um solche komplexen Netze stabil zu halten, ist hochauflösende Sensorik gefragt. Mit Künstlicher Intelligenz lassen sich genaue Prognosen anfertigen sowie Fehler und Anomalien automatisiert in Echtzeit erkennen. Fraunhofer-Forscher haben die erforderlichen Komprimierungsverfahren, Algorithmen und neuronalen Netze entwickelt, um die Stromübertragung fit für die Zukunft zu machen.

Die Stromversorgung wandelt sich: Statt den Strom ausschließlich über große Kraftwerke zu generieren, kommen zahlreiche dezentrale Stromquellen wie Windräder, Photovoltaikzellen und Co. hinzu. Dieser Umschwung wirkt sich auch auf die Stromnetze aus – vor allem die Betreiber von Übertragungsnetzen sehen sich großen Herausforderungen gegenüber. Laufen relevante Netzparameter wie Phase oder Winkel aus dem Ruder? Gibt es Abweichungen vom regulären Netzbetrieb, also Anomalien? Oder sind Leitungen oder Kraftwerke ausgefallen? Um solche Fragen beantworten zu können, reicht die übliche Messtechnik nicht mehr in jeder Situation aus. Sie wird daher zunehmend um Phasormessungen, kurz PMU, sowie um Digitalisierungstechnologien ergänzt: Die entsprechenden Messsysteme erfassen die Amplitude von Strom und Spannung bis zu 50-mal pro Sekunde. Aus den Daten lassen sich verschiedene relevante Parameter wie Frequenz, Spannung oder Phasenwinkel ermitteln. Die Datenmenge, die dabei entsteht, ist enorm – pro Tag kommen schnell mehrere Gigabyte an Daten zusammen.

Datenkompression: 80 Prozent der Daten einsparen

Forscher des Institutsteils Angewandte Systemtechnik AST des Fraunhofer-Instituts für Optronik, Systemtechnik und Bildauswertung IOSB in Ilmenau wollen die Datenauswertung nun durch Künstliche Intelligenz optimieren, die Netzsicherheit erhöhen und die Stromübertragung somit fit machen für die Zukunft. »Wir können bis zu 4,3 Millionen Datensätze pro Tag automatisiert erfassen, komprimieren und über Verfahren der Künstlichen Intelligenz auswerten«, fasst Prof. Peter Bretschneider, Leiter der Abteilung Energie am Fraunhofer IOSB-AST, zusammen. In einem ersten Schritt haben die Forscherinnen und Forscher Komprimierungsverfahren entwickelt, mit denen sich 80 Prozent der Daten einsparen lassen. Somit lassen sich die Daten nicht nur leichter speichern, sondern auch schneller und effizienter auswerten.

Datenauswertung: Automatisch und in Echtzeit

In einem zweiten Schritt lernten die Wissenschaftler mit den erhobenen Phasormessdaten neuronale Netze – also die Basis der Künstlichen Intelligenz – an. Sprich: Sie »fütterten« die neuronalen Netze mit Beispielen typischer Betriebsstörungen. Die Algorithmen lernen auf diese Weise Schritt für Schritt, normale Betriebsdaten von bestimmten Betriebsstörungen zu unterscheiden sowie exakt zu kategorisieren. Nach dieser Trainingsphase wendeten die Wissenschaftler die neuronalen Netze bei den aktuellen Daten aus den Phasormessungen an. Bisher konnten diese nur manuell und im Nachhinein ausgewertet werden. Der Algorithmus schafft hier erstmalig den Sprung in die Echtzeit: Er entscheidet automatisch innerhalb von Millisekunden, ob eine Anomalie oder ein Fehler vorliegt und gibt zusätzliche Auskunft über Ort und Art der Betriebsstörung. Ein Beispiel: Fällt etwa ein Kraftwerk aus, so steigt die Last für die anderen Kraftwerke abrupt an. Die Generatoren werden durch die große Last langsamer, die Frequenz des Wechselstroms sinkt. Nun sind schnelle Gegenmaßnahmen gefragt: Sinkt die Frequenz unter einen vorgegebenen Grenzwert, so müssen gegebenenfalls Netzabschnitte aus Gründen der Systemstabilität abgeschaltet werden. Schnell, das heißt mitunter: Unter 500 Millisekunden. Da der Algorithmus seine Entscheidung innerhalb von 20 bis 50 Millisekunden trifft, bleibt genügend Zeit, um vollautomatische Gegenmaßnahmen einzuleiten.

Der Algorithmus ist einsatzbereit, an der Steuerung und Regelung der Gegenmaßnahmen arbeiten die Forscher zurzeit. Die Entwicklung ist nicht nur für Betreiber großer, sogenannter Übertragungsnetze interessant, sondern auch für die der regionalen Verteilnetze. »Um eine Analogie zum Verkehr zu ziehen: Was nützt es, wenn die Autobahnen frei sind, doch die regionalen Straßen permanent verstopft?«, erläutert Bretschneider.

Vorhersage noch unbekannter Probleme

Die Forscher widmen sich jedoch nicht nur bereits bekannten Problemen, sondern wollen auch Anomalien berücksichtigen, die bisher noch gar nicht auftreten. »Gehen wir den Weg der erneuerbaren Energien weiter, kann dies künftig zu Phänomenen führen, die wir derzeit noch nicht kennen«, sagt Bretschneider. Auch hier setzen die Wissenschaftler auf die Künstliche Intelligenz. Genauer gesagt: Sie arbeiten daran, solche Phänomene zu kategorisieren und die erforderlichen Algorithmen zu entwickeln – und zwar anhand digitaler Netzabbildungen.

Externer Link: www.fraunhofer.de

Gesichtserkennung für Münzen

Presseinformation (Forschung Kompakt) der Fraunhofer-Gesellschaft vom 01.02.2019

In deutschen Landesmuseen lagern unzählige historische Münzen, die sich nur im Detail voneinander unterscheiden. Anders als Gemälde lassen sich diese archäologischen Fundstücke nicht beschriften oder durch Barcodes kennzeichnen. Forscherinnen und Forscher des Fraunhofer-Instituts für Fabrikbetrieb und -automatisierung IFF haben in Kooperation mit dem Landesamt für Denkmalpflege und Archäologie Sachsen-Anhalt einen Scanner und eine Auswertesoftware entwickelt, die die optischen Merkmale von Münzen in Sekundenschnelle digital erfassen und eindeutig beschreiben. Mithilfe des Messsystems können Münzfunde identifiziert und wiedererkannt werden.

Fälschung oder Original? Selbst Experten mit geschultem Auge tun sich schwer, diese Frage in Bezug auf historische Münzen zu beantworten. Wie können Fälschungen von Münzen erkannt werden, wenn sie beispielsweise von einer Verleihung an eine externe Ausstellung ins Museum zurückkommen? Wie lassen sich Vertauschungen und Verwechslungen beim Verleih der Exponate zwischen Museen vermeiden? Antworten auf diese Fragen suchten auch die Mitarbeiter des Landesamts für Denkmalpflege und Archäologie Sachsen-Anhalt. Rund 20 000 Münzen – oftmals mehrere Jahrhunderte alt – lagern in den Archiven und Tresoren des Amts, der Bestand wächst ständig. Die eindeutige Erfassung und Dokumentation der historischen Münzen, die in einer unüberschaubaren Form- und Variantenvielfalt vorliegen, ist mühsam und wird bislang manuell vorgenommen. Anders als Gemälde können die Münzen nicht beklebt und beschriftet oder mit einem Barcode versehen werden. Auf der Suche nach einer Lösung des Problems und im Rahmen einer Digitalisierungsoffensive des Landes Sachsen-Anhalt, die die Digitalisierung von Kulturgütern, archäologischen Funden und historischen Münzen umfasst, wandte sich das Landesamt an das Fraunhofer IFF in Magdeburg.

Digitaler Fingerabdruck für archäologische Funde

»Ziel des Landesamts war es, den kompletten Münzbestand zu digitalisieren. Dabei entstand die Idee, einen digitalen Fingerabdruck zu erstellen, mit dem man die einzelnen Münzen wiedererkennen und klassifizieren kann – ähnlich der Gesichtserkennung beim Menschen. Der Fingerabdruck ersetzt quasi den Barcode«, beschreibt Dr. Christian Teutsch, Wissenschaftler am Fraunhofer IFF, den ersten Kontakt mit dem Landesamt für Denkmalpflege. Um dies zu realisieren und eine eindeutige Signatur der Münzen zu ermöglichen, konzipierten die Projektpartner in enger Zusammenarbeit im Projekt »Digitaler Fingerabdruck für archäologische Funde – Prototyp für die Individualisierung und Wiedererkennung von Fundstücken« ein optisches Datenerfassungssystem und Softwareanalyseverfahren, das die alten Münzen digital erfasst und eindeutig beschreibt. Das Messsystem sollte eine Wiedererkennungsrate von über 98 Prozent erzielen, berührungslos arbeiten und die beidseitige Datenerfassung gewährleisten. Geprüft werden sollen Gold-, Silber-, Bronze- und Kupfermünzen mit einem Durchmesser von fünf bis 75 Millimeter.

Fälschungen aufspüren

Der neuartige Scanner O.S.C.A.R. – kurz für Optical System for Coin Analysis and Recognition – erfasst nicht nur die optischen Merkmale der Münzen, sondern auch feinste Gebrauchsspuren wie Kratzer, Abbrüche, Konturen, Ecken, Vertiefungen und Dellen, die ein Objekt einzigartig machen. Dies ist unabdingbar, um viele Münzen des gleichen Typs identifizieren zu können. »Es ist naheliegend, dass man Veränderungen feststellen kann, wenn man eine Münze zweimal scannt. Hat man Münzen verliehen, kann man somit bei der Zurücknahme prüfen, ob beispielsweise Kratzer hinzugekommen sind, ob das Fundstück beschädigt wurde oder ob es sich gar um ein Plagiat handelt«, sagt der Ingenieur, Mitarbeiter der Abteilung »Mess- und Prüftechnik«.

Variable Lichtquellenverschiebung auf den digitalisierten Münzen

Der Scanner umfasst mehrere Kameras sowie mehrere Lichtquellen, die die Münzen aus unterschiedlichen Richtungen beleuchten und hochgenaue Auflösungen und Vergrößerungen erlauben. So können Teutsch und sein Team alle Merkmale hervorheben und erfassen, ohne dass Spiegelungen und Reflektionen auftreten. »Die Lichtquellen lassen sich am Bildschirm virtuell drehen und beliebig über die Münzoberflächen ziehen. Das ist ein großer Vorteil für Numismatiker, die nun nur sehr schlecht zu erkennende Ober- und Unterseiten schneller und exakter identifizieren können«, betont Teutsch.

Der Digitalisierungsvorgang selbst ist einfach: Die Münzen werden einzeln unter den Scanner gelegt, nachdem zuvor ein Barcode gescannt wurde, der sich auf der zugehörigen Tüte befindet. Ein Knopfdruck genügt, um das Gerät zu starten. Mithilfe eines eigens entwickelten optischen Analyseverfahrens werden die Farb- und Oberflächeneigenschaften der historischen Fundstücke rekonstruiert. Der Scanner erfasst mehr als 1000 optische Merkmale pro Münze. Die aufgenommenen Bilder werden als Messdaten interpretiert. Referenzmuster und Farbtafeln sorgen dafür, dass alle Bilder normiert und der Farbraum vergleichbar ist. Somit ist gesichert, dass sich die Bilddaten zwischen verschiedenen Institutionen vergleichen lassen. Im nächsten Schritt werden sämtliche Messdaten an die Auswertesoftware übertragen, die die Daten nutzt, um den digitalen Fingerabdruck zu berechnen. »Die Software nimmt den Münzvergleich mit der Datenbank vor, sprich sie sucht nach der Signatur. Bisher gab es die Möglichkeit der Identifizierung nicht. Fiel eine Tüte zu Boden und die Münze aus der Tüte, so waren das Wissen um den Fundort und andere Informationen verloren«, so Teutsch. Jetzt sind die Landesämter und -museen der Bundesländer zusätzlich in der Lage, die Münzfunde der Öffentlichkeit zugänglich machen. Darüber hinaus ist die Vergleichbarkeit der Münzdatenbanken aller Bundesländer gegeben. Auch die Zusammenarbeit mit der KENOM-Datenbank, einer länderübergreifenden Datenbank für Münzen, wird auf eine neue Ebene gehoben. Anhand der digitalen Daten können Numismatiker die Beziehungen zwischen verschiedenen Münzen oder Fundorten und damit historische Nutzungszusammenhänge herstellen.

Bereits 10 000 Münzen digitalisiert

Das neue Messsystem ermöglicht die automatische Digitalisierung und Dokumentation des Münzbestands, die bislang mühselige Arbeit wird enorm beschleunigt. Die Projektpartner haben bereits 10 000 Münzen eingescannt, bald soll der komplette Bestand von 20 000 Exemplaren digitalisiert sein.

Münzforscher zeigten sich nach einer ersten Präsentation des Prototyps begeistert. »Das neue Messsystem wird die Münzforschung in Europa revolutionieren«, resümiert Teutsch. Der Clou: Mit der Anwendung lassen sich potenziell auch Gemälde analysieren, da das System auch Pinselstriche erfasst. Farben kann man fälschen, die exakte Pinselführung jedoch nicht. »Wir erkennen mit unserer Lösung garantiert jeden Van Gogh. Ein Plagiat ließe sich aufgrund der Unterschiede in den Details der Farbaufträge und Erhebungen durch die Pinselhaare sofort identifizieren.«

Externer Link: www.fraunhofer.de

Food-Scanner für die Hosentasche

Presseinformation (Forschung Kompakt) der Fraunhofer-Gesellschaft vom 03.01.2019

Laut einer Studie der Umweltstiftung WWF Deutschland landen jährlich zehn Millionen Tonnen Lebensmittel in Deutschland im Müll, obwohl sie noch verzehrbar sind. Mit einem mobilen Food-Scanner sollen Verbraucher und Supermarktbetreiber in Zukunft prüfen können, ob Nahrungsmittel verdorben sind. Das Gerät im Hosentaschenformat ermittelt per Infrarotmessung den Reifegrad und die Haltbarkeit von Gemüse, Obst und Co. und zeigt das Ergebnis mithilfe einer App an. Fraunhofer-Forscherinnen und -Forscher haben das System, das als Demonstrator vorliegt, gemeinsam mit Partnern im Auftrag des Bayerischen Staatsministeriums für Ernährung, Landwirtschaft und Forsten entwickelt.

Kann man den Joghurt noch essen? Ist das Gemüse noch genießbar? Im Zweifelsfall landen Lebensmittel nicht auf dem Teller, sondern in der Tonne. Viele Produkte werden weggeworfen, weil sie nicht mehr appetitlich aussehen, kleine Schönheitsfehler aufweisen oder das Mindesthaltbarkeitsdatum abgelaufen ist. Allein in Bayern wandern 1,3 Millionen Tonnen Nahrungsmittel jährlich unnötigerweise in den Abfall. Mit dem Bündnis »Wir retten Lebensmittel« will das Bayerische Staatsministeriums für Ernährung, Landwirtschaft und Forsten mit insgesamt 17 Maßnahmen der Verschwendung entgegenwirken. Eines der Projekte: Ein Food-Scanner soll dazu beitragen, die Verluste am Ende der Wertschöpfungskette zu reduzieren – im Handel und beim Verbraucher. Das preisgünstige Gerät im Hosentaschenformat soll künftig den tatsächlichen Frischegrad von Lebensmitteln feststellen – sowohl bei abgepackten als auch bei nicht abgepackten Waren. Forscherinnen und Forscher des Fraunhofer-Instituts für Optronik, Systemtechnik und Bildauswertung IOSB, des Fraunhofer-Instituts für Verfahrenstechnik und Verpackung IVV, der Technischen Hochschule Deggendorf und der Hochschule Weihenstephan-Triesdorf entwickeln den kompakten Food-Scanner, der als Demonstrator mit Daten für zwei Lebensmittel vorliegt und auch eine Haltbarkeitsabschätzung ermöglicht.

Echtheit von Lebensmitteln per Infrarotlicht feststellen

Herzstück des mobilen Scanners ist ein Nahinfrarot (NIR)-Sensor, der den Reifegrad des Nahrungsmittels bestimmt und ermittelt, wie viele und welche Inhaltsstoffe es enthält. »Infrarotlicht wird punktgenau auf das zu untersuchende Produkt geschickt, anschließend misst man das Spektrum des reflektierten Lichts. Die absorbierten Wellenlängen lassen Rückschlüsse auf die chemische Zusammensetzung der Ware zu«, erläutert Dr. Robin Gruna, Projektleiter und Wissenschaftler am Fraunhofer IOSB, die Funktionsweise des Verfahrens. »Im Labor kann man schon lange per Nahinfrarotspektroskopie Inhaltsstoffe quantifizieren. Neu ist, dass dies jetzt mit kleinen Low-Cost-Sensoren möglich ist«, sagt Julius Krause, Kollege im Team von Gruna. »Lebensmittel werden oftmals gefälscht, beispielsweise werden Lachsforellen als Lachs verkauft. Auch die Echtheit eines Produkts kann man mit unserem Gerät feststellen, nachdem es entsprechend eingelernt wurde. Gepanschtes Olivenöl lässt sich ebenfalls als solches identifizieren«, so der Physiker. Doch dem System sind auch Grenzen gesetzt: Es bewertet ausschließlich die Produktqualität von homogenen Nahrungsmitteln. Heterogene Produkte mit verschiedenen Zutaten wie beispielsweise Pizza lassen sich aktuell nur schwer prüfen. Hierfür erforschen die Wissenschaftler ortsauflösende Technologien wie bildgebende Spektroskopie (Hyperspectral Imaging) und Fusionsansätze mit Farbbildern und Spektralsensoren.

Um die Qualität der Lebensmittel basierend auf den Sensordaten und den gemessenen Infrarotspektren bestimmen und Prognosen für die Haltbarkeit errechnen zu können, entwickeln die Forscherteams intelligente Algorithmen, die nach entsprechenden Mustern und Gesetzmäßigkeiten in den Daten suchen. »Durch Maschinelles Lernen können wir das Erkennungspotenzial steigern. In unseren Tests haben wir Tomaten und Hackfleisch untersucht«, sagt Gruna. So wurden etwa die gemessenen NIR-Spektren von Hackfleisch mithilfe statistischer Verfahren mit dem mikrobiellen Verderb korreliert und wurde die weitere Haltbarkeit des Fleisches davon abgeleitet. Umfangreiche Lagertests, bei denen die Forscherteams die mikrobiologische Qualität sowie weitere chemische Parameter unter verschiedenen Lagerbedingungen erfassten, zeigten eine gute Übereinstimmung der ermittelten und der tatsächlichen Gesamtkeimzahl.

App zeigt Haltbarkeit der Lebensmittel an

Der Scanner sendet die gemessenen Daten zur Analyse per Bluetooth an eine Datenbank – eine eigens entwickelte Cloud-Lösung –, in der die Auswerteverfahren hinterlegt sind. Die Messergebnisse werden anschließend an eine App übertragen, die dem Verbraucher die Ergebnisse anzeigt und darstellt, wie lange das Lebensmittel bei den jeweiligen Lagerbedingungen noch haltbar ist oder ob es bereits überlagert wurde. Darüber hinaus erfährt der Verbraucher, wie er Lebensmittel alternativ verwenden kann, wenn deren Lagerdauer abgelaufen ist. Für Anfang 2019 ist die Testphase in Supermärkten geplant: Dann soll untersucht werden, wie der Verbraucher das Gerät annimmt. Insgesamt ist ein breiter Einsatz entlang der Wertschöpfungskette denkbar, vom Rohstoff bis zum Endprodukt. Eine frühzeitige Erkennung von Qualitätsveränderungen ermöglicht alternative Verwertungswege und trägt zur Reduzierung der Verluste bei.

Doch der Scanner ist mehr als nur ein Instrument für den Lebensmittel-Check. Vielmehr handelt es sich um eine universell einsetzbare, kostengünstige Technologie, die schnell anpassbar ist. Beispielsweise könnte man das System nutzen, um damit Kunststoffe, Holz, Textilien oder Mineralien voneinander zu unterscheiden und zu klassifizieren. »Der Einsatzbereich des Geräts ist vielseitig, es muss nur entsprechend trainiert werden«, sagt Gruna.

Externer Link: www.fraunhofer.de

Neuartige Farbsensoren kostengünstig herstellen

Presseinformation (Forschung Kompakt) der Fraunhofer-Gesellschaft vom 03.12.2018

Im Projekt FOWINA ist es dem Fraunhofer-Institut für Integrierte Schaltungen IIS in Erlangen und dem Fraunhofer-Institut für Silicatforschung ISC in Würzburg gelungen, neuartige Farbsensoren mit speziellen Linsenanordnungen zu entwickeln. Die Sensoren lassen sich direkt auf Chipebene realisieren und vereinen viele Funktionen auf kleinstem Raum. Durch ihre sehr geringe Bauhöhe bieten sie ein breites Einsatzspektrum und können beispielweise in mobilen Geräten sowie zur Farbregelung von LED-Leuchten eingesetzt werden.

Damit Displays, LEDs und vergleichbare Technologien Farben richtig anzeigen, werden Farbsensoren eingesetzt. Dafür können spezielle, nanoplasmonische Strukturen genutzt werden. Sie filtern das einfallende Licht so, dass nur sehr definierte Teile des Farbspektrums auf die Detektorfläche gelangen. Entscheidend für eine funktionierende Farbfilterung ist hierbei der Einfallswinkel des Lichts. Um unerwünschte Winkel und damit Farbfehler zu vermeiden, werden in herkömmlichen Sensoren makroskopische Elemente zur Verbesserung der Filtergenauigkeit eingesetzt, die jedoch den gesamten Aufbau deutlich vergrößern.

Ultraflache Sensoren für Kameras und Handys

Deswegen arbeiten die beiden Fraunhofer-Institute IIS und ISC im Projekt FOWINA an einer All-in-one-Lösung, die viele Funktionen auf kleinstem Raum vereint: Auf dem Farbsensorchip werden Farbfilterstrukturen, Winkelfilter zur Steuerung des Lichteinfalls, Auswertelektronik zur Signalverarbeitung und Photodioden zur Umwandlung des Lichts in Strom integriert. Durch ihren sehr kompakten Aufbau sind die neuartigen Farbsensoren ultraflach, sodass sie in vielen Produkten wie Kameras oder Handys eingesetzt werden können. Das Projekt »FOWINA – Formung des Winkelspektrums von Nanostruktur-Farbsensoren mit mikrooptischen Strahlführungselementen« wird im Programm »Mittelstandorientierte Eigenforschung« der Fraunhofer-Gesellschaft e.V. gefördert.

Neben dem hohen Integrationsgrad, der möglichst viele Funktionen auf einer kleinen Fläche vereint, ist auch die Herstellung vereinfacht worden und damit kostengünstiger als bisherige Verfahren. Das Fraunhofer IIS entwickelt den Sensor-Chip einschließlich der nanoplasmonischen Farbfilter. Diese können kostengünstig im CMOS (Complementary Metal Oxide Semiconductor)-Prozess zusammen mit Photodioden und der Auswerteelektronik mit nur einer einzigen Technologie hergestellt werden.

Das Fraunhofer ISC fertigt Arrays von Mikrostrukturen, die als Winkelfilterelemente für die Sensoren wirken. »Wir nutzen die moderne Zwei-Photonen-Polymerisation, mit der sich beliebig geformte Mikrostrukturen und strukturierte Oberflächen herstellen lassen«, erläutert Dr. Sönke Steenhusen, Wissenschaftler am Fraunhofer ISC. Um den Fertigungsprozess zu beschleunigen, wendet das Fraunhofer ISC die Nanoimprint-Technik – ein hochpräzises und produktionsbewährtes Abformverfahren – zur Replikation der Strukturen an. Diese Technik erlaubt auch die Kombination verschiedener Strukturen in nur einem Substrat.

Einfallswinkel des Lichts eingrenzen

Dem Fraunhofer ISC ist es im Projekt FOWINA gelungen, mithilfe von mikrooptischen Strukturen den Einfallswinkel des Lichts auf einen Bereich von +/-10 Grad einzugrenzen, sodass eine bestmögliche Farbfilterung erfolgt. Damit lässt sich zum Beispiel die Farbe von LEDs aktiv nachregeln. Zudem bieten die Mikrolinsen eine sehr hohe Oberflächengenauigkeit, sodass das Licht gezielt auf die Farbfilter trifft. Als Material für die Arrays nutzt das Fraunhofer ISC ein spezielles anorganisch-organisches Hybridpolymer, das sich durch sehr hohe chemische, thermische und mechanische Stabilität auszeichnet und sich durch Modifikation der molekularen Struktur einfach an spezifische Anforderungen anpassen lässt.

Die beiden Fraunhofer-Partner optimieren aktuell die Entwicklung und die Herstellung der Farbsensoren, um eine Skalierung der Herstellung auf einen industriellen Maßstab bzw. eine spätere Massenfertigung zu ermöglichen.

Externer Link: www.fraunhofer.de

Polyurethan-Schäume zuverlässig simulieren

Presseinformation (Forschung Kompakt) vom 02.11.2018

Autositze, Matratzen und Dämmstoffe bestehen oftmals aus Polyurethan-Schäumen. Der Aufschäumprozess der flüssigen Polymer-Emulsionen ist komplex. Fraunhofer-Forscherinnen und Forscher können das Aufschäumverhalten nun simulieren und das Material verlässlich charakterisieren. Dies funktioniert auch mit Verbundwerkstoffen, bei denen die Kunststoff-Schäume mit Textilstrukturen kombiniert werden.

Polyurethan-Schäume oder kurz PU-Schäume spielen eine große Rolle in unserem Alltag – auch wenn wir uns dessen nicht bewusst sind. Doch wir sitzen und liegen täglich darauf: So bestehen Autositze und Matratzen beispielsweise aus weichen PU-Schäumen. Harte PU-Schäume setzt man dagegen unter anderem für Dämmstoffe in Gebäuden ein. Die Eigenschaften von Schäumen vorherzusagen und sie zu charakterisieren ist sehr komplex – experimentelle Untersuchungen führen vielfach zu falschen Parametern.

Neue Produktlinien besser planen

Interessant ist vor allem die Frage: Wie setzt sich die anfängliche Flüssigkeit in Schaum um? Und wie ist es um die Eigenschaften des entstehenden Schaumes bestellt? Forscherinnen und Forscher vom Fraunhofer-Institut für Techno- und Wirtschaftsmathematik ITWM in Kaiserslautern können diese Fragen nun zuverlässig beantworten und Herstellern von PU-Schaum-Produkten eine gute Charakterisierung der verwendeten Polymere an die Hand geben – was die Planung neuer Produktlinien deutlich erleichtert.

Am besten lässt sich dies an einem Beispiel erläutern, etwa einem Autositz. In diesem sollen einige Zonen fester sein, andere wiederum weicher. Um dies zu erreichen, spritzen die Hersteller verschiedene Schäume mit unterschiedlichen Eigenschaften gegeneinander. Als Ausgangssubstanzen dienen ihnen dabei flüssige Polymergemische, die in eine entsprechende Form eingespritzt werden. Nun beginnt ein schneller, jedoch komplizierter chemischer Prozess: Innerhalb weniger Sekunden verwandeln sich die beiden flüssigen Emulsionen in einen komplexen Polymerschaum. Doch wie schäumen die beiden verschiedenen Substanzen genau aus? Haben sie die gewünschten Eigenschaften, und verteilen sie sich wie vorgesehen in die Zonen? »Statt wie bisher bei der Chemie anzusetzen und alle Parameter wie Reaktionsraten und Viskosität experimentell in vielen unabhängigen Experimenten zu bestimmen, machen wir zwei, drei einfache Experimente – etwa das Aufschäumen im Becherglas«, erläutert Dr. Konrad Steiner, Abteilungsleiter am Fraunhofer ITWM. »Diese Experimente simulieren wir eins zu eins im Rechner. Diese bilden die Basis zur Ermittlung der notwendigen Modellparameter, die zum Berechnen des Aufschäumverhaltens nötig sind. Die darauf basierenden Simulationen mit dem Simulationstool FOAM sind robust und die Ergebnisse für den Anwendungsfall verlässlich.« Ergo: Statt wie bisher jeden charakterisierenden Para-meter einzeln in einem Experiment bestimmen zu müssen – und dann Werte zu erhalten, die ungenau sein können – erhalten die Forschenden in kurzer Zeit und mit wenig Aufwand verlässliche Daten für den Aufschäumprozess.

»Die Hersteller nutzen üblicherweise drei oder vier unterschiedliche Schäume – bei neuen Produkten ändern sich meist nur die Kombination der Schäume und die End-Geometrien«, sagt Steiner. Haben die Fraunhofer-Forscher einen PU-Schaum über ihre Simulation einmal charakterisiert, ist eine gute Basis für neue Produkte gelegt: Die Hersteller können die erhaltenen Schaumdaten in das Simulationstool FOAM eingeben und auf diese Weise für jedes neue Produkt und jede neue Geometrie simulieren, wie die Massen und die Wärme beim Aufschäumen transportiert werden. Sie können also beispielsweise genau herausfinden, wie sie die beiden Schäume gegeneinander spritzen müssen, um die verschiedenen Zonen im Sitz an den gewünschten Stellen zu erhalten. Die Simulationsmethodik zur Parameteridentifikation und Schaumsimulation mit FOAM ist etabliert, es laufen bereits mehrere Projekte mit verschiedenen Kunden.

Verbundwerkstoffe mit PU-Schäumen

Auch bei Verbundwerkstoffen setzen Hersteller vielfach auf PU-Schäume – etwa für Trägerstrukturen im Auto, die zum einen stabil, zum anderen leicht sein sollen. Dazu integrieren sie Verstärkungsstrukturen wie Textilien in die Schäume. Das Ergebnis: Würde eine Hartschaumplatte etwa bei einer Verbiegung bereits brechen, hält die Platte mit integriertem Textil problemlos stand. Durch das Textil in der Form verändert sich allerdings das Strömungsverhalten der Polymer-Emulsion, schließlich bildet die Textilstruktur einen Widerstand. Damit ändert sich auch die Dynamik der Schaumbildung und die Struktur des Schaums: Die Blasen werden kleiner, der Schaum dichter.

Das Forscherteam des Fraunhofer ITWM hat erstmalig eine Simulation für Verbundmaterialien entwickelt, gemeinsam mit den Kollegen am Lehrstuhl für Strukturleichtbau und Kunststoffverarbeitung der TU Chemnitz. »Den Strömungswiderstand, den die entsprechende Textilstruktur hervorruft, können wir ausrechnen – das ist eine Expertise, die wir schon lange haben. Anschließend können wir das Aufschäumen in und um die Textilstruktur simulieren«, erklärt Steiner. Bisher mussten Hersteller mühsam ausprobieren, ob der erhaltene Schaumverbund die gewünschten Eigenschaften hat – was durchaus mehrere Wochen oder gar Monate dauern kann. Die Simulation dagegen wartet bereits nach ein bis zwei Tagen mit einem verlässlichen Ergebnis auf. Die Forscher haben sie bereits an Bauteilen validiert und überprüft. Die Ergebnisse stimmen sehr gut mit der Realität überein.

Externer Link: www.fraunhofer.de