Grünen Strom rentabel zwischenspeichern

Presseinformation (Forschung Kompakt) der Fraunhofer-Gesellschaft vom 03.06.2019

Regenerative Energiequellen liefern nicht immer gleich viel Strom – dieser muss daher in Batterien zwischengespeichert werden. Lithium-Ionen-Akkus haben eine kurze Lebensdauer, Redox-Flow-Batterien waren bislang zu teuer. Neuartige Redox-Flow-Systeme liegen nun im selben Preisbereich wie Lithium-Ionen-Batterien, halten jedoch mehr als doppelt so lange. Volterion, einem Spin-Off des Fraunhofer-Instituts für Umwelt-, Sicherheits- und Energietechnik UMSICHT, ist es gelungen, die Herstellungskosten deutlich zu reduzieren.

Erneuerbare Energien nehmen einen immer größeren Stellenwert in unserer Stromerzeugung ein. Allerdings schwankt die erzeugte Strommenge stark – die elektrische Energie muss daher zwischengespeichert werden, bis sie benötigt wird. Auch für moderne Technologien wie die Elektromobilität sind leistungsfähige Batteriesysteme nötig: So ist das Stromnetz beispielsweise nicht für Schnellladestationen mit 350 Kilowatt ausgelegt. Zudem ist nicht überall dort, wo Schnellladestationen sinnvoll wären, ein Stromnetz vorhanden. Lithium-Ionen-Akkus eignen sich für solcherlei Anwendungen nur bedingt: Ihre Zyklenfestigkeit reicht nicht aus – würde man sie zwei- bis dreimal täglich be- und entladen, wären sie nach zwei bis drei Jahren kaputt. Anders dagegen Redox-Flow-Batterien: Sie bieten eine große Zyklenfestigkeit und sind zudem nicht brennbar, recycelfähig und ihre Kapazität und Leistung lässt sich gut anpassen. Sie eignen sich daher insbesondere für Anwendungen, bei denen die Batterie stark gefordert wird. Bisher waren sie jedoch schlichtweg zu teuer.

Neuartige Redox-Flow-Batterien werden erstmalig rentabel

Forscher des Fraunhofer UMSICHT in Oberhausen konnten die Kosten der Batterien nun deutlich senken. Hergestellt und vermarktet werden die neuartigen Redox-Flow-Batterien vom Fraunhofer-Spin-Off Volterion. Um zu verstehen, wie die Forscherinnen und Forscher Redox-Flow-Batterien optimiert haben, gilt es zunächst einmal einen Blick auf den Aufbau dieser Batterien zu werfen. Sie bestehen aus Stacks – Zellstapel, die den zu speichernden Strom in chemische Energie umwandeln, und Elektrolytflüssigkeit, die diese chemische Energie speichert. Für die hohen Kosten der Batterien sind vor allem die Stacks verantwortlich. »Wir konnten das Gewicht der Stacks auf zehn Prozent reduzieren und somit auch deren Kosten erheblich senken«, erläutert Dr. Thorsten Seipp, ehemals Wissenschaftler am Fraunhofer UMSICHT und nun Geschäftsführer bei Volterion. »Während herkömmliche Stacks oftmals pro einzelne Zelle acht bis zehn Millimeter dick sein müssen, kommen wir mit einer Stackdicke von zwei bis drei Millimetern aus.« Die neuartigen Redox-Flow-Batterien liegen durch diese Materialersparnis in der gleichen Preisklasse wie Lithium-Ionen-Akkus, halten aber mehr als doppelt so lange. Das heißt: Sie werden erstmalig für zahlreiche Anwendungen rentabel.

Der Clou liegt in der Materialentwicklung

Der Clou lag vor allem in der Materialentwicklung. Üblicherweise bestehen die Stacks aus einer Graphit-Kunststoff-Mischung. Durch die Verarbeitung büßen die Materialien ihre polymeren Eigenschaften allerdings ein. Sprich: Die langen Polymerketten werden zerstört, das Material verliert seine Flexibilität und auch einen Teil seiner Stabilität. Zudem lässt es sich nicht verschweißen, sondern muss mit Dichtringen versehen und verschraubt werden. »Wir haben das Material und den Herstellungsprozess am Fraunhofer UMSICHT so angepasst, dass die polymeren Eigenschaften erhalten bleiben. Das heißt: Das Material bleibt stabil und flexibel, kann somit erheblich dünner ausgelegt werden und die Stacks lassen sich miteinander verschweißen. Schnell verschleißende Dichtungsringe sind unnötig«, so Seipp. Das lässt die Stacks nicht nur kostengünstiger, sondern auch deutlich robuster werden.

Vom Klärwerk bis zu MRT-Untersuchungen

Eingesetzt werden die neuartigen Redox-Flow-Batterien unter anderem in einer Kläranlage. Dort wird Strom aus Methan produziert, künftig sollen auch Photovoltaikanlagen zur Energieerzeugung beitragen. Hier soll eine 100-Kilowatt-Batterie gleich zweierlei Schwankungen ausgleichen: Die der Stromerzeugung und die des Stromverbrauchs. Somit kann die Kläranlage künftig ihren gesamten Energiebedarf selbst decken.

Auch bei MRT-Scannern in Kliniken ist eine Redox-Flow-Batterie vielfach lohnenswert. »Jedes MRT-Gerät hat eine Leistung von 200 Kilowatt – sollen drei oder vier Geräte gleichzeitig laufen, ist die Leitung schnell überlastet. Eine neue Stromleitung zu legen ist jedoch mit 80.000 Euro pro Kilometer extrem teuer. Hier ist eine Redox-Flow-Batterie eine gute Alternative«, sagt Seipp. Denn die MRT-Geräte laufen jeweils einige Minuten, verbrauchen in dieser Zeit sehr viel Strom und werden dann bis zur nächsten Untersuchung wieder ausgeschaltet. Die Batterie durchläuft also zahlreiche Be- und Entladezyklen täglich. »Unsere optimierten Batterien sind wie geschaffen dafür – ebenso wie für andere Anwendungen, in denen kurzfristig viel Energie nötig ist, die das Netz nicht zuverlässig liefern kann«, fasst Seipp zusammen.

Momentan arbeiten die Forscherinnen und Forscher des Fraunhofer UMSICHT gemeinsam mit den Kollegen von Volterion daran, die Kosten für die Batterien noch weiter zu senken. Auch wollen sie die Größen der Anwendungen skalieren: Momentan sind die Batterien auf 100 bis 300 Kilowatt ausgelegt, künftig sollen sie auch im Megawattbereich nutzbar sein.

Externer Link: www.fraunhofer.de

Ökologische Klebstoffe aus Pflanzenöl

Presseinformation (Forschung Kompakt) der Fraunhofer-Gesellschaft vom 02.05.2019

Die Nachfrage nach grünen Produkten steigt. Doch nachhaltig sind Waren erst dann, wenn die verwendeten Klebstoffe und Lacke ebenfalls aus biobasierten Rohstoffen hergestellt werden. Materialkonzepte aus Fraunhofer-Laboren sollen helfen.

Bioprodukte boomen. Denn statt Massentierhaltung und Chemikalien-Cocktails auf den Feldern wünschen sich viele Verbraucher sattgrüne Weiden für die Tiere, möglichst unbehandeltes Obst und Gemüse sowie Textilien aus ökologisch erzeugter Baumwolle. Allerdings ist es nicht damit getan, Kunststoffe durch Materialien wie Holz oder Kork zu ersetzen. Wirklich nachhaltig sind die Produkte nur dann, wenn auch die Klebstoffe und Lacke aus biobasierten Rohstoffen hergestellt werden.

Bisher bestehen Klebstoffe und Co. meist aus duroplastischen Epoxidharzen auf Erdölbasis. Einfacher gesagt: aus Kunstharzen, die sich – einmal erwärmt – nicht mehr verformen lassen. Als Bausteine für diese Epoxidharze dienen Monomere. Gibt man einen Härter hinzu, vernetzen sich die Einzelmoleküle zu einem festen Kunststoff, der sich nicht mehr aufschmelzen lässt. Über zugegebene Funktionsstoffe lassen sich die Eigenschaften feinjustieren und an die jeweiligen Anwendungen anpassen. So können sie die Epoxidharze färben, vor Feuer schützen oder dafür sorgen, dass sie sich besser verarbeiten lassen.

Pflanzenölepoxide mit naturbasierten Additiven

Doch lassen sich solche Epoxidharze auch auf ökologische Weise herstellen? Einen neuartigen Ansatzpunkt gibt es bereits: die Pflanzenölepoxide, also die ökologische Variante der herkömmlichen Epoxidharze. Basis bilden Pflanzenöle, die einen hohen Anteil an ungesättigten Fettsäuren haben. Diese Fettsäuren werden epoxidiert, also mit einem Drei-Ring aus zwei Kohlenstoffatomen und einem Sauerstoffatom versehen. Kombiniert man diese Pflanzenölepoxide mit entsprechenden Härtern, entstehen hochbelastbare Kunststoffe. Nachhaltige Klebstoffe, Lacke oder auch Schaumharze rücken somit in den Bereich des Möglichen. Doch die chemische Zusammensetzung von natürlichen Rohstoffen kann stark schwanken, schließlich werden sie aus der Saat von Ölpflanzen extrahiert. Dies stellt Produzenten vor große Herausforderungen.

Ökologische Klebstoffe mit optimalen Eigenschaften

Forscherinnen und Forscher des Fraunhofer-Instituts für Mikrostruktur von Werkstoffen und Systemen IMWS nehmen die Eigenschaften solcher neu entwickelter biogener Harze daher genau unter die Lupe. »Wir untersuchen die Harze von der Mikro- bis zur Makroebene«, bestätigt Andreas Krombholz, Gruppenleiter am IMWS. Wie wirken sich die variierenden Inhaltsstoffe auf die Harze aus? Ist dieser erste Schritt getan, optimiert das IMWS-Team die Harze und passt sie an die Verarbeitungsverfahren an.

Zudem entwickeln die Fraunhofer-Wissenschaftlerinnen und -Wissenschaftler aus den Pflanzenölepoxiden neuartige Klebstoffe. So sind alle diese Klebstoffformulierungen aus den Fraunhofer-Laboren vollkommen frei von Lösungsmitteln. Weiterhin widmen sich die Forschenden der Frage: Welche Füll- und Funktionsstoffe bieten welchen Nutzen? Ein solcher wäre beispielsweise eine hohe elektrische Leitfähigkeit: Durch das Anlegen einer elektrischen Spannung lässt sich die Klebschicht von innen heraus aufheizen – und härtet somit schnell und gezielt aus. Oder aber man bringt modifiziertes Thymianöl in den Kleber ein. So erhält er eine antibakterielle Wirkung.

Epoxidierung auf Enzyme umgestellt

Der biobasierte Anteil der aus den Pflanzenölepoxiden gefertigten Klebstoffen liegt mittlerweile bei 86 Prozent, weil die Materialien viel Pflanzenöl enthalten und auch die bisher erdölbasierten Härterchemikalien gegen biobasierte Substanzen ausgetauscht wurden. Zum Vergleich: Bereits ab einem biobasierten Anteil von 35 Prozent gilt ein Material als nachhaltig. »Gemeinsam mit dem Fraunhofer-Institut für Grenzflächen- und Bioverfahrenstechnik IGB haben wir die Epoxidierung erstmalig auf Enzyme umgestellt, wir können die Pflanzenöle also ohne Erdöl-basierende Chemikalien mit diesem Verfahren behandeln. Und da dies via Enzymen bei 40 Grad Celsius vonstatten geht statt bei über 100 Grad Celsius wie bisher, sparen wir zudem Energie«, erläutert Krombholz. Doch damit nicht genug: Bisher verwendete die Industrie Leinöl aus Kanada für die Pflanzenölepoxide – was schon allein im Hinblick auf die Lieferwege nicht ökologisch ist. Der Wissenschaftler und sein Team haben den Prozess daher von Leinöl auf Drachenkopföl umgestellt, das in Deutschland ökologisch hergestellt wird. Das verbessert zusätzlich die Umweltbilanz. Und den Härter, bislang ein hochgiftiges Produkt, haben die Expertinnen und Experten durch eine ökologische Variante ersetzt.

Externer Link: www.fraunhofer.de

Fehler in Stromnetzen mit Künstlicher Intelligenz automatisiert erkennen

Presseinformation (Forschung Kompakt) der Fraunhofer-Gesellschaft vom 01.04.2019

Die Stromnetze verändern sich: Gab es in der Vergangenheit vor allem große, zentrale Stromerzeuger, kommen nun zunehmend kleine, dezentrale Erzeuger dazu. Um solche komplexen Netze stabil zu halten, ist hochauflösende Sensorik gefragt. Mit Künstlicher Intelligenz lassen sich genaue Prognosen anfertigen sowie Fehler und Anomalien automatisiert in Echtzeit erkennen. Fraunhofer-Forscher haben die erforderlichen Komprimierungsverfahren, Algorithmen und neuronalen Netze entwickelt, um die Stromübertragung fit für die Zukunft zu machen.

Die Stromversorgung wandelt sich: Statt den Strom ausschließlich über große Kraftwerke zu generieren, kommen zahlreiche dezentrale Stromquellen wie Windräder, Photovoltaikzellen und Co. hinzu. Dieser Umschwung wirkt sich auch auf die Stromnetze aus – vor allem die Betreiber von Übertragungsnetzen sehen sich großen Herausforderungen gegenüber. Laufen relevante Netzparameter wie Phase oder Winkel aus dem Ruder? Gibt es Abweichungen vom regulären Netzbetrieb, also Anomalien? Oder sind Leitungen oder Kraftwerke ausgefallen? Um solche Fragen beantworten zu können, reicht die übliche Messtechnik nicht mehr in jeder Situation aus. Sie wird daher zunehmend um Phasormessungen, kurz PMU, sowie um Digitalisierungstechnologien ergänzt: Die entsprechenden Messsysteme erfassen die Amplitude von Strom und Spannung bis zu 50-mal pro Sekunde. Aus den Daten lassen sich verschiedene relevante Parameter wie Frequenz, Spannung oder Phasenwinkel ermitteln. Die Datenmenge, die dabei entsteht, ist enorm – pro Tag kommen schnell mehrere Gigabyte an Daten zusammen.

Datenkompression: 80 Prozent der Daten einsparen

Forscher des Institutsteils Angewandte Systemtechnik AST des Fraunhofer-Instituts für Optronik, Systemtechnik und Bildauswertung IOSB in Ilmenau wollen die Datenauswertung nun durch Künstliche Intelligenz optimieren, die Netzsicherheit erhöhen und die Stromübertragung somit fit machen für die Zukunft. »Wir können bis zu 4,3 Millionen Datensätze pro Tag automatisiert erfassen, komprimieren und über Verfahren der Künstlichen Intelligenz auswerten«, fasst Prof. Peter Bretschneider, Leiter der Abteilung Energie am Fraunhofer IOSB-AST, zusammen. In einem ersten Schritt haben die Forscherinnen und Forscher Komprimierungsverfahren entwickelt, mit denen sich 80 Prozent der Daten einsparen lassen. Somit lassen sich die Daten nicht nur leichter speichern, sondern auch schneller und effizienter auswerten.

Datenauswertung: Automatisch und in Echtzeit

In einem zweiten Schritt lernten die Wissenschaftler mit den erhobenen Phasormessdaten neuronale Netze – also die Basis der Künstlichen Intelligenz – an. Sprich: Sie »fütterten« die neuronalen Netze mit Beispielen typischer Betriebsstörungen. Die Algorithmen lernen auf diese Weise Schritt für Schritt, normale Betriebsdaten von bestimmten Betriebsstörungen zu unterscheiden sowie exakt zu kategorisieren. Nach dieser Trainingsphase wendeten die Wissenschaftler die neuronalen Netze bei den aktuellen Daten aus den Phasormessungen an. Bisher konnten diese nur manuell und im Nachhinein ausgewertet werden. Der Algorithmus schafft hier erstmalig den Sprung in die Echtzeit: Er entscheidet automatisch innerhalb von Millisekunden, ob eine Anomalie oder ein Fehler vorliegt und gibt zusätzliche Auskunft über Ort und Art der Betriebsstörung. Ein Beispiel: Fällt etwa ein Kraftwerk aus, so steigt die Last für die anderen Kraftwerke abrupt an. Die Generatoren werden durch die große Last langsamer, die Frequenz des Wechselstroms sinkt. Nun sind schnelle Gegenmaßnahmen gefragt: Sinkt die Frequenz unter einen vorgegebenen Grenzwert, so müssen gegebenenfalls Netzabschnitte aus Gründen der Systemstabilität abgeschaltet werden. Schnell, das heißt mitunter: Unter 500 Millisekunden. Da der Algorithmus seine Entscheidung innerhalb von 20 bis 50 Millisekunden trifft, bleibt genügend Zeit, um vollautomatische Gegenmaßnahmen einzuleiten.

Der Algorithmus ist einsatzbereit, an der Steuerung und Regelung der Gegenmaßnahmen arbeiten die Forscher zurzeit. Die Entwicklung ist nicht nur für Betreiber großer, sogenannter Übertragungsnetze interessant, sondern auch für die der regionalen Verteilnetze. »Um eine Analogie zum Verkehr zu ziehen: Was nützt es, wenn die Autobahnen frei sind, doch die regionalen Straßen permanent verstopft?«, erläutert Bretschneider.

Vorhersage noch unbekannter Probleme

Die Forscher widmen sich jedoch nicht nur bereits bekannten Problemen, sondern wollen auch Anomalien berücksichtigen, die bisher noch gar nicht auftreten. »Gehen wir den Weg der erneuerbaren Energien weiter, kann dies künftig zu Phänomenen führen, die wir derzeit noch nicht kennen«, sagt Bretschneider. Auch hier setzen die Wissenschaftler auf die Künstliche Intelligenz. Genauer gesagt: Sie arbeiten daran, solche Phänomene zu kategorisieren und die erforderlichen Algorithmen zu entwickeln – und zwar anhand digitaler Netzabbildungen.

Externer Link: www.fraunhofer.de

Gesichtserkennung für Münzen

Presseinformation (Forschung Kompakt) der Fraunhofer-Gesellschaft vom 01.02.2019

In deutschen Landesmuseen lagern unzählige historische Münzen, die sich nur im Detail voneinander unterscheiden. Anders als Gemälde lassen sich diese archäologischen Fundstücke nicht beschriften oder durch Barcodes kennzeichnen. Forscherinnen und Forscher des Fraunhofer-Instituts für Fabrikbetrieb und -automatisierung IFF haben in Kooperation mit dem Landesamt für Denkmalpflege und Archäologie Sachsen-Anhalt einen Scanner und eine Auswertesoftware entwickelt, die die optischen Merkmale von Münzen in Sekundenschnelle digital erfassen und eindeutig beschreiben. Mithilfe des Messsystems können Münzfunde identifiziert und wiedererkannt werden.

Fälschung oder Original? Selbst Experten mit geschultem Auge tun sich schwer, diese Frage in Bezug auf historische Münzen zu beantworten. Wie können Fälschungen von Münzen erkannt werden, wenn sie beispielsweise von einer Verleihung an eine externe Ausstellung ins Museum zurückkommen? Wie lassen sich Vertauschungen und Verwechslungen beim Verleih der Exponate zwischen Museen vermeiden? Antworten auf diese Fragen suchten auch die Mitarbeiter des Landesamts für Denkmalpflege und Archäologie Sachsen-Anhalt. Rund 20 000 Münzen – oftmals mehrere Jahrhunderte alt – lagern in den Archiven und Tresoren des Amts, der Bestand wächst ständig. Die eindeutige Erfassung und Dokumentation der historischen Münzen, die in einer unüberschaubaren Form- und Variantenvielfalt vorliegen, ist mühsam und wird bislang manuell vorgenommen. Anders als Gemälde können die Münzen nicht beklebt und beschriftet oder mit einem Barcode versehen werden. Auf der Suche nach einer Lösung des Problems und im Rahmen einer Digitalisierungsoffensive des Landes Sachsen-Anhalt, die die Digitalisierung von Kulturgütern, archäologischen Funden und historischen Münzen umfasst, wandte sich das Landesamt an das Fraunhofer IFF in Magdeburg.

Digitaler Fingerabdruck für archäologische Funde

»Ziel des Landesamts war es, den kompletten Münzbestand zu digitalisieren. Dabei entstand die Idee, einen digitalen Fingerabdruck zu erstellen, mit dem man die einzelnen Münzen wiedererkennen und klassifizieren kann – ähnlich der Gesichtserkennung beim Menschen. Der Fingerabdruck ersetzt quasi den Barcode«, beschreibt Dr. Christian Teutsch, Wissenschaftler am Fraunhofer IFF, den ersten Kontakt mit dem Landesamt für Denkmalpflege. Um dies zu realisieren und eine eindeutige Signatur der Münzen zu ermöglichen, konzipierten die Projektpartner in enger Zusammenarbeit im Projekt »Digitaler Fingerabdruck für archäologische Funde – Prototyp für die Individualisierung und Wiedererkennung von Fundstücken« ein optisches Datenerfassungssystem und Softwareanalyseverfahren, das die alten Münzen digital erfasst und eindeutig beschreibt. Das Messsystem sollte eine Wiedererkennungsrate von über 98 Prozent erzielen, berührungslos arbeiten und die beidseitige Datenerfassung gewährleisten. Geprüft werden sollen Gold-, Silber-, Bronze- und Kupfermünzen mit einem Durchmesser von fünf bis 75 Millimeter.

Fälschungen aufspüren

Der neuartige Scanner O.S.C.A.R. – kurz für Optical System for Coin Analysis and Recognition – erfasst nicht nur die optischen Merkmale der Münzen, sondern auch feinste Gebrauchsspuren wie Kratzer, Abbrüche, Konturen, Ecken, Vertiefungen und Dellen, die ein Objekt einzigartig machen. Dies ist unabdingbar, um viele Münzen des gleichen Typs identifizieren zu können. »Es ist naheliegend, dass man Veränderungen feststellen kann, wenn man eine Münze zweimal scannt. Hat man Münzen verliehen, kann man somit bei der Zurücknahme prüfen, ob beispielsweise Kratzer hinzugekommen sind, ob das Fundstück beschädigt wurde oder ob es sich gar um ein Plagiat handelt«, sagt der Ingenieur, Mitarbeiter der Abteilung »Mess- und Prüftechnik«.

Variable Lichtquellenverschiebung auf den digitalisierten Münzen

Der Scanner umfasst mehrere Kameras sowie mehrere Lichtquellen, die die Münzen aus unterschiedlichen Richtungen beleuchten und hochgenaue Auflösungen und Vergrößerungen erlauben. So können Teutsch und sein Team alle Merkmale hervorheben und erfassen, ohne dass Spiegelungen und Reflektionen auftreten. »Die Lichtquellen lassen sich am Bildschirm virtuell drehen und beliebig über die Münzoberflächen ziehen. Das ist ein großer Vorteil für Numismatiker, die nun nur sehr schlecht zu erkennende Ober- und Unterseiten schneller und exakter identifizieren können«, betont Teutsch.

Der Digitalisierungsvorgang selbst ist einfach: Die Münzen werden einzeln unter den Scanner gelegt, nachdem zuvor ein Barcode gescannt wurde, der sich auf der zugehörigen Tüte befindet. Ein Knopfdruck genügt, um das Gerät zu starten. Mithilfe eines eigens entwickelten optischen Analyseverfahrens werden die Farb- und Oberflächeneigenschaften der historischen Fundstücke rekonstruiert. Der Scanner erfasst mehr als 1000 optische Merkmale pro Münze. Die aufgenommenen Bilder werden als Messdaten interpretiert. Referenzmuster und Farbtafeln sorgen dafür, dass alle Bilder normiert und der Farbraum vergleichbar ist. Somit ist gesichert, dass sich die Bilddaten zwischen verschiedenen Institutionen vergleichen lassen. Im nächsten Schritt werden sämtliche Messdaten an die Auswertesoftware übertragen, die die Daten nutzt, um den digitalen Fingerabdruck zu berechnen. »Die Software nimmt den Münzvergleich mit der Datenbank vor, sprich sie sucht nach der Signatur. Bisher gab es die Möglichkeit der Identifizierung nicht. Fiel eine Tüte zu Boden und die Münze aus der Tüte, so waren das Wissen um den Fundort und andere Informationen verloren«, so Teutsch. Jetzt sind die Landesämter und -museen der Bundesländer zusätzlich in der Lage, die Münzfunde der Öffentlichkeit zugänglich machen. Darüber hinaus ist die Vergleichbarkeit der Münzdatenbanken aller Bundesländer gegeben. Auch die Zusammenarbeit mit der KENOM-Datenbank, einer länderübergreifenden Datenbank für Münzen, wird auf eine neue Ebene gehoben. Anhand der digitalen Daten können Numismatiker die Beziehungen zwischen verschiedenen Münzen oder Fundorten und damit historische Nutzungszusammenhänge herstellen.

Bereits 10 000 Münzen digitalisiert

Das neue Messsystem ermöglicht die automatische Digitalisierung und Dokumentation des Münzbestands, die bislang mühselige Arbeit wird enorm beschleunigt. Die Projektpartner haben bereits 10 000 Münzen eingescannt, bald soll der komplette Bestand von 20 000 Exemplaren digitalisiert sein.

Münzforscher zeigten sich nach einer ersten Präsentation des Prototyps begeistert. »Das neue Messsystem wird die Münzforschung in Europa revolutionieren«, resümiert Teutsch. Der Clou: Mit der Anwendung lassen sich potenziell auch Gemälde analysieren, da das System auch Pinselstriche erfasst. Farben kann man fälschen, die exakte Pinselführung jedoch nicht. »Wir erkennen mit unserer Lösung garantiert jeden Van Gogh. Ein Plagiat ließe sich aufgrund der Unterschiede in den Details der Farbaufträge und Erhebungen durch die Pinselhaare sofort identifizieren.«

Externer Link: www.fraunhofer.de

Food-Scanner für die Hosentasche

Presseinformation (Forschung Kompakt) der Fraunhofer-Gesellschaft vom 03.01.2019

Laut einer Studie der Umweltstiftung WWF Deutschland landen jährlich zehn Millionen Tonnen Lebensmittel in Deutschland im Müll, obwohl sie noch verzehrbar sind. Mit einem mobilen Food-Scanner sollen Verbraucher und Supermarktbetreiber in Zukunft prüfen können, ob Nahrungsmittel verdorben sind. Das Gerät im Hosentaschenformat ermittelt per Infrarotmessung den Reifegrad und die Haltbarkeit von Gemüse, Obst und Co. und zeigt das Ergebnis mithilfe einer App an. Fraunhofer-Forscherinnen und -Forscher haben das System, das als Demonstrator vorliegt, gemeinsam mit Partnern im Auftrag des Bayerischen Staatsministeriums für Ernährung, Landwirtschaft und Forsten entwickelt.

Kann man den Joghurt noch essen? Ist das Gemüse noch genießbar? Im Zweifelsfall landen Lebensmittel nicht auf dem Teller, sondern in der Tonne. Viele Produkte werden weggeworfen, weil sie nicht mehr appetitlich aussehen, kleine Schönheitsfehler aufweisen oder das Mindesthaltbarkeitsdatum abgelaufen ist. Allein in Bayern wandern 1,3 Millionen Tonnen Nahrungsmittel jährlich unnötigerweise in den Abfall. Mit dem Bündnis »Wir retten Lebensmittel« will das Bayerische Staatsministeriums für Ernährung, Landwirtschaft und Forsten mit insgesamt 17 Maßnahmen der Verschwendung entgegenwirken. Eines der Projekte: Ein Food-Scanner soll dazu beitragen, die Verluste am Ende der Wertschöpfungskette zu reduzieren – im Handel und beim Verbraucher. Das preisgünstige Gerät im Hosentaschenformat soll künftig den tatsächlichen Frischegrad von Lebensmitteln feststellen – sowohl bei abgepackten als auch bei nicht abgepackten Waren. Forscherinnen und Forscher des Fraunhofer-Instituts für Optronik, Systemtechnik und Bildauswertung IOSB, des Fraunhofer-Instituts für Verfahrenstechnik und Verpackung IVV, der Technischen Hochschule Deggendorf und der Hochschule Weihenstephan-Triesdorf entwickeln den kompakten Food-Scanner, der als Demonstrator mit Daten für zwei Lebensmittel vorliegt und auch eine Haltbarkeitsabschätzung ermöglicht.

Echtheit von Lebensmitteln per Infrarotlicht feststellen

Herzstück des mobilen Scanners ist ein Nahinfrarot (NIR)-Sensor, der den Reifegrad des Nahrungsmittels bestimmt und ermittelt, wie viele und welche Inhaltsstoffe es enthält. »Infrarotlicht wird punktgenau auf das zu untersuchende Produkt geschickt, anschließend misst man das Spektrum des reflektierten Lichts. Die absorbierten Wellenlängen lassen Rückschlüsse auf die chemische Zusammensetzung der Ware zu«, erläutert Dr. Robin Gruna, Projektleiter und Wissenschaftler am Fraunhofer IOSB, die Funktionsweise des Verfahrens. »Im Labor kann man schon lange per Nahinfrarotspektroskopie Inhaltsstoffe quantifizieren. Neu ist, dass dies jetzt mit kleinen Low-Cost-Sensoren möglich ist«, sagt Julius Krause, Kollege im Team von Gruna. »Lebensmittel werden oftmals gefälscht, beispielsweise werden Lachsforellen als Lachs verkauft. Auch die Echtheit eines Produkts kann man mit unserem Gerät feststellen, nachdem es entsprechend eingelernt wurde. Gepanschtes Olivenöl lässt sich ebenfalls als solches identifizieren«, so der Physiker. Doch dem System sind auch Grenzen gesetzt: Es bewertet ausschließlich die Produktqualität von homogenen Nahrungsmitteln. Heterogene Produkte mit verschiedenen Zutaten wie beispielsweise Pizza lassen sich aktuell nur schwer prüfen. Hierfür erforschen die Wissenschaftler ortsauflösende Technologien wie bildgebende Spektroskopie (Hyperspectral Imaging) und Fusionsansätze mit Farbbildern und Spektralsensoren.

Um die Qualität der Lebensmittel basierend auf den Sensordaten und den gemessenen Infrarotspektren bestimmen und Prognosen für die Haltbarkeit errechnen zu können, entwickeln die Forscherteams intelligente Algorithmen, die nach entsprechenden Mustern und Gesetzmäßigkeiten in den Daten suchen. »Durch Maschinelles Lernen können wir das Erkennungspotenzial steigern. In unseren Tests haben wir Tomaten und Hackfleisch untersucht«, sagt Gruna. So wurden etwa die gemessenen NIR-Spektren von Hackfleisch mithilfe statistischer Verfahren mit dem mikrobiellen Verderb korreliert und wurde die weitere Haltbarkeit des Fleisches davon abgeleitet. Umfangreiche Lagertests, bei denen die Forscherteams die mikrobiologische Qualität sowie weitere chemische Parameter unter verschiedenen Lagerbedingungen erfassten, zeigten eine gute Übereinstimmung der ermittelten und der tatsächlichen Gesamtkeimzahl.

App zeigt Haltbarkeit der Lebensmittel an

Der Scanner sendet die gemessenen Daten zur Analyse per Bluetooth an eine Datenbank – eine eigens entwickelte Cloud-Lösung –, in der die Auswerteverfahren hinterlegt sind. Die Messergebnisse werden anschließend an eine App übertragen, die dem Verbraucher die Ergebnisse anzeigt und darstellt, wie lange das Lebensmittel bei den jeweiligen Lagerbedingungen noch haltbar ist oder ob es bereits überlagert wurde. Darüber hinaus erfährt der Verbraucher, wie er Lebensmittel alternativ verwenden kann, wenn deren Lagerdauer abgelaufen ist. Für Anfang 2019 ist die Testphase in Supermärkten geplant: Dann soll untersucht werden, wie der Verbraucher das Gerät annimmt. Insgesamt ist ein breiter Einsatz entlang der Wertschöpfungskette denkbar, vom Rohstoff bis zum Endprodukt. Eine frühzeitige Erkennung von Qualitätsveränderungen ermöglicht alternative Verwertungswege und trägt zur Reduzierung der Verluste bei.

Doch der Scanner ist mehr als nur ein Instrument für den Lebensmittel-Check. Vielmehr handelt es sich um eine universell einsetzbare, kostengünstige Technologie, die schnell anpassbar ist. Beispielsweise könnte man das System nutzen, um damit Kunststoffe, Holz, Textilien oder Mineralien voneinander zu unterscheiden und zu klassifizieren. »Der Einsatzbereich des Geräts ist vielseitig, es muss nur entsprechend trainiert werden«, sagt Gruna.

Externer Link: www.fraunhofer.de