Neuer Weltrekord im Codeknacken stellt Online-Sicherheitssysteme in Frage

Pressemeldung der Universität Passau vom 02.08.2019

Unter Beteiligung der Universität Passau hat ein internationales Team von Mathematikern ein neues Verfahren zum Knacken kryptographischer Codes entwickelt und einen neuen Weltrekord aufgestellt. Die Forscher gehen davon aus, dass eine bestimmte Variante von Verschlüsselungssystemen, die aktuell bei der Absicherung von Online-Transaktionen im Einsatz sind, damit nicht mehr sicher nutzbar ist.

Die Kryptographie, die Kunst des geheimen Schreibens, ist etwa so alt wie die Verbreitung der Schrift selbst, ihre Geschichte so spannend wie aufschlussreich. Die Erkenntnisse der Kryptographie finden in unserem Alltag Anwendung in Form von Verschlüsselungs- und Signatursystemen. Derartige Systeme verwenden Zahlen mit hunderten Stellen um zum Beispiel Bankdaten bei Onlinezahlungen oder vertrauliche Informationen im E-Mailverkehr zu schützen. Die Sicherheit der verbreiteten Public-Key-Verschlüsselungsverfahren beruht im Wesentlichen auf zwei algorithmischen Problemen, dem diskreten Logarithmusproblem und dem Faktorisierungsproblem. Dies sind hochgradig schwierige mathematische Probleme, welche bisher selbst bei Verwendung aktueller Supercomputer Billionen von Jahren zur Lösung benötigten.

Fünf Forschende von der Universität Passau, der École Polytechnique Fédérale de Lausanne (EPFL), dem niederländischen Centrum Wiskunde & Informatica (CWI) und der englischen University of Surrey haben nun ein solches Problem geknackt: Sie berechneten diskrete Logarithmen in einem mathematischen Rechenbereich, einem sogenannten binären Körper, mit genau 30750 Bits, was Dezimalzahlen mit 9257 Stellen entspricht. Diese Größe schlägt den vorherigen Rekord in einem Körper mit 9234 Bits bzw. 2780 Dezimalstellen, welcher 2014 von Robert Granger (Surrey), Thorsten Kleinjung (EPFL) und Jens Zumbrägel (Passau) aufgestellt wurde. Dieses Trio hatte bereits 2014 auch einen 128-Bit-sicheren Industriestandard geknackt, der ebenfalls auf dem diskreten Logarithmusproblem basiert.

Seither haben Granger, Kleinjung und Zumbrägel einen noch schnelleren Algorithmus entwickelt. Einige Kryptographieexperten waren bisher weiter von der Sicherheit entsprechender Verschlüsselungsmethoden ausgegangen und empfahlen diese teils sogar explizit zur Verwendung für Zahlen ab ca. 16000 Bits Größe. Zusammen mit Arjen K. Lenstra (EPFL) und Benjamin Wesolowski (CWI) hat das Forschertrio das diskrete Logarithmusproblem nun in 30750 Bits gelöst – und so demonstriert, dass solche Empfehlungen nicht haltbar sind. Der neue Rekord benötigte drei Jahre auf verschiedenen Computerclustern. Dies entspricht ca. 2900 Jahre auf einem Single-Core-PC, wie er bis 2005 Standard war. Auch wenn drei Jahre immer noch nach einer langen Zeit klingen: Die mathematischen Fortschritte der letzten Jahre und die immense Steigerung der Rechenleistung machen deutlich, dass diese Variante von Verschlüsselungssystemen bereits heute keine absolute Sicherheit mehr bietet.

Nach der Einschätzung von Dr. Robert Granger, Lecturer in Secure Systems an der University of Surrey, sei der Weltrekord eine fantastische Leistung, welche zeige, dass dieser bislang wesentliche Teil der kryptographischen Welt nun der Vergangenheit angehören sollte. Andererseits gebe es auch konstruktive Anwendungen solch schneller Algorithmen, sogar in der Kryptographie selbst, weswegen Granger von einer Win-Win-Situation spricht. Prof. Dr. Jens Zumbrägel, Inhaber der Professur für Mathematik mit Schwerpunkt Kryptographie, ergänzt: „Solch großformatige Berechnungen helfen uns zu verstehen, wo Gefahren lauern und können zu Einsichten führen, welche in anderen Szenarien angewandt werden. Deswegen sind diese Experimente immens wichtig für die Beurteilung der Sicherheit der heutigen Kryptographie.“ Zumbrägel stellt jedoch auch klar, dass andere Kryptosysteme, welche etwa auf Faktorisierung oder diskreten Logarithmen in Primkörpern oder elliptischen Kurven beruhen, nach derzeitigem Stand weiterhin sicher seien. (Anja Schuster)

Externer Link: www.uni-passau.de

Feuer löschen ohne Feuer

Pressemitteilung der Universität Kassel vom 03.07.2019

Ein an der Uni Kassel erfundenes virtuelles Feuerlösch-System hilft bei der Ausbildung von Brandschutzhelfern und Feuerwehrleuten. Dabei kommuniziert ein realer Feuerlöscher mit einer virtuellen Trainingsumgebung, die Brände simuliert. Der virtuelle Feuerlöscher ist ein Beispiel dafür, wie Erfindungen der nordhessischen Hochschule mithilfe ihrer Patentvermarktungsagentur den Weg in den Markt finden.

Der virtuelle Feuerlöscher ist eine Entwicklung eines Doktoranden, Frederik Kreckler vom Fachgebiet Technische Informatik. Das Feuer findet allein auf einem Bildschirm oder einer Leinwand statt. Im Innern des Feuerlöschers sind Sensoren eingebaut, die die Bewegungen des Übenden kabellos auf dem Bildschirm spiegeln.

Per Knopfdruck stehen die Löschmittel Wasser, Pulver, Schaum oder Fettbrandlöschmittel und Orte (Küche, Flur oder Büro) zur Wahl. Je nach Ort steht der Übende vor verschiedenen Bränden und kann auch die Auswirkung der verschiedenen Löschmittel ausprobieren. „Beim simulierten Löschen kann man falsch machen, was man im realen Leben lieber nicht falsch macht“, nennt Kreckler einen wichtigen Vorteil des virtuellen Löschens. Mit seinem Feuerlöscher können sogar Kinder das Löschen von Bränden trainieren.

Die Auswertung gibt Rückmeldung, wie schnell der Brand gelöscht und wie viel Löschmittel verbraucht wurde. Per Knopfdruck wird das Löschmittel nachgefüllt. In echten Feuerlöschern ist das Löschmittel teils nach 10 bis 15 Sekunden aufgebraucht – eine wichtige Erfahrung für viele Übenden. „Das Fachgebiet Technische Informatik arbeitet viel mit Feuerwehren zusammen. Da ich Interesse an der Erfindung von Geräten und dem 3D-Druck habe, habe ich mich während der Promotion mit dem Thema befasst. Aus der Mischung beider Sachen kam dann der virtuelle Feuerlöscher heraus“, erklärt Kreckler seine Motivation, sich mit dem Thema Brandschutz zu beschäftigen. Beim Campusfest der Universität Kassel in der vergangenen Woche konnten Neugierige den virtuellen Löscher bereits ausprobieren.

Besonderer Fokus auf Vermarktung von Innovationen aus der Universität

Die Kommerzialisierung der Erfindung wird das Brandschutzunternehmen GLORIA GmbH übernehmen, und hat dazu als ersten Schritt eine Lizenz auf das zugrunde liegende Patent von der Universität Kassel erworben. Den Firmenkontakt stellte die Gesellschaft für Innovation Nordhessen (GINo) mbH her, die von der Universität Kassel beauftragte Patentvermarktungsagentur. Sie verhilft jedes Jahr zahlreichen Erfindungen aus der Nordhessischen Hochschule, die die Entwicklung von Ideen und die Ausgründung von Unternehmen und anderen Start-ups in besonderem Maße unterstützt, zu ihren ersten Schritten auf dem Weg in den Markt. Seit kurzem unterstützt Johann Hirsch die GINo mbH als zweiter Geschäftsführer, der insbesondere für den Bereich „Patentinformationszentrum“ zuständig ist und weitere Geschäftsfelder entwickeln wird. Die GINo mbH hat ihren Sitz im Science Park Kassel, dem gemeinsamen Gründerzentrum von Universität und Stadt.

Seit 2016 koordiniert die Universität Kassel den Verbund hessischer Hochschulen und Forschungseinrichtungen zur Patentverwertung. Das Land Hessen fördert diese Koordination und die Weiterentwicklung von Hochschulerfindungen derzeit mit rund einer Mio. Euro. Nicht zuletzt durch diese Förderung kamen seitdem 18 von bundesweit 67 Weiterentwicklungsprojekten aus dem WIPANO-Programm des Bundeswirtschaftsministeriums aus Hessen, davon die Hälfte aus Kassel.

Externer Link: www.uni-kassel.de

Saarbrücker Informatiker sagen mit Hilfe von Künstlicher Intelligenz Blitz und Donner voraus

Pressemitteilung der Universität des Saarlandes vom 26.06.2019

Anfang Juni hat der Deutsche Wetterdienst innerhalb weniger Tage 177.000 Blitze am Nachthimmel gezählt. Das Naturschauspiel hatte Folgen:  Durch Sturmböen, Hagel und Regen wurden mehrere Personen verletzt. Zusammen mit dem Deutschen Wetterdienst arbeiten Informatikprofessor Jens Dittrich und sein Doktorand Christian Schön von der Universität des Saarlandes nun an einem System, das örtliche Gewitter präziser als bisher vorhersagen soll. Es basiert auf Satellitenbildern und Künstlicher Intelligenz. Um diesen Ansatz genauer zu erforschen, erhalten die Forscher vom Bundesverkehrsministerium 270.000 Euro.

Eine der Kernaufgaben von Wetterdiensten ist die Warnung vor gefährlichen Wetterlagen. Dazu gehören vor allem Gewitter, da diese oft mit Sturmböen, Hagel und heftigen Regenfällen einhergehen. Der Deutsche Wetterdienst setzt dafür das System „NowcastMIX“ ein. Es fragt alle fünf Minuten mehrere Fernerkundungssysteme und Beobachtungnetze ab, um in den kommenden zwei Stunden vor Gewittern, Starkregen und Schneefall zu warnen. „Jedoch kann NowcastMIX die Gewitterzellen erst erkennen, wenn bereits Starkniederschlag auftritt. Daher versucht man mittels Satellitendaten die Entstehung der Gewitterzellen früher zu erkennen, um entsprechend früher davor zu warnen“, erklärt Professor Jens Dittrich, der an der Universität des Saarlandes Informatik lehrt und die Gruppe „Big Data Analytics“ leitet. Zusammen mit seinem Doktoranden Christian Schön und dem Meteorologen Richard Müller vom Deutschen Wetterdienst hat er daher ein System entwickelt, das NowcastMIX bald bei der Vorhersage von Gewittern ergänzen könnte. Ihr Projekt ist ein erster Schritt, um die Einsetzbarkeit von Künstlicher Intelligenz in der Vorhersage von Wetter- und Klimaphänomen zu erforschen.

Um Gewitter in einer bestimmten Region genau vorhersagen zu können, muss die so genannte Konvektion von Luftmassen, also das Aufsteigen erwärmter Luft bei gleichzeitigem Absinken kälterer Luft in der Umgebung frühzeitig und präzise erkannt werden. Das ist bereits seit Langem bekannt. Der Clou des neuen Systems besteht jedoch darin, dass es zum Erkennen dieser dreidimensionalen Luftverschiebungen lediglich zweidimensionale Bilder, nämlich Satellitenbilder, benötigt.

Um auf den zweidimensionalen Bildern zu erkennen, was dreidimensional am Himmel passiert, verwenden die Forscher Aufnahmen, die im Abstand von fünfzehn Minuten fotografiert wurden. Ein Teil der Bildserie für das jeweilige Gebiet geht als Eingabe an einen Algorithmus, der berechnet, wie das zukünftige, nicht eingegebene Bild aussehen würde. Dieses Ergebnis gleichen die Wissenschaftler dann mit dem realen Bild ab. Die Größe der Abweichung zwischen Prognose und Realität, die Forscher nennen es „den Fehler“, dient dann als Eingabe für einen zweiten Algorithmus, den die Forscher mit Hilfe von maschinellem Lernen darauf trainiert haben, den Zusammenhang zwischen Fehlergröße und Auftreten eines Gewitters zu erkennen. Auf diese Weise können sie berechnen, ob es blitzt und donnert oder auch nicht. „Das ist die Stärke, wenn wir Künstliche Intelligenz auf große Datenmengen anwenden. Sie erkennt Muster, die uns verborgen bleiben“, erklärt Professor Dittrich. Auch aus diesem Grund hat er gerade zusammen mit weiteren Kolleginnen und Kollegen den neuen Bachelor- und Master-Studiengang „Data Science and Artificial Intelligence“ initiiert.

Bei Blitz und Donner sei diese Kombination auf jeden Fall „vielsprechend“, so Dittrich. „Alleine auf Basis der Satellitenbilder können wir Blitze mit einer Genauigkeit von 96 Prozent für die nächsten 15 Minuten vorhersagen. Wird das Zeitfenster der Vorhersage weiter geöffnet, verringert sich die Genauigkeit, bleibt aber bei bis zu fünf Stunden immer noch über 83 Prozent.“ Allerdings ist die Quote der Fehlalarme noch zu hoch, so die Forscher. Sie glauben jedoch, diese erheblich senken zu können, wenn sie ihr Modell auf weitere Merkmale trainieren, die beispielsweise auch das aktuell eingesetzte System NowcastMIX nutzt. Um dies genauer zu erforschen, hat das Bundesverkehrsministerium den Informatikern aus Saarbrücken bereits 270.000 Euro bewilligt.

Externer Link: www.uni-saarland.de

Fehler in Stromnetzen mit Künstlicher Intelligenz automatisiert erkennen

Presseinformation (Forschung Kompakt) der Fraunhofer-Gesellschaft vom 01.04.2019

Die Stromnetze verändern sich: Gab es in der Vergangenheit vor allem große, zentrale Stromerzeuger, kommen nun zunehmend kleine, dezentrale Erzeuger dazu. Um solche komplexen Netze stabil zu halten, ist hochauflösende Sensorik gefragt. Mit Künstlicher Intelligenz lassen sich genaue Prognosen anfertigen sowie Fehler und Anomalien automatisiert in Echtzeit erkennen. Fraunhofer-Forscher haben die erforderlichen Komprimierungsverfahren, Algorithmen und neuronalen Netze entwickelt, um die Stromübertragung fit für die Zukunft zu machen.

Die Stromversorgung wandelt sich: Statt den Strom ausschließlich über große Kraftwerke zu generieren, kommen zahlreiche dezentrale Stromquellen wie Windräder, Photovoltaikzellen und Co. hinzu. Dieser Umschwung wirkt sich auch auf die Stromnetze aus – vor allem die Betreiber von Übertragungsnetzen sehen sich großen Herausforderungen gegenüber. Laufen relevante Netzparameter wie Phase oder Winkel aus dem Ruder? Gibt es Abweichungen vom regulären Netzbetrieb, also Anomalien? Oder sind Leitungen oder Kraftwerke ausgefallen? Um solche Fragen beantworten zu können, reicht die übliche Messtechnik nicht mehr in jeder Situation aus. Sie wird daher zunehmend um Phasormessungen, kurz PMU, sowie um Digitalisierungstechnologien ergänzt: Die entsprechenden Messsysteme erfassen die Amplitude von Strom und Spannung bis zu 50-mal pro Sekunde. Aus den Daten lassen sich verschiedene relevante Parameter wie Frequenz, Spannung oder Phasenwinkel ermitteln. Die Datenmenge, die dabei entsteht, ist enorm – pro Tag kommen schnell mehrere Gigabyte an Daten zusammen.

Datenkompression: 80 Prozent der Daten einsparen

Forscher des Institutsteils Angewandte Systemtechnik AST des Fraunhofer-Instituts für Optronik, Systemtechnik und Bildauswertung IOSB in Ilmenau wollen die Datenauswertung nun durch Künstliche Intelligenz optimieren, die Netzsicherheit erhöhen und die Stromübertragung somit fit machen für die Zukunft. »Wir können bis zu 4,3 Millionen Datensätze pro Tag automatisiert erfassen, komprimieren und über Verfahren der Künstlichen Intelligenz auswerten«, fasst Prof. Peter Bretschneider, Leiter der Abteilung Energie am Fraunhofer IOSB-AST, zusammen. In einem ersten Schritt haben die Forscherinnen und Forscher Komprimierungsverfahren entwickelt, mit denen sich 80 Prozent der Daten einsparen lassen. Somit lassen sich die Daten nicht nur leichter speichern, sondern auch schneller und effizienter auswerten.

Datenauswertung: Automatisch und in Echtzeit

In einem zweiten Schritt lernten die Wissenschaftler mit den erhobenen Phasormessdaten neuronale Netze – also die Basis der Künstlichen Intelligenz – an. Sprich: Sie »fütterten« die neuronalen Netze mit Beispielen typischer Betriebsstörungen. Die Algorithmen lernen auf diese Weise Schritt für Schritt, normale Betriebsdaten von bestimmten Betriebsstörungen zu unterscheiden sowie exakt zu kategorisieren. Nach dieser Trainingsphase wendeten die Wissenschaftler die neuronalen Netze bei den aktuellen Daten aus den Phasormessungen an. Bisher konnten diese nur manuell und im Nachhinein ausgewertet werden. Der Algorithmus schafft hier erstmalig den Sprung in die Echtzeit: Er entscheidet automatisch innerhalb von Millisekunden, ob eine Anomalie oder ein Fehler vorliegt und gibt zusätzliche Auskunft über Ort und Art der Betriebsstörung. Ein Beispiel: Fällt etwa ein Kraftwerk aus, so steigt die Last für die anderen Kraftwerke abrupt an. Die Generatoren werden durch die große Last langsamer, die Frequenz des Wechselstroms sinkt. Nun sind schnelle Gegenmaßnahmen gefragt: Sinkt die Frequenz unter einen vorgegebenen Grenzwert, so müssen gegebenenfalls Netzabschnitte aus Gründen der Systemstabilität abgeschaltet werden. Schnell, das heißt mitunter: Unter 500 Millisekunden. Da der Algorithmus seine Entscheidung innerhalb von 20 bis 50 Millisekunden trifft, bleibt genügend Zeit, um vollautomatische Gegenmaßnahmen einzuleiten.

Der Algorithmus ist einsatzbereit, an der Steuerung und Regelung der Gegenmaßnahmen arbeiten die Forscher zurzeit. Die Entwicklung ist nicht nur für Betreiber großer, sogenannter Übertragungsnetze interessant, sondern auch für die der regionalen Verteilnetze. »Um eine Analogie zum Verkehr zu ziehen: Was nützt es, wenn die Autobahnen frei sind, doch die regionalen Straßen permanent verstopft?«, erläutert Bretschneider.

Vorhersage noch unbekannter Probleme

Die Forscher widmen sich jedoch nicht nur bereits bekannten Problemen, sondern wollen auch Anomalien berücksichtigen, die bisher noch gar nicht auftreten. »Gehen wir den Weg der erneuerbaren Energien weiter, kann dies künftig zu Phänomenen führen, die wir derzeit noch nicht kennen«, sagt Bretschneider. Auch hier setzen die Wissenschaftler auf die Künstliche Intelligenz. Genauer gesagt: Sie arbeiten daran, solche Phänomene zu kategorisieren und die erforderlichen Algorithmen zu entwickeln – und zwar anhand digitaler Netzabbildungen.

Externer Link: www.fraunhofer.de

Gesichtserkennung für Münzen

Presseinformation (Forschung Kompakt) der Fraunhofer-Gesellschaft vom 01.02.2019

In deutschen Landesmuseen lagern unzählige historische Münzen, die sich nur im Detail voneinander unterscheiden. Anders als Gemälde lassen sich diese archäologischen Fundstücke nicht beschriften oder durch Barcodes kennzeichnen. Forscherinnen und Forscher des Fraunhofer-Instituts für Fabrikbetrieb und -automatisierung IFF haben in Kooperation mit dem Landesamt für Denkmalpflege und Archäologie Sachsen-Anhalt einen Scanner und eine Auswertesoftware entwickelt, die die optischen Merkmale von Münzen in Sekundenschnelle digital erfassen und eindeutig beschreiben. Mithilfe des Messsystems können Münzfunde identifiziert und wiedererkannt werden.

Fälschung oder Original? Selbst Experten mit geschultem Auge tun sich schwer, diese Frage in Bezug auf historische Münzen zu beantworten. Wie können Fälschungen von Münzen erkannt werden, wenn sie beispielsweise von einer Verleihung an eine externe Ausstellung ins Museum zurückkommen? Wie lassen sich Vertauschungen und Verwechslungen beim Verleih der Exponate zwischen Museen vermeiden? Antworten auf diese Fragen suchten auch die Mitarbeiter des Landesamts für Denkmalpflege und Archäologie Sachsen-Anhalt. Rund 20 000 Münzen – oftmals mehrere Jahrhunderte alt – lagern in den Archiven und Tresoren des Amts, der Bestand wächst ständig. Die eindeutige Erfassung und Dokumentation der historischen Münzen, die in einer unüberschaubaren Form- und Variantenvielfalt vorliegen, ist mühsam und wird bislang manuell vorgenommen. Anders als Gemälde können die Münzen nicht beklebt und beschriftet oder mit einem Barcode versehen werden. Auf der Suche nach einer Lösung des Problems und im Rahmen einer Digitalisierungsoffensive des Landes Sachsen-Anhalt, die die Digitalisierung von Kulturgütern, archäologischen Funden und historischen Münzen umfasst, wandte sich das Landesamt an das Fraunhofer IFF in Magdeburg.

Digitaler Fingerabdruck für archäologische Funde

»Ziel des Landesamts war es, den kompletten Münzbestand zu digitalisieren. Dabei entstand die Idee, einen digitalen Fingerabdruck zu erstellen, mit dem man die einzelnen Münzen wiedererkennen und klassifizieren kann – ähnlich der Gesichtserkennung beim Menschen. Der Fingerabdruck ersetzt quasi den Barcode«, beschreibt Dr. Christian Teutsch, Wissenschaftler am Fraunhofer IFF, den ersten Kontakt mit dem Landesamt für Denkmalpflege. Um dies zu realisieren und eine eindeutige Signatur der Münzen zu ermöglichen, konzipierten die Projektpartner in enger Zusammenarbeit im Projekt »Digitaler Fingerabdruck für archäologische Funde – Prototyp für die Individualisierung und Wiedererkennung von Fundstücken« ein optisches Datenerfassungssystem und Softwareanalyseverfahren, das die alten Münzen digital erfasst und eindeutig beschreibt. Das Messsystem sollte eine Wiedererkennungsrate von über 98 Prozent erzielen, berührungslos arbeiten und die beidseitige Datenerfassung gewährleisten. Geprüft werden sollen Gold-, Silber-, Bronze- und Kupfermünzen mit einem Durchmesser von fünf bis 75 Millimeter.

Fälschungen aufspüren

Der neuartige Scanner O.S.C.A.R. – kurz für Optical System for Coin Analysis and Recognition – erfasst nicht nur die optischen Merkmale der Münzen, sondern auch feinste Gebrauchsspuren wie Kratzer, Abbrüche, Konturen, Ecken, Vertiefungen und Dellen, die ein Objekt einzigartig machen. Dies ist unabdingbar, um viele Münzen des gleichen Typs identifizieren zu können. »Es ist naheliegend, dass man Veränderungen feststellen kann, wenn man eine Münze zweimal scannt. Hat man Münzen verliehen, kann man somit bei der Zurücknahme prüfen, ob beispielsweise Kratzer hinzugekommen sind, ob das Fundstück beschädigt wurde oder ob es sich gar um ein Plagiat handelt«, sagt der Ingenieur, Mitarbeiter der Abteilung »Mess- und Prüftechnik«.

Variable Lichtquellenverschiebung auf den digitalisierten Münzen

Der Scanner umfasst mehrere Kameras sowie mehrere Lichtquellen, die die Münzen aus unterschiedlichen Richtungen beleuchten und hochgenaue Auflösungen und Vergrößerungen erlauben. So können Teutsch und sein Team alle Merkmale hervorheben und erfassen, ohne dass Spiegelungen und Reflektionen auftreten. »Die Lichtquellen lassen sich am Bildschirm virtuell drehen und beliebig über die Münzoberflächen ziehen. Das ist ein großer Vorteil für Numismatiker, die nun nur sehr schlecht zu erkennende Ober- und Unterseiten schneller und exakter identifizieren können«, betont Teutsch.

Der Digitalisierungsvorgang selbst ist einfach: Die Münzen werden einzeln unter den Scanner gelegt, nachdem zuvor ein Barcode gescannt wurde, der sich auf der zugehörigen Tüte befindet. Ein Knopfdruck genügt, um das Gerät zu starten. Mithilfe eines eigens entwickelten optischen Analyseverfahrens werden die Farb- und Oberflächeneigenschaften der historischen Fundstücke rekonstruiert. Der Scanner erfasst mehr als 1000 optische Merkmale pro Münze. Die aufgenommenen Bilder werden als Messdaten interpretiert. Referenzmuster und Farbtafeln sorgen dafür, dass alle Bilder normiert und der Farbraum vergleichbar ist. Somit ist gesichert, dass sich die Bilddaten zwischen verschiedenen Institutionen vergleichen lassen. Im nächsten Schritt werden sämtliche Messdaten an die Auswertesoftware übertragen, die die Daten nutzt, um den digitalen Fingerabdruck zu berechnen. »Die Software nimmt den Münzvergleich mit der Datenbank vor, sprich sie sucht nach der Signatur. Bisher gab es die Möglichkeit der Identifizierung nicht. Fiel eine Tüte zu Boden und die Münze aus der Tüte, so waren das Wissen um den Fundort und andere Informationen verloren«, so Teutsch. Jetzt sind die Landesämter und -museen der Bundesländer zusätzlich in der Lage, die Münzfunde der Öffentlichkeit zugänglich machen. Darüber hinaus ist die Vergleichbarkeit der Münzdatenbanken aller Bundesländer gegeben. Auch die Zusammenarbeit mit der KENOM-Datenbank, einer länderübergreifenden Datenbank für Münzen, wird auf eine neue Ebene gehoben. Anhand der digitalen Daten können Numismatiker die Beziehungen zwischen verschiedenen Münzen oder Fundorten und damit historische Nutzungszusammenhänge herstellen.

Bereits 10 000 Münzen digitalisiert

Das neue Messsystem ermöglicht die automatische Digitalisierung und Dokumentation des Münzbestands, die bislang mühselige Arbeit wird enorm beschleunigt. Die Projektpartner haben bereits 10 000 Münzen eingescannt, bald soll der komplette Bestand von 20 000 Exemplaren digitalisiert sein.

Münzforscher zeigten sich nach einer ersten Präsentation des Prototyps begeistert. »Das neue Messsystem wird die Münzforschung in Europa revolutionieren«, resümiert Teutsch. Der Clou: Mit der Anwendung lassen sich potenziell auch Gemälde analysieren, da das System auch Pinselstriche erfasst. Farben kann man fälschen, die exakte Pinselführung jedoch nicht. »Wir erkennen mit unserer Lösung garantiert jeden Van Gogh. Ein Plagiat ließe sich aufgrund der Unterschiede in den Details der Farbaufträge und Erhebungen durch die Pinselhaare sofort identifizieren.«

Externer Link: www.fraunhofer.de