Isolatoren bringen Quantenbits zum Schwitzen

Presseaussendung der Universität Innsbruck vom 14.06.2021

Schwachleitende oder nichtleitende Materialien haben Innsbrucker Physiker um Tracy Northup als wichtige Quelle für Störungen in Ionenfallen-Quantencomputern identifiziert. Sie haben eine neue Methode entwickelt, mit der diese Fehlerquelle erstmals quantifiziert werden kann. Um Quantencomputer mit sehr vielen Quantenbits betreiben zu können, müssen solche Störquellen schon in der Entwicklung möglichst vermieden werden.

Quantentechnologien basieren auf den quantenmechanischen Eigenschaften von Licht, Elektronen und Atomen. In den vergangenen Jahrzehnten hat die Wissenschaft gelernt, diese Phänomene zu beherrschen und in Anwendungen auszunutzen. So rückt auch der Bau eines Quantencomputers für kommerzielle Anwendungen in greifbare Nähe. Eine der Technologien, die derzeit sehr erfolgreich vorantrieben wird, sind Ionenfallen-Quantencomputer. Hier werden geladene Teilchen mit elektromagnetischen Feldern in einer Vakuumkammer gefangen und so präpariert, dass sie als Träger für Information dienen und mit ihnen gerechnet werden kann. Die quantenmechanischen Eigenschaften, die man sich dabei zunutze macht, sind allerdings sehr störungsanfällig. Schon kleinste Unzulänglichkeiten können die stark gekühlten Teilchen aufheizen und so zu Fehlern bei der Verarbeitung der Quanteninformation führen. Eine mögliche Quelle für solche Störungen sind schwach- oder nichtleitende Materialien, die zum Beispiel als Isolatoren in den metallischen Ionenfallen zum Einsatz kommen, oder etwa Optiken, die für die Kopplung mit Laserlicht notwendig sind. „Selbst bei Ionenfallen, die ausschließlich aus Metall bestehen, würden Oxidschichten auf den Metallen solche Störungen verursachen“, erläutert Tracy Northup vom Institut für Experimentalphysik der Universität Innsbruck. Northups Team hat zusammen mit Kooperationspartnern in Innsbruck und in den USA einen Weg gefunden, wie der Einfluss dielektrischer Materialien auf die geladenen Teilchen in Ionenfallen bestimmt werden kann.

Experimentell bestätigt

Gelungen ist den Innsbrucker Quantenphysikern dies, weil sie über eine Ionenfalle verfügen, in der sie den Abstand zwischen den Ionen und dielektrischen Optiken genau einstellen können. Basierend auf einem früheren Vorschlag der Arbeitsgruppe um Rainer Blatt haben die Physiker den Umfang des durch das dielektrische Material verursachten Rauschens für diese Ionenfalle rechnerisch ermittelt und mit Daten aus dem Experiment verglichen. „Theorie und Experiment stimmen sehr gut überein und bestätigen, dass diese Methode gut dafür geeignet ist, den Einfluss von dielektrischen Materialien auf die Ionen zu bestimmen“, erklärt Markus Teller aus dem Innsbrucker Team. Bei der Berechnung des Rauschens kam das sogenannte Fluktuations-Dissipations-Theorem aus der Statistischen Physik zur Anwendung, das die Reaktion eines Systems im thermischen Gleichgewicht auf eine kleine äußere Störung mathematisch beschreibt.

„In Quantencomputern gibt es viele mögliche Quellen für Störungen, und es ist sehr schwierig die genauen Ursachen auseinander zu halten“, sagt Tracy Northup. „Mit unserer Methode gelingt es erstmals, den Einfluss dielektrischer Materialien auf die in Ionenfallen gefangenen Teilchen zu quantifizieren. Die Entwickler von Ionenfallen-Quantencomputern werden in Zukunft diesen Einfluss viel besser einschätzen können und ihre Geräte so konstruieren, dass diese Störungen minimiert werden.“ Nachdem die Innsbrucker Physiker die Methode an ihrer eigenen Ionenfallen erprobt haben, wollen sie nun deren Einsatz an Ionenfallen befreundeter Forschungsgruppen in den USA und der Schweiz erproben.

Finanziell unterstützt wurden die Forschungen unter anderem vom österreichischen Wissenschaftsfonds FWF und der Europäischen Union. Veröffentlicht wurde die neue Methode in der Fachzeitschrift Physical Review Letters.

Originalpublikation:
Heating of a trapped ion induced by dielectric materials. Markus Teller, Dario A. Fioretto, Philip C. Holz, Philipp Schindler, Viktor Messerer, Klemens Schüppert, Yueyang Zou, Rainer Blatt, John Chiaverini, Jeremy Sage, and Tracy E. Northup. Phys. Rev. Lett. 126, 230505

Externer Link: www.uibk.ac.at

Neues Protokoll macht Bitcoin-Transaktionen sicherer

Presseaussendung der TU Wien vom 04.05.2021

An der TU Wien wurde ein Protokoll entwickelt, das Transaktionen mit Kryptowährungen wie Bitcoin schneller und sicherer macht.

Kryptowährungen wie Bitcoin werden immer populärer. Auf den ersten Blick haben sie viele Vorteile: Transaktionen sind normalerweise anonym, schnell und kostengünstig. Aber manchmal gibt es dabei auch Probleme. In bestimmten Situationen sind Betrügereien möglich, User können Information über andere User ermitteln, die eigentlich geheim bleiben sollte, und manchmal kommt es zu Verzögerungen.

Der Forschungsbereich „Security and Privacy“ der TU Wien (Lukas Aumayr und dessen Dissertationsbetreuer Prof. Matteo Maffei) hat in Kollaboration mit dem IMDEA Software Institute (Prof. Pedro Moreno-Sanchez, zuvor Postoc an der TU Wien) und der Purdue University (Prof. Aniket Kate) diese Probleme analysiert und ein verbessertes Protokoll entwickelt. Dieses wurde nun veröffentlicht und wird in diesem Jahr beim USENIX Security Symposium präsentiert – einer der „Big Four“ IT-Sicherheitskonferenzen weltweit, die als äußerst prestigeträchtig gelten.

Der Bitcoin-Strom ist nur ein Bächlein

„Schon lange weiß man, dass Bitcoin und andere Blockchain-Technologien ein Skalierungsproblem haben: Es kann nur maximal zehn Transaktionen pro Sekunde geben“, sagt Lukas Aumayr vom Security and Privacy Forschungsbereich der TU Wien. „Das ist sehr wenig, verglichen etwa mit Kreditkartenfirmen, die weltweit zehntausende Transaktionen pro Sekunde durchführen.“

Aus diesem Grund hat man das sogenannte „Lightning Netzwerk“ entwickelt – ein zusätzliches Netz an Transaktionskanälen zwischen Blockchain-Usern. Wenn etwa zwei Personen in kurzer Zeit viele Transaktionen abwickeln möchten, können sie Zahlungen auf diese Weise direkt untereinander austauschen, ohne dass jede einzelne Transaktion in der Blockchain sichtbar wird. Nur zu Beginn und am Ende dieser Serie an Transaktionen kommt es zu einem offiziellen Eintrag in der Blockchain.

Diese „Seitenzweige“ der Blockchain können auch relativ kompliziert gestaltet werden, mit Ketten aus mehreren Usern. „Dabei können Probleme entstehen“, sagt Lukas Aumayr. „In bestimmten Fällen können User dann an Daten über andere User gelangen. Außerdem muss jeder in dieser Kette einen gewissen Geldbetrag einbringen, der als Sicherheit gesperrt wird. Manchmal scheitert eine Transaktion, und dann kann es passieren, dass viel Geld relativ lange gesperrt bleibt – je mehr Personen beteiligt sind, umso länger.“

Schwachstellen mathematisch ausschließen

Das Forschungsteam an der TU Wien analysierte, wie sich dieses Transaktionsprotokoll verbessern lässt, und entwickelte eine Alternativvariante. „Man kann die Sicherheit solcher Protokolle mit formalen Methoden analysieren. Wir können also mathematisch beweisen, dass unser neues Protokoll bestimmte Fehler und Probleme in keiner Situation erlaubt“, sagt Aumayr.

So kann man ganz bestimmte sicherheitskritische Attacken ausschließen, die bisher möglich waren, und auch langfristige Geldsperren verhindern: „Bisher waren zwei Kommunikationsrunden nötig: In der ersten Runde wird das Geld gesperrt, in der 2. Runde wird es freigegeben – oder zurückgebucht, wenn es Probleme gab. Das kann bedeuten, dass für jeden User in dieser Kette ein zusätzlicher Tag an Verzögerung auftritt. Bei unserem Protokoll muss die Kommunikationskette nur einmal durchlaufen werden“, erklärt Lukas Aumayr.

Simulation beweist Praxistauglichkeit

Wichtig ist aber nicht nur die fundamentale logische Struktur des neuen Protokolls, sondern auch seine Praxistauglichkeit. Daher simulierte das Team in einem virtuellen Transaktionsnetzwerk, wie sich die neue Technologie verglichen mit dem bisherigen Lightning-Netzwerk verhält. Dabei wurden die Vorteile des neuen Protokolls besonders gut sichtbar: Je nach Situation, etwa abhängig davon, ob es Attacken und Betrugsversuche gibt oder nicht, gibt es durch das neues Protokoll um einen Faktor 4 bis 33 weniger fehlgeschlagene Transaktionen als mit dem herkömmlichen Lightning-Netzwerk.

Das Team der TU Wien ist bereits in Kontakt mit den Betreiberorganisationen des Lightning-Netzwerks. „Wir hoffen natürlich, dass unsere Technologie rasch eingesetzt wird, oder zumindest als sicherere Alternative zur bisherigen Technologie angeboten wird“, sagt Lukas Aumayr. „Technisch wäre das sofort umsetzbar.“ (Florian Aigner)

Originalpublikation:
L. Aumayr, P. Moreno-Sanchez, A. Kate, M. Maffei, Blitz: Secure Multi-Hop Payments Without Two-Phase Commits, USENIX Security Symposium 2021

Externer Link: www.tuwien.at

Gemälde aus dem Drucker: Informatik-Masterstudent verbessert Verfahren zum Drucken von Kunstwerken

Pressemitteilung der Universität des Saarlandes vom 06.04.2021

Kann man qualitativ hochwertige Kunstdrucke mit handelsüblichen Tintenstrahldruckern herstellen? Ein Informatik-Masterstudent der Universität des Saarlandes zeigt in seiner Abschlussarbeit, dass dies geht. Dazu hat er einen Algorithmus entwickelt, der den optischen Fingerabdruck eines Gemäldes analysieren und genau reproduzieren kann.

Der Informatik-Student Navid Ansari hat sich in seiner Masterarbeit mit ‚Spektraler Reproduktion‘ beschäftigt. „Spektrale Reproduktion ist ein Verfahren, das eine exakte spektrale Kopie einer Vorlage erzeugen kann, die genau dieselben optischen Eigenschaften wie das Original aufweist“, sagt Navid Ansari. In seinem Forschungsprojekt nutzt er das Verfahren, um Aquarellgemälde zu reproduzieren. „Im Gegensatz zu einer reinen Farbkopie sieht die spektrale Reproduktion eines Gemäldes auch bei unterschiedlicher Beleuchtung genauso aus wie das Original“, ergänzt der Student. Das macht das Verfahren vor allem für Kunstdrucke in Museen oder von Künstlern interessant.

In dem neuartigen Druckverfahren werden zunächst repräsentative Punkte einer Vorlage ermittelt. Diese sogenannten „Core-Sets“ bilden das gesamte Farbspektrum des zu druckenden Bildes ab. Basierend auf diesen „Core-Sets“ berechnet ein Optimierungsalgorithmus, welche Tinten das beste Druckergebnis erzielen werden. Anders als bei bisherigen Verfahren bezieht sich der neuartige Algorithmus nicht auf die Reflexionswerte der Farben, sondern auf deren Absorptionswerte – also darauf, wie viel Licht eine mit der Farbe bedeckte Oberfläche absorbiert. „Diese Umkehrung löst eines der größten Probleme der spektralen Reproduktion, da die Komplexität der Berechnungen drastisch reduziert wird. Damit ist unser Ansatz der erste, der das Problem mit vertretbarem Rechenaufwand lösen kann, auch für größere Farb-Bibliotheken“, sagt Navid Ansari.

Die Forscher mussten dazu ihre Ausgangsmaterialien optimieren: „Herkömmliche Tintenstrahldrucker verwenden vorgefertigte Tintenpatronen, die feste optische Eigenschaften haben. Mit einer derart begrenzten Materialauswahl ist eine optimale spektrale Reproduktion nicht möglich. Deshalb mussten wir die Tintenauswahl erweitern“, sagt Navid Ansari. Dazu haben die Wissenschaftler eine Auswahl von 43 geeigneten Tinten erstellt. Der Druckvorgang wurde dann auf einem handelsüblichen Tintenstrahldrucker mit der erweiterten Tinten-Auswahl durchgeführt. Die Bilder für ihre Forschung haben die Wissenschaftler von der Künstlerin Azadeh Asadi erhalten.

Seine Masterarbeit hat Navid Ansari in der Forschungsgruppe „Computation, Appearance and Manufacturing“ am Saarbrücker Max-Planck-Institut für Informatik am Saarland Informatics Campus verfasst. Die Gruppe unter Leitung des promovierten Informatikers Vahid Babaei untersucht, wie das volle Potenzial moderner Fertigungsmethoden wie zum Beispiel 3D-Druck oder Lasermarkierung ausgeschöpft werden kann. „Wir erforschen, welche Möglichkeiten in neuen Geräten stecken und entwickeln die Algorithmen, um sie optimal zu nutzen“, sagt Vahid Babaei. Aufbauend auf Navid Ansaris Ergebnissen werden die Informatiker künftig unter anderem erforschen, wie die Konzepte hinter dem neuartigen Optimierungsalgorithmus in anderen Kontexten wie beispielsweise dem 3D-Druck die Materialauswahl verbessern können.

Externer Link: www.uni-saarland.de

Schneller und einfacher Zugriff auf Maschinendaten

Presseinformation (Forschung Kompakt) der Fraunhofer-Gesellschaft vom 01.04.2021

Daten sind die Währung der Zukunft. Aber wie können Unternehmen auf die immensen Datenmengen aus ihrem Maschinenpark zugreifen, um die Produktion zu modernisieren? Forscher am Fraunhofer-Institut für Produktionstechnik und Automatisierung IPA haben mit StationConnector eine Software entwickelt, die die Daten ausliest und sie beliebigen Anwendungen zur Verfügung stellt. Die IPA-Informatiker haben ein eigenes Unternehmen gestartet und gehen mit der Software auf den Markt. Data Coffee – so der Name der Ausgründung.

Nicht nur das schiere Volumen, auch die Vielfalt der Daten steigt in Produktionsunternehmen exponentiell an. Richtig genutzt, können sie von großem Nutzen für die Planung und Optimierung von Geschäftsprozessen sein. Doch ein Maschinenpark ist in der Regel inhomogen, er umfasst Geräte verschiedener Generationen und Hersteller mit nicht aufeinander abgestimmten Formaten und Protokollen – gerade in mittelständischen Unternehmen ist dies häufig der Fall. Aufgrund der unterschiedlichen Steuerungen und Schnittstellen ist es problematisch und aufwendig, Maschinendaten abzugreifen und auszuwerten.

Bindeglied zwischen Steuerungstechnik und IT

Genau hier setzt die Software StationConnector an, indem sie eine einheitliche Schnittstelle über alle Anlagen hinweg bietet. So kann sie Daten einfach und anwendungsspezifisch zwischen Industrieprotokollen, Steuerungen und beliebigen IT-Systemen vermitteln. Station Connector stellt Parameter wie etwa Stromverbrauch, Drehgeschwindigkeit, Temperatur und Winkelposition beliebigen Anwendungen einheitlich zur Verfügung – unabhängig davon, welche Auslesegeschwindigkeit diese erfordern. »Maschinelles Lernen erfordert eine hohe Datenrate, Monitoring dagegen kommt mit einer geringen Rate aus. Mit StationConnector etablieren wir quasi eine unabhängige Softwareebene zwischen den Anlagen und den Systemen oder Datenbanken, die diese Daten später nutzen«, informiert Marcus Defranceski, Wissenschaftler am Fraunhofer IPA in Stuttgart. Gemeinsam mit seinen Kollegen Fabian Böttinger und Fabian Schulz hat der Informatiker den Daten-Dolmetscher entwickelt. Das große Plus: StationConnector bietet Unternehmen maximale Flexibilität, diese können ihre Maschinendaten nun eigenständig und unabhängig verwalten und nach Bedarfslage anpassen. Denn oftmals wissen Firmen noch nicht, wie sie ihre Produktion modernisieren wollen und in welcher Form sie die Daten benötigen. »Mit unserer Software müssen sich Produktionsunternehmen nicht zu früh und zu schnell festlegen«.

Liegen die Daten dann im richtigen Format vor, kann beispielsweise die Anlageneffizienz ausgewertet, die Produktionskapazität erhöht oder datenbasierte Geschäftsmodelle etabliert werden. Die Einsatzmöglichkeiten definiert der Kunde. »Durch die verfügbaren Daten wird eine neue Transparenz geschaffen, die eine bessere Produktionssteuerung erlaubt und Potenziale in der Prozessoptimierung aufdeckt«, sagt der Informatiker.

Informatikkenntnisse sind für die Bedienung der Software nicht erforderlich, die Konfiguration ist selbsterklärend. Die Maschinen können während der Installation weiterlaufen. Bei der Auswahl der benötigten Informationen und Variablen gibt es keine Beschränkung, der Kunde entscheidet, welche Daten er verarbeiten will. Ein automatisiertes Auslesen lässt sich einrichten, um Produktionseinbußen rechtzeitig zu erkennen und schnell auf Ausfälle reagieren zu können.

StationConnector interpretiert die unterschiedlichsten Protokolle, die modular erweiterbar sind. Die Software läuft sowohl auf dem lokalen Einzel-PC als auch auf Produktionsservern und in der Cloud. Die ausgelesenen Daten lassen sich auf den meisten mobilen Geräten und Desktoprechnern graphisch darstellen, um einen ersten visuellen Eindruck zu vermitteln.

Ausgründung Data Coffee gestartet

Die Software hat sich im Praxiseinsatz bewährt, sie ist bereits in Produktionsbetrieben im Einsatz. Auf dem Teststand am Fraunhofer IPA läuft sie im Dauereinsatz.

Seit Februar dieses Jahres können interessierte Unternehmen die Software lizenzieren. Marcus Defranceski und seine beiden Kollegen vom Fraunhofer IPA haben mit Data Coffee ein eigenes Unternehmen gestartet. Die Ausgründung hat ihren Sitz in Horb. Zunächst wird StationConnector weiter für produzierende Betriebe optimiert, nächstes Jahr wird die Software dann auch Anlagenherstellern zur Verfügung stehen, um diesen den Weg zu neuen, eigenen digitalen Geschäftsmodellen zu erleichtern.

Externer Link: www.fraunhofer.de

Datenwissenschaft und künstliche Intelligenz für das Gemeinwohl

Medienmitteilung der ETH Zürich vom 25.03.2021

Das Bundesamt für Statistik (BFS) arbeitet mit dem «Swiss Data Science Center» der beiden Eidgenössischen Technischen Hochschulen zusammen, um die Nutzung der Datenwissenschaft und der künstlichen Intelligenz innerhalb der Bundesverwaltung voranzutreiben.

Die Digitalisierung der Gesellschaft erfordert bei Institutionen immer mehr Kompetenzen im Bereich Datenwissenschaft. Vor allem auf künstlicher Intelligenz basierende Ansätze müssen sicher und für die ganze Gesellschaft nutzbringend einsetzbar sein. In diesem Hinblick schliesst sich das BFS in seiner Vorreiterrolle innerhalb der Bundesverwaltung mit dem von den Eidgenössischen Technischen Hochschulen gemeinsam betriebenen «Swiss Data Science Center» (SDSC) zusammen.

Martin Vetterli, Präsident der Eidgenössischen Technischen Hochschule in Lausanne (EPFL), meint zu dieser Zusammenarbeit: «Ich freue mich sehr über diese strategische Partnerschaft zwischen unseren beiden Hochschulen und dem BFS im Rahmen eines gemeinsamen Flaggschiffprojekts. Sie erinnert an die Partnerschaft zwischen dem AlanTuring Institute in London und dem British Office for National Statistics, die sich ebenfalls gemeinsam für die Forschung und Innovation im Bereich der Datenwissenschaft einsetzen.»

Eine Zusammenarbeit auf drei Ebenen

BFS für Datenwissenschaft (DSCC) verstärkt. Die EPFL und die ETH Zürich unterstützen das BFS dabei, passende Kompetenzprofile für das DSCC zu ermitteln und die nötigen Fachpersonen zu rekrutieren. Die Mitarbeitenden werden zudem eingeladen, das SDSC «in residence» zu besuchen, um ihre Kompetenzen weiterzuentwickeln und sich mit den anderen in der Datenwissenschaft tätigen Akteuren in der Schweiz zu vernetzen. Schliesslich können die Partner prioritäre Projekte des DSCC bestimmen und sie gemeinsam umsetzen.

Eine zweite Ebene der Zusammenarbeit betrifft die Infrastruktur. Das DSCC wird die vom SDSC entwickelte Open-​Source-Plattform RENKU nutzen. RENKU ist in das akademische Netzwerk SWITCH integriert und ermöglicht die für das BFS zentrale Zusammenarbeit und Reproduzierbarkeit in den Bereichen Datenwissenschaft und künstliche Intelligenz. Das SDSC hat dafür für das BFS eine spezifische Instanz von RENKU geschaffen, die gewährleisten soll, dass die gesetzlichen Datenschutzgrundsätze systematisch umgesetzt werden. Die Daten verlassen in keiner Weise die Schweiz.

Drittens soll die Zusammenarbeit innerhalb der Bundesverwaltung das Verständnis fördern sowie den Wissenstransfer und Erfahrungsaustausch in den Bereichen Datenwissenschaft und künstliche Intelligenz gewährleisten.

Digitalisierung und öffentliche Verwaltung

«Mit dieser Partnerschaft hat das BFS die Möglichkeit, den für die Bundesverwaltung grundlegenden Auftrag zu erfüllen, den es im Mai 2020 vom Bundesrat erhalten hat», freut sich Georges-​Simon Ulrich, Direktor des BFS. «Über das per 1. Januar 2021 eingerichtete DSCC kann das BFS nun die Herausforderungen angehen, die mit den tiefgreifenden Veränderungen in der Welt der Daten und der zunehmenden Verwendung von Algorithmen im öffentlichen Sektor einhergehen.»

Konkret erbringt das DSCC datenwissenschaftliche Dienstleistungen für die gesamte Bundesverwaltung. Dazu bemüht es sich auch um eine Zusammenarbeit mit den anderen öffentlichen Verwaltungseinheiten (Kantone und Gemeinden). Das DSCC arbeitet im Grenzbereich der Datenwissenschaft und der künstlichen Intelligenz. Seine Aufgabe besteht darin, Kompetenzen zu entwickeln, um Methoden, Techniken und Praktiken aus der Datenwissenschaft und der künstlichen Intelligenz zu nutzen, die zu einem neuen Verständnis dieser Themen in der Politik beitragen. Dadurch soll die Entscheidungsfindung zum Wohl der Öffentlichkeit unter Einhaltung der ethischen Grundsätze verbessert werden.

Joël Mesot, Präsident der ETH Zürich, betont die Bedeutung dieser Partnerschaft: «Der Einsatz der Datenwissenschaft und der künstlichen Intelligenz im Dienst des Gemeinwohls ist eine der grössten Herausforderungen der Gegenwart. Die beiden ETHs sind stolz, ihr Knowhow in der Bundesverwaltung einbringen und sie dabei unterstützen zu können, die nötigen Kompetenzen aufzubauen, um der Gesellschaft als Ganzes einen Nutzen bringen zu können.»

Über das Swiss Data Science Center (SDSC)

2017 lancierte der ETH-​Rat eine nationale Initiative zur Förderung der Datenwissenschaft. Als wesentlichen Schritt zu diesem Ziel haben die ETH Zürich und die EPFL gemeinsam das Swiss Data Science Center (SDSC) gegründet. Es soll die Innovation in der Datenwissenschaft, die bereichsübergreifende Forschung und eine offene Wissenschaft fördern. Die Aufgabe des SDSC besteht darin, die Nutzung der Datenwissenschaft und des maschinellen Lernens im akademischen und industriellen Bereich voranzutreiben.

Externer Link: www.ethz.ch