technologiewerte.de – MOOCblick April 2021

Spannende Themen, herausragende Dozenten und flexible Lernmöglichkeiten tragen zum wachsenden Erfolg der Massively Open Online Courses (MOOCs) bei – offene, internetgestützte Kurse mit einer Vielzahl an Teilnehmern rund um den Globus.

Folgender Kurs – zu finden auf der MOOC-Plattform edX – sollte einen Blick wert sein:

Railway Engineering: An Integral Approach
Rolf Dollevoet (TU Delft)
Start: 14.04.2021 / Arbeitsaufwand: 24-36 Stunden

Externer Link: www.edx.org

Schneller und einfacher Zugriff auf Maschinendaten

Presseinformation (Forschung Kompakt) der Fraunhofer-Gesellschaft vom 01.04.2021

Daten sind die Währung der Zukunft. Aber wie können Unternehmen auf die immensen Datenmengen aus ihrem Maschinenpark zugreifen, um die Produktion zu modernisieren? Forscher am Fraunhofer-Institut für Produktionstechnik und Automatisierung IPA haben mit StationConnector eine Software entwickelt, die die Daten ausliest und sie beliebigen Anwendungen zur Verfügung stellt. Die IPA-Informatiker haben ein eigenes Unternehmen gestartet und gehen mit der Software auf den Markt. Data Coffee – so der Name der Ausgründung.

Nicht nur das schiere Volumen, auch die Vielfalt der Daten steigt in Produktionsunternehmen exponentiell an. Richtig genutzt, können sie von großem Nutzen für die Planung und Optimierung von Geschäftsprozessen sein. Doch ein Maschinenpark ist in der Regel inhomogen, er umfasst Geräte verschiedener Generationen und Hersteller mit nicht aufeinander abgestimmten Formaten und Protokollen – gerade in mittelständischen Unternehmen ist dies häufig der Fall. Aufgrund der unterschiedlichen Steuerungen und Schnittstellen ist es problematisch und aufwendig, Maschinendaten abzugreifen und auszuwerten.

Bindeglied zwischen Steuerungstechnik und IT

Genau hier setzt die Software StationConnector an, indem sie eine einheitliche Schnittstelle über alle Anlagen hinweg bietet. So kann sie Daten einfach und anwendungsspezifisch zwischen Industrieprotokollen, Steuerungen und beliebigen IT-Systemen vermitteln. Station Connector stellt Parameter wie etwa Stromverbrauch, Drehgeschwindigkeit, Temperatur und Winkelposition beliebigen Anwendungen einheitlich zur Verfügung – unabhängig davon, welche Auslesegeschwindigkeit diese erfordern. »Maschinelles Lernen erfordert eine hohe Datenrate, Monitoring dagegen kommt mit einer geringen Rate aus. Mit StationConnector etablieren wir quasi eine unabhängige Softwareebene zwischen den Anlagen und den Systemen oder Datenbanken, die diese Daten später nutzen«, informiert Marcus Defranceski, Wissenschaftler am Fraunhofer IPA in Stuttgart. Gemeinsam mit seinen Kollegen Fabian Böttinger und Fabian Schulz hat der Informatiker den Daten-Dolmetscher entwickelt. Das große Plus: StationConnector bietet Unternehmen maximale Flexibilität, diese können ihre Maschinendaten nun eigenständig und unabhängig verwalten und nach Bedarfslage anpassen. Denn oftmals wissen Firmen noch nicht, wie sie ihre Produktion modernisieren wollen und in welcher Form sie die Daten benötigen. »Mit unserer Software müssen sich Produktionsunternehmen nicht zu früh und zu schnell festlegen«.

Liegen die Daten dann im richtigen Format vor, kann beispielsweise die Anlageneffizienz ausgewertet, die Produktionskapazität erhöht oder datenbasierte Geschäftsmodelle etabliert werden. Die Einsatzmöglichkeiten definiert der Kunde. »Durch die verfügbaren Daten wird eine neue Transparenz geschaffen, die eine bessere Produktionssteuerung erlaubt und Potenziale in der Prozessoptimierung aufdeckt«, sagt der Informatiker.

Informatikkenntnisse sind für die Bedienung der Software nicht erforderlich, die Konfiguration ist selbsterklärend. Die Maschinen können während der Installation weiterlaufen. Bei der Auswahl der benötigten Informationen und Variablen gibt es keine Beschränkung, der Kunde entscheidet, welche Daten er verarbeiten will. Ein automatisiertes Auslesen lässt sich einrichten, um Produktionseinbußen rechtzeitig zu erkennen und schnell auf Ausfälle reagieren zu können.

StationConnector interpretiert die unterschiedlichsten Protokolle, die modular erweiterbar sind. Die Software läuft sowohl auf dem lokalen Einzel-PC als auch auf Produktionsservern und in der Cloud. Die ausgelesenen Daten lassen sich auf den meisten mobilen Geräten und Desktoprechnern graphisch darstellen, um einen ersten visuellen Eindruck zu vermitteln.

Ausgründung Data Coffee gestartet

Die Software hat sich im Praxiseinsatz bewährt, sie ist bereits in Produktionsbetrieben im Einsatz. Auf dem Teststand am Fraunhofer IPA läuft sie im Dauereinsatz.

Seit Februar dieses Jahres können interessierte Unternehmen die Software lizenzieren. Marcus Defranceski und seine beiden Kollegen vom Fraunhofer IPA haben mit Data Coffee ein eigenes Unternehmen gestartet. Die Ausgründung hat ihren Sitz in Horb. Zunächst wird StationConnector weiter für produzierende Betriebe optimiert, nächstes Jahr wird die Software dann auch Anlagenherstellern zur Verfügung stehen, um diesen den Weg zu neuen, eigenen digitalen Geschäftsmodellen zu erleichtern.

Externer Link: www.fraunhofer.de

Datenwissenschaft und künstliche Intelligenz für das Gemeinwohl

Medienmitteilung der ETH Zürich vom 25.03.2021

Das Bundesamt für Statistik (BFS) arbeitet mit dem «Swiss Data Science Center» der beiden Eidgenössischen Technischen Hochschulen zusammen, um die Nutzung der Datenwissenschaft und der künstlichen Intelligenz innerhalb der Bundesverwaltung voranzutreiben.

Die Digitalisierung der Gesellschaft erfordert bei Institutionen immer mehr Kompetenzen im Bereich Datenwissenschaft. Vor allem auf künstlicher Intelligenz basierende Ansätze müssen sicher und für die ganze Gesellschaft nutzbringend einsetzbar sein. In diesem Hinblick schliesst sich das BFS in seiner Vorreiterrolle innerhalb der Bundesverwaltung mit dem von den Eidgenössischen Technischen Hochschulen gemeinsam betriebenen «Swiss Data Science Center» (SDSC) zusammen.

Martin Vetterli, Präsident der Eidgenössischen Technischen Hochschule in Lausanne (EPFL), meint zu dieser Zusammenarbeit: «Ich freue mich sehr über diese strategische Partnerschaft zwischen unseren beiden Hochschulen und dem BFS im Rahmen eines gemeinsamen Flaggschiffprojekts. Sie erinnert an die Partnerschaft zwischen dem AlanTuring Institute in London und dem British Office for National Statistics, die sich ebenfalls gemeinsam für die Forschung und Innovation im Bereich der Datenwissenschaft einsetzen.»

Eine Zusammenarbeit auf drei Ebenen

BFS für Datenwissenschaft (DSCC) verstärkt. Die EPFL und die ETH Zürich unterstützen das BFS dabei, passende Kompetenzprofile für das DSCC zu ermitteln und die nötigen Fachpersonen zu rekrutieren. Die Mitarbeitenden werden zudem eingeladen, das SDSC «in residence» zu besuchen, um ihre Kompetenzen weiterzuentwickeln und sich mit den anderen in der Datenwissenschaft tätigen Akteuren in der Schweiz zu vernetzen. Schliesslich können die Partner prioritäre Projekte des DSCC bestimmen und sie gemeinsam umsetzen.

Eine zweite Ebene der Zusammenarbeit betrifft die Infrastruktur. Das DSCC wird die vom SDSC entwickelte Open-​Source-Plattform RENKU nutzen. RENKU ist in das akademische Netzwerk SWITCH integriert und ermöglicht die für das BFS zentrale Zusammenarbeit und Reproduzierbarkeit in den Bereichen Datenwissenschaft und künstliche Intelligenz. Das SDSC hat dafür für das BFS eine spezifische Instanz von RENKU geschaffen, die gewährleisten soll, dass die gesetzlichen Datenschutzgrundsätze systematisch umgesetzt werden. Die Daten verlassen in keiner Weise die Schweiz.

Drittens soll die Zusammenarbeit innerhalb der Bundesverwaltung das Verständnis fördern sowie den Wissenstransfer und Erfahrungsaustausch in den Bereichen Datenwissenschaft und künstliche Intelligenz gewährleisten.

Digitalisierung und öffentliche Verwaltung

«Mit dieser Partnerschaft hat das BFS die Möglichkeit, den für die Bundesverwaltung grundlegenden Auftrag zu erfüllen, den es im Mai 2020 vom Bundesrat erhalten hat», freut sich Georges-​Simon Ulrich, Direktor des BFS. «Über das per 1. Januar 2021 eingerichtete DSCC kann das BFS nun die Herausforderungen angehen, die mit den tiefgreifenden Veränderungen in der Welt der Daten und der zunehmenden Verwendung von Algorithmen im öffentlichen Sektor einhergehen.»

Konkret erbringt das DSCC datenwissenschaftliche Dienstleistungen für die gesamte Bundesverwaltung. Dazu bemüht es sich auch um eine Zusammenarbeit mit den anderen öffentlichen Verwaltungseinheiten (Kantone und Gemeinden). Das DSCC arbeitet im Grenzbereich der Datenwissenschaft und der künstlichen Intelligenz. Seine Aufgabe besteht darin, Kompetenzen zu entwickeln, um Methoden, Techniken und Praktiken aus der Datenwissenschaft und der künstlichen Intelligenz zu nutzen, die zu einem neuen Verständnis dieser Themen in der Politik beitragen. Dadurch soll die Entscheidungsfindung zum Wohl der Öffentlichkeit unter Einhaltung der ethischen Grundsätze verbessert werden.

Joël Mesot, Präsident der ETH Zürich, betont die Bedeutung dieser Partnerschaft: «Der Einsatz der Datenwissenschaft und der künstlichen Intelligenz im Dienst des Gemeinwohls ist eine der grössten Herausforderungen der Gegenwart. Die beiden ETHs sind stolz, ihr Knowhow in der Bundesverwaltung einbringen und sie dabei unterstützen zu können, die nötigen Kompetenzen aufzubauen, um der Gesellschaft als Ganzes einen Nutzen bringen zu können.»

Über das Swiss Data Science Center (SDSC)

2017 lancierte der ETH-​Rat eine nationale Initiative zur Förderung der Datenwissenschaft. Als wesentlichen Schritt zu diesem Ziel haben die ETH Zürich und die EPFL gemeinsam das Swiss Data Science Center (SDSC) gegründet. Es soll die Innovation in der Datenwissenschaft, die bereichsübergreifende Forschung und eine offene Wissenschaft fördern. Die Aufgabe des SDSC besteht darin, die Nutzung der Datenwissenschaft und des maschinellen Lernens im akademischen und industriellen Bereich voranzutreiben.

Externer Link: www.ethz.ch

Stauseen: Die Ressource Wasser einfacher schützen

Presseinformation des KIT (Karlsruher Institut für Technologie) vom 17.03.2021

Internationales Forschungsprojekt entwickelt anwendungsfreundliche Methoden zur vorausschauenden Beurteilung der Wasserqualität in Stauseen – Verringerter Datenbedarf ermöglicht globalen Einsatz

Stauseen sind weltweit für die Trinkwasserversorgung unverzichtbar. Um die Reservoire vor Verlandung, Überdüngung und Verunreinigung durch Schadstoffe zu schützen, muss ihre Wasserqualität vorausschauend beobachtet werden. Ein deutsch-brasilianisches Konsortium unter Federführung des Karlsruher Instituts für Technologie (KIT) hat einfach anwendbare Mess- und Monitoringmethoden entwickelt, die sich besonders für Regionen mit begrenzter Datenverfügbarkeit eignen. Die Projektergebnisse belegen unter anderem, wie wirksam das gezielte Aufforsten im Einzugsgebiet von Stauseen ist.

Wird eine Verschlechterung der Wasserqualität frühzeitig erkannt, lassen sich Maßnahmen rechtzeitig implementieren und gefährdete Stauseen länger erhalten. Umweltmodelle unterstützen dabei, Stoffeintrag und Wasserqualität zu beobachten und zu beurteilen. Bisherige Modelle erfordern jedoch sehr große Datenmengen und einen hohen messtechnischen Aufwand; das macht sie ungeeignet für die Anwendung in datenschwachen Regionen. Das interdisziplinäre Projekt „Multidisziplinäre Datenerfassung als Schlüssel für ein global anwendbares Wasserressourcenmanagement“ (MuDak-WRM) hat in dreieinhalbjähriger Forschung in Brasilien und Deutschland Monitoringansätze, Modelle und Messtechniken erarbeitet, die möglichst einfach und allgemein verfügbar sind. Sowohl für die Berechnung der Wasserbilanz – der Differenz zwischen Wasseraufnahme und -abgabe – als auch für die Berechnung der Stoffeinträge aus dem Einzugsgebiet wurden Satellitendaten genutzt. „Wir haben gesehen, dass sich auch mit weniger Daten aussagekräftige Ergebnisse erreichen lassen“, sagt Dr. Stephan Hilgert, Geoökologe am Institut für Wasser und Gewässerentwicklung (IWG) des KIT und Koordinator des Projekts.

Automatisierung der Datenverarbeitung

In das bisherige Stoffeintragsmodell fließt eine Vielzahl unterschiedlicher Informationen ein. Daher hat sich das Projektteam auf die beiden wichtigsten Eintragspfade konzentriert: die Stoffeinträge durch Erosion der Landoberfläche und die Abwassereinträge aus dem urbanen Umfeld im Zuflussgebiet von Stauseen. Exemplarisch untersucht wurden die Große Dhünntalsperre in Nordrhein-Westfalen und der Passaúna-Stausee im brasilianischen Bundesstaat Paraná.

„Ein wesentlicher Punkt war die Automatisierung der Verarbeitung von Satellitendaten, die zum Berechnen der Wasserbilanz und der Stoffeinträge etwa von Phosphor und Feststoffen genutzt werden“, erläutert Hilgert. Die erfolgreiche Automatisierung vereinfache die Anwendung der Modelle deutlich und erhöhe ihre Genauigkeit und Übertragbarkeit auf andere Einzugsgebiete. Das Konsortium aus Wissenschaft, kommunalen Verbänden und Industrieunternehmen hat Sensoren und Plattformen zur kontinuierlichen Erfassung der Wasserqualität entwickelt sowie eine Onlineplattform (Sensor Web) erarbeitet, mit der sich die Daten nutzerfreundlich erfassen, speichern und auswerten lassen.

Wirkung von Aufforstung berechnet

Die Projektergebnisse belegen unter anderem, dass eine Aufforstung von nur drei Prozent der landwirtschaftlich genutzten Fläche im Einzugsgebiet des Passaúna-Stausees zu einer Reduzierung der Sedimenteinträge von bis zu 26 Prozent führen kann. „Das Verlanden von Stauseen, durch das sich ihr Stauvolumen verringert, ist ein fundamentales Problem der kommenden Jahrzehnte, denn die Menschheit verliert aktuell mehr Stauvolumen, als hinzukommt“, sagt Hilgert.

Weitere Untersuchungen haben gezeigt, dass im Sediment gebundene Nährstoffe durch den Klimawandel in tieferen Schichten von Stauseen künftig die Wasserqualität verschlechtern können. „In den Subtropen befindet sich viel Phosphor bindendes Eisen im Boden und damit auch im Stausee-Sediment. Eisen bindet Phosphor aber nur, solange ausreichend Sauerstoff im Wasser zur Verfügung steht. Fehlt bei steigender Wassertemperatur längere Zeit Sauerstoff, kann sich der Phosphor lösen, was zur plötzlich massenhaften Vermehrung von Cyanobakterien, der Algenblüte, führt, und das Gewässer kippt“, erläutert der Geoökologe. Um diese Gefahr rechtzeitig zu erkennen, müssten Stauseebetreiber zusätzlich zur Auswertung von Satellitenbildern den Gewässerzustand, aber auch die Sedimentzusammensetzung seeintern überwachen, so Hilgert.

Das Projekt MuDak-WRM

Das Bundesministerium für Bildung und Forschung (BMBF) hat das 2017 begonnene und 2021 beendete Projekt MuDak-WRM mit 2,6 Millionen Euro in der Fördermaßnahme GROW (Globale Ressource Wasser) im Zuge des Programms „FONA – Forschung für Nachhaltigkeit“ gefördert. Am KIT waren die beiden Fachbereiche des IWG Siedlungswasserwirtschaft und Wassergütewirtschaft sowie Wasserwirtschaft und Kulturtechnik sowie das Institut für Photogrammetrie und Fernerkundung (IPF) eingebunden. Zum Forschungskonsortium gehörten auf deutscher Seite die Universität Koblenz-Landau, der Wupperverband sowie die Unternehmen 52°North – Initiative for Geospatial Open Source Software GmbH, EFTAS Fernerkundungs-Technologietransfer GmbH, Hydron GmbH und TRIOS Mess- und Datentechnik GmbH. Auf brasilianischer Seite waren die Staatliche Universität von Paraná (UFPR) und die Universität Positivo sowie der Wasserversorger SANEPAR aktiv beteiligt. Assoziierte Partner in Brasilien waren das Instituto Paranaense de Assistência Técnica e Extensão rural (Paranaensisches Institut für ländliche Entwicklung, EMATER) und das Instituto das Aguas do Paraná (Wasserinstitut des Bundesstaates Paraná). (afr)

Externer Link: www.kit.edu