Mit Behinderung arbeiten: Universität Passau entwickelt neues Assistenzsystem

Pressemeldung der Universität Passau vom 21.07.2015

Wissenschaftlerinnen und Wissenschaftler der Universität Passau beteiligen sich an der Entwicklung eines Assistenzsystems, das die emotionale Verfassung von Menschen mit Behinderung erkennen und ihnen helfen kann, trotz ihrer Behinderung einer Arbeit nachzugehen. Das Projekt „Emotionssensitives Assistenzsystem zur Unterstützung von Menschen mit Einschränkungen: EmotAsS (Emotionsensitive Assistance System)“ wird vom Bundesministerium für Bildung und Forschung gefördert.

Um Menschen mit Behinderung eine berufliche Perspektive zu geben, gibt es speziell ausgestattete Werkstätten für behinderte Menschen, die dazu dienen, sie in das Arbeitsleben einzugliedern und ihnen somit ermöglichen, ein selbstbestimmtes Leben zu führen. In den meisten Fällen ist eine Eingliederung nicht möglich, so dass diese Personengruppe ihren Fähigkeiten entsprechend in den Werkstätten beschäftigt wird. Insbesondere bei Menschen mit Erkrankungen oder Behinderungen, die in speziell ausgestatteten Werkstätten arbeiten, haben die emotionalen Schwankungen eine große Auswirkung auf ihre Konzentrationsfähigkeit und weitere kognitive Prozesse. Emotionen und deren zuverlässige Erkennung in der gesprochenen Sprache sind für die erfolgreiche Mensch-Maschine-Interaktion von großer Bedeutung.

Innerhalb dieses Projektes soll ein Assistenzsystem entwickelt werden, welches sicher die Erkennung der Emotionen der Mitarbeiterinnen und Mitarbeitern mit Behinderungen einsetzt, um ihren Arbeitsprozess in individuell handhabbare, kleine Arbeitsschritte aufzuteilen und entsprechend des Kontextes und der emotional-kognitiven Verfassung adaptiert. Die Erkenntnisse sollen auf ein weiteres Anwendungsgebiet übertragen und in der Kommunikation mit Demenzerkrankten erprobt werden.

Beteiligt sind neben dem Lehrstuhl für Complex und Intelligent Systems der Universität Passau, die Universität Bremen, die vacances Mobiler Sozial- und Pflegedienst GmbH, der Martinshof (Werkstatt Bremen), die Meier & Schütte GmbH und Co. KG, die REHAVISTA GmbH sowie die EGS Vertriebs GmbH.

Die Projektpartner arbeiten kontinuierlich mit der Zielgruppe zusammen und beteiligen sie an der Entwicklung. Bestandteil des Projektes sind unter anderem fortlaufende Tests, sowohl bei der Gestaltung als auch bei der Nutzung des Systems im Arbeitsprozess. (Katrina Jordan)

Externer Link: www.uni-passau.de

Verblichene Malereien sichtbar machen

Presseinformation (Forschung Kompakt) der Fraunhofer-Gesellschaft vom 01.07.2015

Im Kreuzgang des Brandenburgischen Doms sind viele Details der Wand- und Deckenmalereien verblichen: Wo einmal Pferde »galoppierten«, blickt man nun auf mehr oder weniger blanken Putz. Eine Hyperspektralkamera jedoch sieht Motive, die dem menschlichen Auge verborgen bleiben. Damit ist sie Kunsthistorikern eine große Hilfe.

Der Zahn der Zeit hat den Decken- und Wandmalereien im oberen Kreuzgang des Brandenburger Doms (Brandenburg an der Havel) stark zugesetzt – vieles lässt sich mit bloßem Auge nicht mehr ausmachen. Wo ehemals Frauen mit kunstvollen Kleidern und Hauben beisammen standen, sieht man heute oftmals nur noch Fragmente. Farbreste, aus denen auch bei noch so langer Betrachtung kein Motiv zu erkennen ist. Ein ganz anderes Bild jedoch fängt eine Hyperspektralkamera mit einer Software ein, die Forscher am Fraunhofer-Institut für Fabrikbetrieb und -automatisierung IFF in Magdeburg entwickelt haben: Sie schafft es, dass viele der verblichenen Malereien wieder zum Vorschein kommen.

Über 50 Farbkanäle erkennen »Unsichtbares«

Die Kamera »schaut« nicht nur das sichtbare Licht an, das die Malereien zurückwerfen – wie das Auge oder eine herkömmliche Kamera es tut – sondern auch die Wellenlängen, die jenseits dieses Bereichs im Infraroten liegen. Außerdem ist die Auflösung deutlich feiner. »Während der Mensch alle wahrgenommenen Farbtöne aus den Farben Rot, Grün und Blau zusammensetzt, verfügt die Kamera über 51 Farbkanäle«, erläutert Dr. Andreas Herzog, Wissenschaftler am IFF. »Sie kann daher Farbtöne voneinander unterscheiden, die für das menschliche Auge gleich wirken.« Dort, wo es beispielsweise nur Blau sieht, teilt das System das zurückgeworfene Licht in die minimal verschiedenen Farbtöne auf. Es erkennt somit Strukturen, die eigentlich nicht mehr zu sehen sind. Zudem lässt sich mithilfe dieser neuen Technologie feststellen, ob Bilder in mehreren Etappen gemalt oder bereits einmal restauriert wurden. Denn auch wenn die Farben für den Künstler gleich ausgesehen haben mögen: Es konnte kaum gelingen, sie gänzlich gleich zu mischen; die Kamera entdeckt die Unterschiede.

Zwar gab es auch bislang die Möglichkeit, die Kunstwerke teilweise wieder aufzuspüren: Strahlt man sie mit einer UV-Lampe an, regt man einige Substanzen in der Farbe, oft das Bindemittel, zum Fluoreszieren an. Hält man diese Fluoreszenz mit einer herkömmlichen Kamera fest, zeigen sich ebenfalls verborgene Strukturen. Das Manko: Das Verfahren ist sehr aufwändig und – das UV-Licht zieht die Gemälde in Mitleidenschaft. Nicht so bei der Hyperspektralkamera. Sie arbeitet mit einer normalen Lichtquelle, die die Kunstwerke weniger beeinflusst. Darüber hinaus lassen sich beide Verfahren kombinieren: So kann die Hyperspektralkamera auch aus dem Fluoreszenzlicht mehr herausholen. Denn sie sieht nicht nur das Licht an sich, sondern ermittelt vielmehr, wie sich die fluoreszierenden Farbstoffe zusammensetzen.

Das Kernstück der Entwicklung ist jedoch nicht die Kamera, sondern die speziell entwickelte Software. Sie erstellt aus den Daten, die bei einem Hyperspektralbild anfallen, rund hundert Bilder – auf denen zum Teil Strukturen wie gemalte Frauengestalten oder Pferde zum Vorschein kommen. Diese Bilder sehen die Kunstexperten durch und können sie interpretieren. Welche Farbmischung kommt auf dem gewählten Ausschnitt am häufigsten vor? Dies errechnet der Algorithmus mit Hilfe von Statistiken und Normierungen. Den Anteil exakt dieser Farbkomponenten stellt er in einem separaten Bild dar. In einem zweiten Bild verfährt der Software-Algorithmus ebenso mit der Farbkomponente, die am zweithäufigsten vorkommt und so weiter. Um auch großflächige Malereien auf gekrümmten Wänden in einer hohen Auflösung abzubilden, arbeiten die Forscher mit den Vermessungstechnikern der bgis Kreative Ingenieure GmbH zusammen. Deren Software fügt die einzelnen errechneten Bilder zu einem Gesamtpanorama zusammen und gibt den Kunsthistorikern des Dom-Museums und des Landesamts für Denkmalpflege Brandenburg einen Überblick über größere Bildzusammenhänge.

Erster Testlauf im Brandenburger Dom

Im Brandenburger Dom, der dieses Jahr sein 850-jähriges Jubiläum feiert, haben die Wissenschaftler des IFF ihre Technologie bereits erfolgreich getestet – im oberen Kreuzgang: Die Wandmalereien, die dort zu finden sind, wurden im 15. Jahrhundert von Hartmut Schedel detailliert beschrieben. Aber lange galten sie als verschollen. Vor einigen Jahren wurden diese kunsthistorisch bedeutenden Malereien wiederentdeckt und dann aufwändig restauriert. So gab der Kreuzgang sein Geheimnis preis. Und mit der Hyperspektralkamera Schritt für Schritt auch noch viele weitere Details.

Externer Link: www.fraunhofer.de

Passauer Team holt Gesamtsieg bei internationalem Verifikationswettbewerb

Pressemeldung der Universität Passau vom 02.07.2015

Gesamtsieg plus zwei Einzelsiege – so lautet die Erfolgsbilanz, mit der die Verifikationsforscher der Universität Passau von der International Competition on Software Verification zurückgekommen sind. Darüber hinaus erreichten die Passauer Forscher mit ihrem Verifikationswerkzeug „CPAchecker“ in den weiteren Kategorien drei zweite und zwei dritte Plätze und gewannen damit mit Abstand die meisten Medaillen unter den 22 teilnehmenden Teams aus aller Welt.

Die International Competition on Software Verification, die im Rahmen der Algorithmen-Konferenz TACAS stattfindet ist ein Wettbewerb, bei dem Wissenschaftlerinnen und Wissenschaftler darum wetteifern, in gegebenen Computerprogrammen Fehler zu finden oder aber deren Korrektheit zu beweisen. Ziel des Wettbewerbs ist es, den Fortschritt bei der Verifikation von Softwaresystemen anzutreiben. „Nie zuvor war die korrekte Funktion von Computerprogrammen so wichtig wie heute: Fast alle Bereiche des täglichen Lebens in der Gesellschaft und in der Wirtschaft sind von Computerprogrammen abhängig“, erklärt Prof. Dr. Dirk Beyer, der das Passauer Team leitet. „Jedoch macht jeder Mensch Fehler, auch Programmierer von Software. Enorm wichtig sind deshalb Computerprogramme zur Verifikation, also das automatisierte Finden von Fehlern in anderen Computerprogrammen. Dazu sind enorme Rechenkapazitäten erforderlich, und es geht letztendlich darum, mit schlauen Algorithmen die Bugs oder Beweise mit möglichst geringen Rechenressourcen zu berechnen.“

Die Passauer Gruppe hat sich mit dem Verifikationswerkzeug „CPAchecker“ beim diesjährigen Wettbewerb gegen die Konkurrenz aus 13 Ländern durchgesetzt und gehört damit weiterhin zu den renommiertesten Verifikationsgruppen weltweit. Zuletzt war die Gruppe mit der Gödel-Medaille der Österreichischen Kurt-Gödel-Gesellschaft für ihre Leistung ausgezeichnet worden. Prof. Dr. Dirk Beyer ist seit 2009 Inhaber des Lehrstuhls für Softwaresysteme, an dem kontinuierlich Beiträge zur Verbesserung der Softwarequalität geleistet werden.

Über CPAchecker

Das Verifikationswerkzeug CPAchecker wird in der Praxis angewendet, um Fehler im Linux-Kernel zu finden. Die Linux-Software findet auf zahlreichen Geräten Verbreitung, so zum Beispiel auf vielen Heim- oder Büro PCs, auf Servern in Rechenzentren, aber auch auf Netzwerk-Routern oder Android-Smartphones. Das Forschungsprojekt ist insbesondere auch für Passauer Informatik-Studierende interessant, weil Master-Studierende im Rahmen der vorlesungsbegleitenden Projekte zur Vorlesung Software-Verification oder als studentische Hilfskraft am Lehrstuhl an den CPAchecker-Projekten mitarbeiten dürfen. (Katrina Jordan)

Externer Link: www.uni-passau.de

Spracherkennung aus Gehirnströmen

Presseinformation des KIT (Karlsruher Institut für Technologie) vom 15.06.2015

Aus Aktivitätsmustern auf der Gehirnoberfläche lassen sich gesprochene Sätze rekonstruieren / „Brain-to-Text“ vereint Kenntnisse aus den Neurowissenschaften, der Medizin und der Informatik

Sprache ist eine der Aufgaben der menschlichen Großhirnrinde (Kortex). Sprachprozesse drücken sich in Hirnströmen aus, die mittels Elektroden direkt am Kortex aufgezeichnet werden können. Nun ist es erstmals gelungen, aus diesen Strömen kontinuierlich gesprochene Laute, Wörter und ganze Sätze zu rekonstruieren und per Computer als Text wiederzugeben. Ihr Verfahren „Brain-to-Text“ stellen Forscher des KIT und des amerikanischen Wadsworth Centers nun in der Fachzeitschrift Frontiers in Neuroscience vor (doi: 10.3389/fnins.2015.00217).

„Schon lange wurde darüber spekuliert, ob die direkte Kommunikation zwischen Mensch und Maschine über Gehirnströme möglich ist“, erklärt Tanja Schultz, die mit Ihrem Team am Cognitive Systems Lab des KIT die vorliegende Studie durchgeführt hat. „Wir konnten nun zeigen, dass aus Gehirnströmen einzelne Sprachlaute und kontinuierlich gesprochene komplette Sätze erkannt werden können.“

Die Ergebnisse wurden durch die interdisziplinäre Zusammenarbeit von Forscherinnen und Forschern aus Informatik, Neurowissenschaften und Medizin möglich. In Karlsruhe wurden Methoden aus der Signalverarbeitung und der automatischen Spracherkennung angewendet. „Diese erlauben neben der Erkennung von Sprache aus Gehirnsignalen eine detaillierte Analyse der am Sprachprozess beteiligten Gehirnregionen und ihrer Interaktionen“, sagen Christian Herff und Dominic Heger, die im Rahmen ihrer Promotion das Brain-to-Text-System entwickelt haben.

Die aktuelle Arbeit ist weltweit die Erste, die kontinuierlich gesprochene Sprache erkennt und in Text transformiert. Dazu werden Informationen aus dem Kortex mit linguistischem Wissen und Algorithmen des maschinellen Lernens kombiniert, um die wahrscheinlichste Wortsequenz zu extrahieren. Derzeit arbeitet Brain-to-Text auf hörbar gesprochener Sprache, die Ergebnisse sind allerdings ein sehr wichtiger erster Schritt hin zur Erkennung gedachter Sprache.

Die Hirnströme wurden im Rahmen der Behandlung von 7 Epilepsie-Patienten, die freiwillig an den Experimenten teilnahmen, in den USA aufgezeichnet. Im Zuge ihrer neurologischen Behandlung wurde ihnen ein Elektrodennetz auf die Großhirnrinde gelegt (Elektrokortikographie (ECoG)). Während die Patienten Beispieltexte laut vorlasen, wurden die räumlich und zeitlich hoch aufgelösten ECoG-Signale aufgezeichnet. Diese wurden später in Karlsruhe analysiert und dienten als Basis für die Entwicklung von Brain-to-Text. Neben der reinen Grundlagenforschung und einem besseren Verständnis der hochkomplexen Sprachprozesse im Gehirn könnte Brain-to-Text ein Baustein sein, um Locked-in-Patienten zukünftig eine sprachliche Kommunikation zu ermöglichen. (kes)

Externer Link: www.kit.edu

IT-basierte Verfahren zum optimalen Einsatz von Rettungskräften im Katastrophenfall

Pressemitteilung der Universität Regensburg vom 01.06.2015

Forscher entwickeln Modelle zur Entscheidungsunterstützung

Eine effektive Koordination von Rettungsaufgaben nach Naturkatastrophen, technischen Unfällen oder von Menschenhand verursachten Notlagen ist sehr wichtig. Katastrophenmanagement ist aber eine komplexe Aufgabe, die unter hohem Zeitdruck und bei unsicherer Informationslage zu bewältigen ist. Forscher der Universität Regensburg haben nun IT-basierte Verfahren entwickelt, um Entscheidungsträger dabei zu unterstützen, den optimalen Einsatz der zur Verfügung stehenden Rettungskräfte sicherzustellen. Die Verfahren konnten in mehreren Computerexperimenten überzeugen.

Insbesondere Naturkatastrophen wie Erdbeben, Tsunamis, Überschwemmungen oder Vulkanausbrüche fordern jedes Jahr Tausende von Menschenleben und verursachen enorme infrastrukturelle und damit auch wirtschaftliche Schäden. So schätzt man die weltweit durch Naturkatastrophen verursachten Schäden in den Jahren von 2000 bis 2009 auf fast eine Million Menschenleben und 1.000 Milliarden US-Dollar. Erschreckend kommt hinzu, dass dabei den betroffenen – oft ohnehin schon wirtschaftlich schwachen Bevölkerungsschichten – eine weitere Verschlechterung der Lebens- und Arbeitsverhältnisse bis hin zur Armut droht. Vor diesem Hintergrund stellt sich die Frage, wie ein systematisches Katastrophenmanagement künftig verbessert werden kann. Denn die bisherigen – meist immer noch manuell durchgeführten – Verfahren erwiesen sich in der Vergangenheit nicht selten als ineffektiv.

Ein Regensburger Forscherteam um Prof. Dr. Guido Schryen vom Institut für Wirtschaftsinformatik hat deshalb untersucht, ob der Einsatz von IT-basierten Systemen zur Entscheidungsunterstützung zu einem effektiveren Katastrophenmanagement führt und auf diese Weise Schäden vermieden oder reduziert werden können. Den Wissenschaftlern ging es vor allen Dingen darum, Entscheidungsvorschläge für den effektiven Einsatz von Rettungskräften im Katastrophenfall automatisiert erstellen zu können. Vergleichbare Ansätze sind bislang kaum zu finden.

Im Katastrophenfall richten Hilfsorganisationen normalerweise – speziell für das jeweilige Unglück – ein Emergency Operations Center (EOC) ein, das auch für die Koordination der zur Verfügung stehenden Rettungskräfte zuständig ist. Für die Entwicklung ihrer IT-basierten Verfahren haben die Regensburger Forscher deshalb Interviews mit den entsprechenden Experten des Technischen Hilfswerks (THW) durchgeführt. Zudem werteten sie die vorhandene Literatur zum Katastrophenmanagement und zum Operations Research aus. Auf dieser Grundlage konnten die Wissenschaftler die zentralen Charakteristika des Koordinierungsproblems im Katastrophenfall erfassen.

Im Anschluss ging es darum, formale Modelle zu entwickeln, die die elementaren Charakteristika der praktischen Probleme am Computer abbilden. Zudem mussten Lösungsmethoden in Form von Algorithmen konzipiert und auf dem Rechner implementiert werden. Kernziel war neben dem optimalen Einsatz der zur Verfügung stehenden Rettungskräfte eine exakte Terminplanung für das Katastrophenmanagement – auch bezogen auf eventuelle Ereignisse und Störfälle im Rahmen der Zusammenarbeit der einzelnen Akteure, die unter unterschiedlichen Bedingungen eintreten könnten.

Die neuen IT-gestützten Verfahren wurden schließlich in mehreren Computerexperimenten mit Best-Practice-Beispielen verglichen und bewertet. Die Ergebnisse des Regensburger Forscherteams zeigen, dass Entscheidungsträger im Katastrophenfall maßgeblich von IT-basierten Methoden profitieren können. Gerade der Einsatz solcher Entscheidungsunterstützungsverfahren und -systeme für Emergency Operations Center ist demnach lohnenswert, um Rettungsaktionen effektiver zu organisieren sowie Personen rascher bergen und humanitär versorgen zu können.

Die Herausforderung besteht jetzt nach Ansicht von Prof. Schryen darin, die Entscheidungsunterstützungsverfahren in der Praxis zu etablieren und mögliche Anwender von deren Nützlichkeit zu überzeugen. Darüber hinaus müssen sich die Systeme auch im realen Einsatz beweisen und in einem Erfahrungs- und Lernprozess ständig angepasst und verbessert werden.

Die Ergebnisse der Regensburger Forscher erscheinen in den internationalen Fachzeitschriften „European Journal of Operational Research“ und „Business & Information Systems Engineering“. Vorab-Versionen sind online verfügbar. (Alexander Schlaak)

Externer Link: www.uni-regensburg.de