Smarte Displays aus dem Drucker

Pressemitteilung der HAW Landshut vom 08.05.2017

Ein Shirt, das mit der Umwelt kommuniziert: Elektrolumineszenz-Displays könnten das bald möglich machen. Die Folien lassen sich in Kleidung integrieren. Maximilian Wurzer hat in seiner Bachelorarbeit solche Displays entwickelt.

Smarte Fitnessuhren, die den Puls messen und Schritte zählen, sind längst nichts Neues mehr. Die Minicomputer, die man bisher am Handgelenk oder in der Tasche trägt, werden jetzt in die Kleidung integriert. Auf dem Display eines smarten Shirts steht jeden Tag eine neue Botschaft, die der Träger nach Stimmung programmieren und darstellen kann – zum Beispiel über Elektrolumineszenz-Displays, kurz ELDs. Der Clou dieser Technologie: „Die Elektronik wird einfach auf einen flexiblen Träger gedruckt, zum Beispiel auf eine Folie“, erklärt Prof. Dr. Artem Ivanov von der Fakultät Elektrotechnik und Wirtschaftsingenieurwesen der Hochschule Landshut. Bisher kommen ELDs hauptsächlich als Anzeigefeld unter schwierigen Bedingungen in der Industrie zum Einsatz, zum Beispiel bei hoher Luftfeuchtigkeit oder mechanischen Belastungen und sind entsprechend teuer.

„Die Auflösung kann zwar noch lange nicht mit Smartphones oder Tablets mithalten“, so Ivanov. „Trotzdem kann ich mir vorstellen, dass die ELDs in smarter Kleidung zum Einsatz kommen könnten, denn sie sind biegsam, robust und günstig zu produzieren.“ Wie das aussehen könnte, hat Maximilian Wurzer in seiner Bachelorarbeit untersucht: „Es ging darum herauszufinden, wie man ELDs mit dem aktuellen Stand der Technik sinnvoll, sicher und schick in Kleidung integrieren kann“, so Wurzer, der Wirtschaftsingenieurwesen studiert hat.

ELDs: biegsam, robust und günstig

Dafür hat er zunächst das rund fünf Zentimeter lange Display entworfen und aufgebaut, das später Caps und T-Shirts zieren sollte. Es besteht aus fünf Schichten, die er nacheinander im Labor auf die Trägerfolie aufgedruckt hat. „Man muss sich das wie Siebdruck vorstellen. Für jede Schicht wird eine Siebschablone hergestellt. Darauf gibt man die Paste und zieht den Überschuss wieder ab“, erklärt Wurzer. „Ohne die Hilfe der Labormeister wäre das gar nicht möglich gewesen. Sie wissen genau, welche Pasten sich eignen, wie schnell man sie auftragen oder wie man die Parameter an der Maschine einstellen muss.“

Schicht für Schicht sind die Displays entstanden. Das Kernstück sind die zwei Elektrodenschichten: Legt man dort Wechselstrom an, entsteht ein elektrisches Feld. Das bewirkt, dass die dazwischenliegende Phosphorschicht, die aus verbundenen Pixeln besteht, leuchtet und sich als blaue Formen oder Schriftzüge auf dem Display zeigt. Um Kurzschlüsse zu vermeiden, hat Wurzer zwei weitere Schichten aus isolierendem Material aufgebracht. „Auf manche Displays haben wir noch einen blauen Farbfilter appliziert. Das erhöht den Kontrast des blauen Leuchtstoffs“, so Wurzer.

Spannung bringt Display zum Leuchten

Spannung an den Elektroden bringt das Display zum Leuchten. Der Student hat dafür eine eigene Treiberschaltung gebaut. Darin kann er programmieren, wann welches Pixel leuchten soll. „Das ist auch das Besondere an der Arbeit. Bisher gab es keine kompakten Treiberschaltungen für pixelbasierte ELDs, auf denen man unterschiedliche Inhalte zeigen kann. Das ist etwas ganz Neues“, so der betreuende Professor Ivanov. Daher musste Wurzer sich auch mit den Sicherheitsvorgaben befassen: „Je höher die Spannung desto heller leuchtet das ELD. Doch ist sie zu hoch, halten die Bauteile das nicht aus oder es ist zu gefährlich, das Display am Körper zu tragen. Ist sie zu niedrig, leuchtet das Display nicht mehr“, fasst Wurzer zusammen. Er hat daher Widerstände und einzelne Bauteile der Schaltung so eingestellt, dass man sie sicher berühren kann: „Leider hat das Display dadurch etwas an Helligkeit eingebüßt.“ Die Folge: Im Dunkeln und in künstlich beleuchteten Räumen kann man gut erkennen, welcher Schriftzug über die Displays läuft. Für einen Sonnenplatz reicht die Leuchtkraft der Phosphorschicht nicht ganz.

Wurzer hat seine ELDs auf einen Rucksack, Shirts und Caps integriert. „Die Technologie lässt sich weiterentwickeln und mit anderer Steuerungselektronik koppeln“, meint er. Zum Beispiel in Sachen E-Health: „Wenn ein Diabetespatient zu weit in den Unterzucker fällt und bewusstlos wird, könnte das Zuckermessgerät über einen Funksender das Display aktivieren, das im Shirt integriert ist.“ Darauf würde dann erscheinen: „Diabetespatient im Unterzucker, bitte rufen Sie einen Notarzt.“ Wie die kleinen Bildschirme die Medizintechnik voranbringen könnten, könnten weitere Themen für Abschlussarbeiten an der Hochschule Landshut sein.

Externer Link: www.haw-landshut.de

UR SMART – Social Media-Analysetool

Pressemitteilung der Universität Regensburg vom 01.02.2017

Wissenschaftler der Universität Regensburg entwickeln Prototyp für Unternehmen

Wirtschaftsinformatiker um Prof. Dr. Susanne Leist, Lehrstuhl für Wirtschaftsinformatik III an der Universität Regensburg, haben mit UR SMART – Universität Regensburg Social Media Analysis Research Toolkit – den Prototyp eines Analysetools für kleine und mittlere Unternehmen entwickelt, mit dem sich Onlinebeiträge von Nutzern in sozialen Medien wie Facebook und Twitter automatisiert auswerten lassen. Unternehmen können auf diese Weise wertvolle Einblicke in aktuelle Kundenmeinungen und -bedürfnisse gewinnen.

Soziale Technologien gewinnen sowohl im Privatleben als auch betrieblichen Umfeld zunehmend an Popularität. Internetnutzer ersetzen traditionelle Kommunikationskanäle immer mehr durch Social Media-Plattformen und tauschen ihre Erfahrungen mit Services, Leistungen oder Produkten von Unternehmen über soziale Kanäle aus. Den Unternehmen steht dadurch eine Fülle an Informationen über Kundenmeinungen und -anforderungen zur Verfügung. Allerdings bieten am Markt erhältliche Softwarelösungen nur eingeschränkte Funktionalitäten an, um diese Informationen strukturiert und bedarfsgerecht analysieren zu können. Gleichzeitig fallen hohe Lizenzkosten an, die sich kleinere und mittlere Unternehmen mit begrenztem Budget oft nicht leisten können. Zudem berücksichtigen existierende Softwarelösungen die Besonderheiten von Onlinebeiträgen in sozialen Kanälen von Unternehmen, wie z. B. regionalen Dialekt oder das gehäufte Auftreten branchenspezifischer Fachausdrücke, nur unzureichend, was zu ungenauen oder falschen Analyseergebnissen führt. Viele Unternehmen analysieren daher nutzergenerierte Social Media-Beiträge noch manuell.

Die Regensburger Wissenschaftler um Professor Dr. Susanne Leist und Dr. Florian Johannsen (Projektleitung), wissenschaftlicher Mitarbeiter am Lehrstuhl für Wirtschaftsinformatik III, haben mit UR SMART ein Social Media-Analysetool entwickelt, mit dem sich Onlinebeiträge von Nutzern in sozialen Medien wie Facebook und Twitter automatisiert auswerten lassen. So werden Kundenposts der Facebook- und Twitter-Auftritte von Unternehmen hinsichtlich ihrer Tonalität – positive, neutrale oder negative Aussagen – analysiert und anschließend auf Basis vordefinierter Kategorien wie z. B. Produkt, Service, Marke, oder Kampagne eingestuft. Neben der Auswertung der Nutzerbeiträge generiert UR SMART entsprechende Berichte und liefert damit wertvolle Einblicke in Meinungen und Bedürfnisse der Kunden. Unternehmen entwickeln auf diese Weise nicht nur ein besseres Verständnis für ihre Kunden, sondern erhalten auch wertvolle Hinweise darauf, wie sich Produkte und Dienstleistungen nachhaltig und substanziell verbessern lassen. Für die technische Realisierung des Prototyps wurde auf etablierte Verfahren zur Analyse schwach strukturierter bzw. unstrukturierter Textdaten zurückgegriffen, wie z. B. Natural Language Processing, Text Mining, Web Mining und Information Retrieval, die für die Anwendung im Rahmen von UR SMART angepasst wurden. Konzeption und Evaluation des Prototyps fanden in enger Kooperation mit fünf Partnerunternehmen– JAKO-O, Wehrfritz, Haba, Northkite sowie Knaus Tabbert – aus der Region statt. In künftigen Arbeiten wird der Prototyp zielgerichtet weiterentwickelt und um neue Funktionalitäten ergänzt, z. B. zur Analyse multimedialer Inhalte wie Fotos und Videos oder zur automatischen Generierung von Handlungsempfehlungen zur Optimierung betrieblicher Abläufe.

Das Projekt UR SMART ist ein Teilprojekt des Kompetenzzentrums „Mobile Business und Social Media“ der Universitäten Regensburg, Ulm, Passau und Bamberg sowie der Hochschule für Angewandte Wissenschaften Landshut. Das Zentrum wurde im Juli 2015 eingerichtet und erhält bis Ende 2019 eine Förderung des Bayerischen Staatsministeriums für Wirtschaft und Medien, Energie und Technologie im Rahmen des „Internetkompetenzzentrums Ostbayern“. Zu den Forschungsthemen des Kompetenzzentrums gehören u. a. die Wissensgenerierung durch die Analyse von Social Media-Inhalten und -Strukturen, die Nutzung von Social Media im internen Informationsmanagement sowie intelligente mobile Applikationen. (Claudia Kulke)

Publikation:
UR SMART: Social Media Analysis Research Toolkit. In: Proceedings 37th International Conference on Information Systems (ICIS 2016), Dublin.

Externer Link: www.uni-regensburg.de

Virtual Reality als Live-Übertragung

Presseaussendung der TU Wien vom 05.12.2016

Der nächste Schritt für das Erleben virtueller Realität (VR): Die TU Wien ermöglicht Echtzeit-Streaming und 3D Erkundung von realen Umgebungen. So werden etwa live-Wohnungsbesichtigungen mit 3D-Brille möglich, ohne vor Ort sein zu müssen.

Wenn man sich mit einer 3D-Brille durch virtuelle Welten bewegt, ist die Umgebung normalerweise künstlich erstellt und von Beginn an am Computer abgespeichert. Nun geht es auch anders: Die Virtual Reality Forschungsgruppe der TU Wien hat eine Methode entwickelt, reale Umgebungen aufzuzeichnen, live zu streamen und daraus in Echtzeit eine 3D-Welt zu erstellen, durch die sich eine andere Person frei bewegen kann. Von der virtuellen Wohnungsbesichtigung über die Zusammenarbeit an verteilten Inspektionsaufgaben bis hin zum Voraberkunden von Einsatzorten bei Katastrophen werden damit ganz neue VR-Anwendungen möglich.

Besichtigung in Echtzeit

Was macht man, wenn man übersiedeln möchte und in einer fremden Stadt ein WG-Zimmer sucht? Natürlich kann man sich ein paar hübsche Fotos von der Wohnung schicken lassen – doch wie aktuell sie sind und wie viel sie mit der Wirklichkeit zu tun haben, weiß man nicht. Viel besser wäre es, die Wohnung in Echtzeit zu besichtigen, sich in 3D durch die Räume zu bewegen und zu sehen, wie es dort genau jetzt in diesem Augenblick aussieht. „Wir ermöglichen nun erstmals eine Echtzeit-Erkundung von realen Räumen über Virtual Reality“, sagt Annette Mossel vom Institut für Softwaretechnik und Interaktive Systeme, die mit ihrem VR-Konzept kürzlich bei der international wichtigsten Virtual-Reality-Konferenz ISMAR in Mexiko den Best Poster Award gewann. Im Rahmen seiner Diplomarbeit hat ebenfalls Manuel Kröter am Projekt mitgearbeitet.

Daten erzeugen beim virtuellen Spaziergang zu zweit

Die virtuelle Welt wird in Zusammenarbeit von mindestens zwei Personen erzeugt: die erste spaziert mit einer Tiefenkamera durch die Räume. Aus den Aufnahmen wird sofort eine dichte dreidimensionale Punktwolke erstellt und eine 3D-Karte der Wohnung berechnet. Die andere Person, die sich an einem ganz anderen Ort befindet, kann sich gleichzeitig dieselbe Wohnung ansehen. Aus der live über das Internet gestreamten 3D-Punktwolke, angereichert mit Farbinformation, wird ein dreidimensionales Gitternetzmodell erstellt, in das man mit Hilfe von VR immersiv eintauchen kann.

„Dass die virtuelle 3D-Welt, die die zweite Person erkunden kann, von einer anderen Person an einem ganz anderen Ort live erzeugt werden, ist neu“, erklärt Annette Mossel. „Erst dadurch wird eine verteilte Kollaboration der Personen und damit eine gemeinsame Erkundung von entfernten Räumlichkeiten möglich.“ Die zweite Person kann ganz in die virtuelle 3D-Welt eintauchen und sich frei durch die Wohnung bewegen. Dadurch erhält sie eine viel bessere Vorstellung des Raums, als man mit einem Foto oder mit einem 3D-Modell am Computer haben könnte.

„Wir haben unser VR-Konzept mit zahlreichen Versuchspersonen getestet und nach dem virtuellen Rundgang über die Wohnung befragt“, sagt Annette Mossel. Dabei zeigte sich, dass die Testpersonen nach der virtuellen Besichtigung ein sehr gutes Raumverständnis hatten. Sie konnten die Entfernungen in der Wohnung danach gut wiedergeben und sehr schnell ihren Weg durch das virtuelle Modell zu einem vorgegeben Zielpunkt finden.

Interessant könnte die Technik auch zur Unterstützung von Einsatzkräften am Katastrophenort sein. Anstatt eines Menschen könnte auch ein Roboter die Umgebung digital aufnehmen und den Einsatzort erkunden. So könnten Rettungskräfte ganz gefahrlos eine virtuelle Nachbildung des Einsatzortes besichtigen.

Auch zur Ausbildung von Einsatzkräften könnte diese Technologie herangezogen werden. So könnte man etwa Feuerwehrleute über 3D-Brillen mit einem realistischen Katastrophenszenario konfrontieren. Auch in diesem Fall könnte die Umgebung – je nach gewünschtem Übungsverlauf – in Echtzeit erstellt und live in die virtuelle Welt der Einsatzkräfte eingespielt werden. (Florian Aigner)

Externer Link: www.tuwien.ac.at

Wie Grundschüler von Tablet-Lernangeboten profitieren können

Pressemitteilung der Universität Tübingen vom 24.11.2016

Studie der Tübinger Bildungsforschung: Der Einsatz von Tablet-Programmen sollte auf Lernziele und die Voraussetzungen der Nutzer zugeschnitten sein

Grundschüler profitieren von Tablet-Lernangeboten im Unterricht – aber nur, wenn diese an die jeweiligen Lernziele sowie die kognitiven Fähigkeiten des einzelnen Kindes angepasst sind. Zu diesem Schluss kommen Tübinger Wissenschaftlerinnen und Wissenschaftler des Hector-Instituts für Empirische Bildungsforschung und des Leibniz-Instituts für Wissensmedien in einer Studie. Die Ergebnisse wurden in der Zeitschrift „Learning and Individual Differences“ veröffentlicht.

Tablet-Computer lassen sich intuitiv durch Bildschirmberührung und Steuergesten bedienen. Auch jüngeren Kindern ist so prinzipiell der Zugang zu komplexen computerbasierten Lernangeboten möglich. Aber können sie derartige Angebote schon sinnvoll nutzen? Und führen komplexe Tablet-Apps für Grundschüler im Vergleich zu einfacheren Angeboten auch zu einem erhöhten Lernerfolg? Um dies zu beantworten, verglichen die Tübinger Forscher zwei verschiedene Tablet-Lernanwendungen und untersuchten, ob Kinder mit sogenannten Hypermedien ‒ das sind vernetzte Dokumente, die mit anderen Medien wie Grafik, Ton oder Video elektronisch verlinkt sind ‒ vertiefter lernen als mit einfacher strukturierten Tablet-Angeboten wie einem multimedialen E-Book zum Durchblättern.

Ihr Fazit: Das Lernen mit Hypermedien hat Vorteile für das mehrperspektivische Denken, also die Fähigkeit, ein Problem aus verschiedenen Perspektiven zu betrachten. Dies funktioniert aber nur, wenn Schülerinnen und Schüler über ein hinreichend leistungsfähiges Arbeitsgedächtnis verfügen. Beim Faktenwissen schnitt die „einfache“ Lernumgebung eines E-Books besser ab.

Für die Studie entwickelten die Wissenschaftler zwei Arten von Lernmaterialien für Tablets, mit deren Hilfe sich Kinder Wissen über das Thema Biodiversität von Fischen aneignen sollten. Fast 200 Viertklässler aus Baden-Württemberg sollten sich in die Rolle eines Aquariummitarbeiters versetzen und mit zwei Dutzend verschiedenen Fischarten beschäftigen. Mit Hilfe von Tablets bewältigten sie konkrete Aufgaben zu verschiedenen Themenbereichen: Welches Futter brauchen einzelne Fischarten? In welchem Gewässer sind sie zuhause? Leben sie als Einzelgänger oder im Schwarm? Die Aufgaben waren so gestellt, dass die Kinder insgesamt sechs solcher thematischen Perspektiven einnehmen und miteinander in Beziehung setzen mussten. Damit sollte über reines Faktenlernen hinaus auch mehrperspektivisches Denken geschult werden, das für komplexe Problemstellungen wichtig ist.

Die Kinder der einen Gruppe erhielten ein hypermediales Tablet-Lernangebot. Als Ausgangspunkt wurden alle Fischarten in einer alphabetischen Anordnung abgebildet. Wenn die Kinder eine der Abbildungen auf dem Bildschirm berührten, erhielten sie zusätzlich einen Text und ein Video mit Informationen zur jeweiligen Fischart. Außerdem gab es sechs Schaltflächen, mit denen die Kinder die Fische automatisch thematisch umsortieren konnten, zum Beispiel im Hinblick auf Essgewohnheiten, Lebensraum oder Sozialverhalten. Die Kinder der zweiten Gruppe wurden nicht durch diesen hypermedialen Perspektivenwechsel unterstützt. Sie nutzten auf dem Tablet ein multimediales E-Book zum Durchblättern. Dies enthielt zwar die gleichen Informationen zu den verschiedenen thematischen Perspektiven, die Informationen wurden aber in der Reihenfolge vorgegeben, wie sie zum Lösen der Aufgaben gebraucht wurden.

Gemessen wurde, wie gut Kinder die einzelnen Aufgaben mit dem Tablet bearbeiteten und wie gut sie sich später an die dafür relevanten Fakten erinnern konnten. Außerdem wurde erfasst, wie gut sie das am Fisch-Beispiel erlernte mehrperspektivische Denken auch auf neue Problemsituationen in anderen Bereichen anwenden konnten. Schließlich wurde erhoben, wie gut ihr Arbeitsgedächtnis in Bezug auf Sprache, Zahlen und visuelle Informationen funktionierte. Die Ergebnisse zeigen zum einen, dass die Schüler sich Fakten besser merken konnten, wenn diese in der einfachen E-Book-Version präsentiert wurden. Das vertiefte Lernen im Sinne eines späteren mehrperspektivischen Denkens bei einer Transferaufgabe wurde aber besser mit dem komplexen hypermedialen Tablet-Lernangebot geschult. Dieser Vorteil fiel umso größer aus, je besser das Arbeitsgedächtnis der Kinder funktionierte. Nur für Kinder mit einer unterdurchschnittlichen Arbeitsgedächtniskapazität konnte kein Vorteil der Hypermedia-App gefunden werden.

„Das heißt nun aber nicht, dass hypermediale Tablet-Anwendungen leichtfertig im Unterricht  eingesetzt werden sollten“, erklärt Peter Gerjets vom Leibniz-Institut für Wissensmedien. Vielmehr kommt es immer darauf an, welches Lernziel man verfolgt und welche kognitiven Voraussetzungen die Schüler mitbringen. „Für Kinder, die über eine hohe Kapazität des Arbeitsgedächtnisses verfügen, scheinen Hypermedia-Apps jedoch potenziell nützlich zu sein, um vertiefte Lernprozesse anzuregen.“

Publikation:
Kornmann, J.,  Kammerer, Y., Zettler, I., Trautwein, U. & Gerjets, P. (2016). Hypermedia exploration stimulates multiperspective reasoning in elementary school children with high working memory capacity: A tablet computer study. Learning and Individual Differences, 51, 273-283.

Externer Link: www.uni-tuebingen.de

Wie der Computer unsere Vorlieben errät

Presseaussendung der TU Wien vom 14.09.2016

Was unser Traum-Reiseziel ist, wissen wir oft selber nicht – doch Algorithmen, wie sie an der TU Wien und vom Spin-off-Unternehmen Pixtri entwickelt werden, machen intelligente Vorschläge.

Täglich versuchen Computer zu erraten, was uns gefallen könnte: Onlineshops schlagen uns neue Produkte vor, Filmstreaming-Anbieter versuchen, unseren Filmgeschmack zu verstehen, Werbefirmen wollen passende Werbebanner für uns auswählen. Doch oft liegen diese Empfehlungs-Tools auch ziemlich falsch. An der TU Wien hat man einen neuen Ansatz gewählt, der gemeinsam mit dem TU-Spin-off-Unternehmen Pixtri weiterentwickelt wird. Man versucht den User durch Bilder einem bestimmten Typus zuzuordnen. Bei komplizierten Aufgaben, etwa bei der Suche nach dem optimalen Reiseziel, liefert das neue Verfahren sehr gute Ergebnisse, die mit herkömmlichen Methoden nicht zu erzielen wären.

User analysieren statt Produkte bewerten

„Die meisten Empfehlungs-Tools haben einfach zu jedem Produkt eine Liste von Eigenschaften abgespeichert“, erklärt Julia Neidhardt vom Institut für Softwaretechnik und Interaktive Systeme der TU Wien. „Man bekommt dann Produkte vorgeschlagen, die ähnliche Eigenschaften haben oder zu ähnlichen Kategorien gehören wie die, die man bereits gekauft hat.“ So ist es einfach, einem Käufer von Golfschlägern auch den Kauf von Golfbällen zu empfehlen – doch komplexe Aufgaben wie etwa die Auswahl eines Reiseziels können auf diese Weise kaum gelöst werden.

An der TU Wien versucht man es daher anders herum: Nicht das Produkt soll charakterisiert werden, sondern der User. Man bekommt eine Reihe von Bildern angezeigt und soll diejenigen auswählen, die einem am besten gefallen. Basierend darauf kann man einem bestimmten Urlaubertyp zugeordnet werden, und der Computer schlägt passende Reiseziele vor.

Die Idee geht auf Prof. Hannes Werthner zurück, der an der TU Wien die Arbeitsgruppe für e-commerce leitet. Was als Grundlagenforschung begann wurde bald zum wirtschaftlichen Erfolg – nicht zuletzt durch das TU-Spin-off Pixtri, einer Firma, die für verschiedene Anbieter Empfehlungs-Software herstellt. „Stimmungsbilder, die man über Bilder abfragen kann, sind für uns viel interessanter als die Hard Facts über unserer User, etwa das Alter oder der Wohnort“, erklärt Rainer Schuster von Pixtri, der selbst bei Hannes Werthner an der TU Wien promovierte.

Das System ist einfach zu bedienen, mit wenigen Mausklicks gelangt man zu einem Ergebnis, doch dahinter stecken mehr komplizierte Forschungsfragen als man auf den ersten Blick meinen könnte. „Wir unterscheiden sieben Reisefaktoren, um individuelle Vorlieben zu beschreiben – dabei konnten wir uns auf Einteilungen stützen, die es bereits gab“, sagt Rainer Schuster. „Eine Herausforderung ist es, die optimalen Bilder zu finden, dafür haben wir zahlreiche Tests mit vielen Versuchspersonen durchgeführt.“

Ein Foto von einem Traumstrand findet fast jeder schön, das sagt wenig über den Reisetyp des Users aus. Man muss daher für diesen Zweck nicht unbedingt Fotos auswählen, die sich als Umschlagbild für einen Reiseprospekt eignen würden, sondern Fotos, die statistisch gesehen besonders gut dafür eignen, zwischen unterschiedlichen Reisevorlieben zu unterscheiden.

Konzerttipps und Mode

Dasselbe Verfahren lässt sich auch für andere Zwecke einsetzen – etwa für die Suche nach passenden Veranstaltungen und Konzerten. „Wir können dann zusätzlich zu Bildern auch kurze Soundbytes verwenden“, sagt Schuster. Das muss kein Ausschnitt aus einem Musikstück sein, auch in diesem Bereich funktioniert die Zuordnung subtiler: Ob jemand einen Audioclip mit jubelnder Menge beim Rockkonzert gut findet, ob jemand das Geräusch einer geöffneten Bierdose ganz nach oben reiht – all das kann viel darüber aussagen, welche Veranstaltung dieser Person vorgeschlagen werden sollten. besser „Auch im Bereich Mode und Schmuck gibt es bereits Pläne, die Algorithmen von TU Wien und Pixtri zu verwenden, an konkreten Kooperationen wird bereits gearbeitet.“

„Noch komplizierter wird die Sache, wenn man nach der optimalen Lösung für mehrere Personen mit unterschiedlichen Bedürfnissen sucht – zum Beispiel nach einem Urlaubsziel für eine Reisegruppe“, sagt Julia Neidhardt. „Da ist noch spannende Grundlagenforschung zu erledigen, aber wir sind zuversichtlich, dass wir auch dabei Erfolg haben werden.“ (Florian Aigner)

Externer Link: www.tuwien.ac.at