Software hilft Software besser zu machen

Presseinformation des KIT (Karlsruher Institut für Technologie) vom 21.02.2012

IT am KIT: Ingenieurwissenschaftlicher Ansatz für nachhaltige und verlässliche Softwaresysteme / Software-Simulator PALLADIO analysiert Programme im Vorfeld der Implementierung

Je früher man ein Problem erkennt, desto einfacher kann man es lösen. Deshalb wollen auch Informatiker, bevor sie langwierig komplexe Programme implementieren, wissen, ob diese die gewünschte Leistung erbringen werden. Neben der eigenen Berufserfahrung können Entwickler sich nun auch auf das Simulationstool PALLADIO stützen. Das von Prof. Ralf Reussner vom KIT initiierte und koordinierte Softwarepaket analysiert im Vorfeld die Programmstruktur und prognostiziert Ressourcenbedarf und Einschränkungen.

„Am Anfang stand die Beobachtung, dass Software-Entwickler nach dem Trial-and-Error-Verfahren arbeiten – bei näherer Betrachtung eigentlich eine sehr ineffiziente Methode, fehlerfreie Software herzustellen“, so Prof. Ralf Reussner vom Karlsruher Institut für Technologie. Das sei vergleichbar mit dem Brückenbau: „Wenn man eine Brücke bauen möchte, setzt man nicht einfach Stein auf Stein, lässt anschließend einen LKW darüber fahren und hofft, dass die Brücke hält.“ Stattdessen berechnen Simulationsprogramme Statik und Bauweise und liefern so verlässliche Rahmenbedingungen für Architekten und Ingenieure.

Diese ingenieurwissenschaftliche Vorgehensweise wurde nun von Reussners Forschergruppe auf die Softwaretechnik übertragen. Entstanden ist das Open-Source-Software-Paket PALLADIO und ein ergänzendes Beratungsangebot für Industriepartner. Benannt ist das Projekt nach dem Renaissance-Architekten Andrea Palladio, der stilgebend Ästhetik und Funktion in seinen Bauwerken vereinte. Es soll Programmierer bei der Entwicklung verlässlicher, nachhaltiger und komplexer Software unterstützen. Die Analyse der Software-Architektur liefert Erkenntnisse über die nicht-funktionalen Eigenschaften wie Performanz, Zuverlässigkeit, Wartbarkeit und Kosten. Auch die Abläufe in den Komponenten und Subkomponenten, die Skalierbarkeit, Ressourcennutzung und Verteilungsaspekte der Software werden offen gelegt – der komplette „Grundriss“ der Software wird überprüft bevor „gebaut“ wird.

PALLADIO arbeitet modellbasiert. Anstatt über Versuch und Irrtum ein Software-System zu implementieren und dann Einschränkungen festzustellen, hilft PALLADIO mögliche Einschränkungen, etwa Flaschenhälse, Last- und Elastizitätsprobleme im Vorfeld auf der Modellebene zu erkennen und zu vermeiden. Damit werden teure Implementierungen unsinniger Software-Entwürfe vermieden.

Die praktischen Anwendungsmöglichkeiten von PALLADIO machen den Software-Simulator interessant für Industrie und Wirtschaft mit komplexen Softwaresystemen oder in Anwendungen mit hohen Qualitätsanforderungen. Besonders Unternehmen mit ausgeprägter IT-Struktur erhalten damit die Möglichkeit, eine verbesserte Qualitätssicherung durchzuführen und die Effizienz bei der Erstellung performanter und zuverlässiger Software zu erhöhen.

In diversen Industrieberatungsprojekten konnte das angeschlossene Forschungszentrum Informatik (FZI) mittels PALLADIO bereits erfolgreich Qualitätsverbesserungen und Planungssicherheit erreichen, die insbesondere bei unternehmenskritischen Software-Systemen wichtig sind. „Derzeit bereiten wir PALLADIO auf die Simulation der Integration von Bestands-Software und Cloud Computing, dem sogenannten hybriden Cloud-Computing, vor“ so FZI Abteilungsleiter Dr. Klaus Krogmann. „Auf diese Weise können wir beispielsweise die Cloud-Performanz mit Bestands-Software verknüpfen“.

Das Entwicklungteam von PALLADIO besteht mittlerweile im Kern aus Experten des KIT, des FZI und der Universität Paderborn. Die drei Forschungspartner sind dadurch in der Lage schnell auf neue Forschungsfragen wie zum Beispiel die Qualität virtualisierter Cloud-Anwendungen zu reagieren. (iah/kes)

Externer Link: www.kit.edu

Dreidimensional ohne 3D-Brille

Presseaussendung der JKU Linz vom 23.01.2012

Informatiker der JKU Linz entwickeln Methode zur Bearbeitung von Lichtfeldern

Zweidimensionale digitale Bildaufnahmen könnten bald der Vergangenheit angehören. Zukünftig werden Bildinformationen in Form von Lichtfeldern aufgenommen und dargestellt. Damit werden die Abbildungen dreidimensional, Fokus und Perspektive lassen sich nachträglich verändern. Wissenschafter des Instituts für Computergrafik der Johannes Kepler Universität (JKU) Linz haben nun ein revolutionäres Verfahren entwickelt, welches das Strecken und Stauchen von Lichtfeldern ermöglicht. Aufnahmen können so bequem auf eine beliebige Größe und ein gewünschtes Seitenverhältnis angepasst werden – ohne dass wichtige Inhalte unnatürlich verzerrt werden.

Wer mit einer herkömmlichen Digitalkamera fotografiert, erhält lediglich ein zweidimensionales Bild. Neuartige Lichtfeldkameras nutzen hingegen spezielle optische Elemente, wie z.B. Mikrolinsenfelder, um Richtungsinformationen des Lichtes zu erhalten – zu den zweidimensionalen Bildkoordinaten kommen dadurch zweidimensionale Richtungskoordinaten hinzu. Daraus entstehen vierdimensionalen Abbildungen, die man Lichtfelder nennt.

Dreidimensional ohne 3D-Brille

Der Vorteil von Lichtfeldern gegenüber herkömmlichen Bildern besteht darin, dass sie viel mehr Informationen enthalten. Daraus lassen sich zum Beispiel im Nachhinein Fokus und Perspektive einer Aufnahme am Computer ändern, oder Tiefeninformationen und Abbildungen mit sehr hoher Tiefenschärfe errechnen. Lichtfelder haben insgesamt das Potential, digitale Abbildungen zu revolutionieren. Das gilt nicht nur für bildgebende Systeme und die Verarbeitung digitaler Bildinformationen, sondern auch für Displaysysteme. Für zukünftige Displaytechnologien ermöglichen Lichtfelder die Darstellung dreidimensionaler Inhalte für beliebig viele Betrachter und ohne Hilfsmittel wie 3D-Brillen.

Lichtfeldaufnahmen lösen digitale Bildaufnahmen ab

Aber besonders in der Fotografie bedeuten moderne Lichtfeldkameras einen klaren Entwicklungssprung. Digitale Bildaufnahmen könnten bald von Lichtfeldaufnahmen abgelöst werden. Eine zentrale Herausforderung liegt hier aber noch in der Verarbeitung: Lichtfelder sollten genauso digital nachbearbeitet werden können, wie es heute für zweidimensionale Abbildungen, also für Bilder und Videos, möglich ist. Dort werden die Abbildungen in dem Seitenverhältnis der Kamera aufgenommen und später auf verschiedenen Displays mit dementsprechend unterschiedlichen Seitenverhältnissen dargestellt. Die Bildinhalte sollten dabei so auf die neuen Seitenverhältnisse angepasst werden, dass kein Bildinhalt abgeschnitten oder unnatürlich gestreckt bzw. gestaucht wird. Algorithmen, die diese Skalierung in Abhängigkeit des eigentlichen Bildinhaltes durchführen nennt man Retargeting. Diese aus der digitalen Bildverarbeitung und der Digitalfotografie bekannte Technik kann aber oft nicht ohne weiteres auf Lichtfelder angewendet werden.

Methode zur Bearbeitung von Lichtfeldern

Hier schaffen die Wissenschafter am Institut für Computergrafik der JKU unter der Leitung von Prof. Oliver Bimber Abhilfe: Sie haben Softwarealgorithmen entwickelt, die es ermöglichen, Lichtfelder entsprechend zu analysieren und zu bearbeiten. Zur im Mai 2012 stattfindenden Fachtagung Eurographics (Cagliari, Italien) und im internationalen Journal Computer Graphics Forum präsentieren sie erstmals ein Verfahren, welches das nichtlineare Strecken und Stauchen von Lichtfeldern ermöglicht. Dabei können Aufnahmen aus einer Lichtfeldkamera bequem auf eine beliebige Größe und ein gewünschtes Seitenverhältnis angepasst werden – ohne dass wichtige Inhalte unnatürlich verzerrt werden. Die JKU-Forscher stellen damit das weltweit erste Retargetingverfahren für Lichtfelder vor. (Manfred Rathmoser)

Externer Link: www.jku.at

Navigation für Elektrorollstühle

Pressemitteilung der RWTH Aachen vom 12.01.2012

Oft reicht der Akku seines Rollstuhls nicht für die Fahrt zur Hochschule und wieder zurück nach Hause. Dzenan Dzafic studiert Informatik an der RWTH. Er nutzte sein hier erworbenes Wissen und entwickelte ein mobiles Navigationssystem für Elektrorollstühle: „Fahrzeuge mit Elektromotoren sind in ihrem Bewegungsraum durch die Akku-Kapazität und den Stromverbrauch eingeschränkt. Der Stromverbrauch ist stark abhängig von der Steigung und dem Straßenbelag. Je größer die zu bewältigende Steigung und je unebener der Belag ist, desto schneller sinkt der Akkustand“, erklärt Dzafic. Zusammen mit Diplom-Informatiker Dominik Franke, wissenschaftlicher Mitarbeiter am Lehrstuhl für Informatik 11 (Software für eingebettete System), entwickelte er einen Algorithmus auf Basis von Daten aus der OpenStreetMap, kurz OSM. Sie gingen dabei davon aus, dass ein kurzer Weg nicht immer effizient sein muss: „Auch wenn ich laut Plan schneller an einem Ort sein könnte, kann ich wegen vieler Steigungen auf halber Strecke nicht mehr weiterkommen“, berichtet Dzafic. Mit Hilfe der neuen Daten soll der Energieverbrauch einer Route angezeigt und damit die Reichweite des Fahrzeugs maximiert werden.

Noch gibt es wenige Systeme, die den Akkustand zu Beginn der Route, die Steigung des Streckenverlaufs und mögliche Ladestationen für Elektrofahrzeuge berücksichtigen. Die frei verfügbare Weltkarte OSM war Ausgangspunkt für den am RWTH-Lehrstuhl unter Leitung von Professor Dr.-Ing. Stefan Kowalewski entwickelten Rollstuhl-Routenplaner. Durch die freie und kostenlose Nutzbarkeit bietet OSM den Vorteil, dass die Benutzer Informationen in die Karte eingeben können. „Hier sind bereits mehrere Teile Deutschlands erfasst“, so Franke. „In Aachen basieren die Daten auf meinen Erfahrungswerten“, ergänzt Dzafic.

Um die Akku-Kapazität eines Rollstuhls zu bestimmen, umfuhr der 29-Jährige mit speziellen Sensoren am Rollstuhl immer wieder den Sportplatz des Hochschulsportzentrums. „Die Strecke ist besonders ebenmäßig und eignete sich daher gut für die Messungen. Es dauerte vier Stunden, bis der Akku leer war“, berichtet Dzafic. Danach testeten die beiden Informatiker verschiedene Steigungen in Aachen, die maximale Bordsteinhöhe, die Straßenbeschaffenheit und das Gefälle wurden ebenfalls berücksichtigt. Mit Hilfe dieser Messungen und den Daten aus OSM berechneten sie eine effiziente und eine kurze Route. Dem Nutzer werden künftig beide Wege sowie der Energieverbrauch angezeigt. „Unser Routenplaner kann bei einer Strecke von 300 Metern bis zu 20 Prozent der Energie einsparen“, so Franke.

In Zusammenarbeit mit dem Exzellenzcluster UMIC (Ultra high-speed Mobile Information and Communication) Research Centre der RWTH und der Universität Heidelberg konnte der Algorithmus in den Webservice www.rollstuhlrouting.de integriert und zusätzlich um den mobilen Client AndNav für die Plattform Android erweitert werden. Somit ist die Route auch per Mobiltelefon abrufbar. Mit seiner Anwendung hat Dzafic dabei nicht nur großes Interesse bei Betroffenen geweckt, auch viele Wissenschaftler nahmen Kontakt auf. Das Projekt soll nun auf verschiedene Formen der Elektromobilität ausgedehnt werden. (Celina Begolli)

Externer Link: www.rwth-aachen.de

Ballkamera mit Rundumblick

Medieninformation der TU Berlin vom 08.11.2011

Erfindung wird in Hongkong präsentiert

Panoramabilder aus dem Urlaub waren bislang eher etwas für Tüftler, die stundenlang zu Hause Papierbilder zusammenpuzzelten oder digital zusammenschnitten. Mit einer neuen Erfindung aus der TU Berlin hat solches Tun zukünftig ein Ende. Eine 360-Grad-Rundumpanorama-Wurfkamera, die wie ein Ball in die Höhe geworfen werden kann und am höchsten Punkt dann 36 Aufnahmen macht, macht’s möglich.

Erfunden hat die Ballkamera ein Team rund um Jonas Pfeil, der sie im Zuge seiner Diplomarbeit „Throwable Camera Array for Capturing Spherical Panoramas“ entwickelt hat. Die Arbeit entstand am TU-Fachgebiet Computer Graphics, betreut von Prof. Dr. Marc Alexa und Prof. Dr. Bernd Bickel.

„Die Idee kam mir auf einer Wanderung auf den Tonga-Inseln, während meines Auslandsstudienjahres in Neuseeland. Ich war so fasziniert von der Landschaft, dass ich viele Panoramen aus überlappenden Fotos aufgenommen habe. Das dauert lange und ist umständlich. Außerdem kann man keine bewegten Motive fotografieren“, erzählt Jonas Pfeil. Kreativ war der ehemalige Student der Technischen Informatik aber schon immer. Als Schüler nahm der heute 28-Jährige mehrmals am „Jugend forscht“-Wettbewerb teil. 2002 erreichte er sogar zusammen mit seinem Team den zweiten Platz mit der Navigation für einen autonomen Roboter. „GPS im Kinderzimmer“ hieß das Projekt.

Auf den ersten Blick sieht seine Wurfkamera wie ein grüner Schaumstoff-Fußball aus. Doch rundum sind 36 kleine Digitalkameras mit je zwei Megapixeln installiert. Am höchsten Punkt der Flugbahn lösen alle 36 gleichzeitig aus. Ein Beschleunigungssensor ermittelt diesen Punkt.

Übertragen werden die Bilder einfach per USB-Anschluss auf den PC. „Das Panoramabild wird durch eine besondere Software, eine sogenannte Stitching-Software, aus den Einzelbildern automatisch zusammengesetzt“, erläutert Kristian Hildebrand, der zusammen mit Jonas Pfeil an der Entwicklung der Kamera beteiligt war. So können Benutzer interaktiv die aufgenommene Umgebung vollständig erkunden. Doch auch der Spaß soll nicht zu kurz kommen: „Wir haben festgestellt, dass unsere Panoramawurfkamera die Fotografie um ein weiteres interessantes und spielerisches Element ergänzt“, so Kristian Hildebrand.

„Es ist natürlich derzeit nur ein Prototyp“, sagt Jonas Pfeil, „wir hoffen aber, dass wir sie weiter zur Marktreife entwickeln können und sie dann in den Handel kommt.“ So will Jonas Pfeil, der bereits ein Patent angemeldet hat, die Ballkamera noch handlicher machen, sie etwa auf Tennisballgröße schrumpfen lassen. Verhandlungen für eine Serienproduktion haben die jungen Erfinder schon aufgenommen. Etwa 100 Euro könnte diese neue Form, Urlaubsbilder zu schießen, dann kosten.

Interesse ist übrigens an der Wurfkamera nicht nur hierzulande vorhanden. Sie werde im Moment auf der ganzen Welt wahrgenommen, so der betreuende Professor Marc Alexa. „Ende des Jahres werden wir sie auf der ‚SIGGRAPH Asia‘ in Hongkong vorstellen, einer Konferenz und Ausstellung für Computer Graphics und interaktive Technik.“ (pp)

Externer Link: www.tu-berlin.de

Ein Stapel von 35 Millionen Megapixel-Photos

Pressemitteilung der Universität Stuttgart vom 19.10.2011

Weltrekord in 3D-Bildgebung poröser Gesteine

Einen Weltrekord auf dem Gebiet der dreidimensionalen Bildgebung für poröse Materialien haben Physiker um Prof. Rudolf Hilfer am Institut für Computerphysik (ICP) an der Universität Stuttgart aufgestellt. Im Rahmen eines Projekts des Exzellenzclusters Simulation Technology haben die Wissenschaftler das bisher größte und genaueste dreidimensionale Bild von der Porenstruktur eines Sandsteins erstellt. Es ist mehr als 35 Billionen (Zahl mit zwölf Nullen) Voxel – sprich Bildpunkte – groß und erlaubt es, die Wechselbeziehung zwischen Mikrostrukturen poröser Gesteine und deren physikalischen Eigenschaften noch besser zu verstehen. Poröse Gesteine spielen beispielsweise bei der Erdölförderung, der Kohlendioxidverpressung oder der Grundwasserversorgung eine entscheidende Rolle.

Bei der dreidimensionalen Bildgebung werden räumliche Strukturen digitalisiert und dann ähnlich wie Digitalphotos durch Bildpunkte dargestellt. Als Voxel werden die Bildpunkte dreidimensionaler Bilder bezeichnet – analog zu Pixel für Digitalphotos. Auf den dreidimensionalen Bildern am ICP ist die poröse Mikrostruktur eines Fontainebleau-Sandsteinwürfels mit der Kantenlänge von 1,5 Zentimetern systematisch über drei Dekaden vom Submillimeterbereich bis in den Nanometerbereich aufgelöst und digital abgebildet. Die Porenstruktur ähnlicher Sandsteine ist beispielsweise entscheidend für die hydraulischen Eigenschaften von Erdöllagerstätten und damit für die Gewinnbarkeit von Erdöl. Das größte dreidimensionale Bild, das die Physiker um Prof. Hilfer von der Mikrostruktur des Sandsteins erstellt haben, umfasst 32.768 hoch drei Bildpunkte, ist also insgesamt 35.184.372.088.832 Voxel groß.

Zum Vergleich: Klinische Ganzkörperaufnahmen eines Menschen, zum Beispiel Magnetresonanztomographiebilder, enthalten circa 720 Millionen Voxel. Selbst dreidimensionale Bilder in technischen und wissenschaftlichen Studien bestehen derzeit lediglich aus bis zu 20 Milliarden Voxel. In Digitalphotos mit zehn Megapixeln (also mit etwa zehn Millionen Bildpunkten) ausgedrückt, würde die Ganzkörperaufnahme einem Stapel von 72 Digitalphotos entsprechen, bei dem größten dreidimensionale Bild am ICP würde der Stapel etwa 35 Millionen Digitalphotos umfassen. „Dieser Weltrekord ist für die Physik poröser Materialien sehr wichtig, weil es dadurch erstmals möglich wird, äußerst komplexe Mikrostrukturen in Abhängigkeit von der Auflösung systematisch zu untersuchen“, sagt Hilfer. Die Mikrostruktur eines Materials bestimmt weitgehend seine elastischen, plastischen, mechanischen, elektrischen, magnetischen, thermischen, rheologischen und hydraulischen Eigenschaften. Umgekehrt können die Physiker aus den physikalischen Eigenschaften Rückschlüsse auf die Mikrostruktur ziehen.

Bisher war es nicht möglich, die vollständige Mikrostruktur einer Probe von mehreren Zentimetern Ausdehnung mit einer Auflösung von einigen hundert Nanometern abzubilden. „Man bräuchte mehrere Jahre Messzeit an einem Teilchenbeschleuniger wie zum Beispiel dem europäischen Synchrotronspeicherring in Grenoble, um dreidimensionale Abbildungen vergleichbarer Größe und Genauigkeit herzustellen“, erklärt Hilfer. Sein Team hat deshalb einen anderen Weg eingeschlagen. Zunächst haben die Forscher Verfahren und Theorien entwickelt, mit denen es möglich ist, Mikrostrukturen zu vergleichen und zu kalibrieren. Anschließend haben sie Algorithmen und Datenstrukturen entwickelt, die es erlauben, Computermodelle hinreichender Größe und Genauigkeit zu erzeugen. Diese Modelle haben die Stuttgarter Physiker schließlich rechnerisch digitalisiert und an realen Gesteinsproben kalibriert.

Externer Link: www.uni-stuttgart.de