Dreidimensional ohne 3D-Brille

Presseaussendung der JKU Linz vom 23.01.2012

Informatiker der JKU Linz entwickeln Methode zur Bearbeitung von Lichtfeldern

Zweidimensionale digitale Bildaufnahmen könnten bald der Vergangenheit angehören. Zukünftig werden Bildinformationen in Form von Lichtfeldern aufgenommen und dargestellt. Damit werden die Abbildungen dreidimensional, Fokus und Perspektive lassen sich nachträglich verändern. Wissenschafter des Instituts für Computergrafik der Johannes Kepler Universität (JKU) Linz haben nun ein revolutionäres Verfahren entwickelt, welches das Strecken und Stauchen von Lichtfeldern ermöglicht. Aufnahmen können so bequem auf eine beliebige Größe und ein gewünschtes Seitenverhältnis angepasst werden – ohne dass wichtige Inhalte unnatürlich verzerrt werden.

Wer mit einer herkömmlichen Digitalkamera fotografiert, erhält lediglich ein zweidimensionales Bild. Neuartige Lichtfeldkameras nutzen hingegen spezielle optische Elemente, wie z.B. Mikrolinsenfelder, um Richtungsinformationen des Lichtes zu erhalten – zu den zweidimensionalen Bildkoordinaten kommen dadurch zweidimensionale Richtungskoordinaten hinzu. Daraus entstehen vierdimensionalen Abbildungen, die man Lichtfelder nennt.

Dreidimensional ohne 3D-Brille

Der Vorteil von Lichtfeldern gegenüber herkömmlichen Bildern besteht darin, dass sie viel mehr Informationen enthalten. Daraus lassen sich zum Beispiel im Nachhinein Fokus und Perspektive einer Aufnahme am Computer ändern, oder Tiefeninformationen und Abbildungen mit sehr hoher Tiefenschärfe errechnen. Lichtfelder haben insgesamt das Potential, digitale Abbildungen zu revolutionieren. Das gilt nicht nur für bildgebende Systeme und die Verarbeitung digitaler Bildinformationen, sondern auch für Displaysysteme. Für zukünftige Displaytechnologien ermöglichen Lichtfelder die Darstellung dreidimensionaler Inhalte für beliebig viele Betrachter und ohne Hilfsmittel wie 3D-Brillen.

Lichtfeldaufnahmen lösen digitale Bildaufnahmen ab

Aber besonders in der Fotografie bedeuten moderne Lichtfeldkameras einen klaren Entwicklungssprung. Digitale Bildaufnahmen könnten bald von Lichtfeldaufnahmen abgelöst werden. Eine zentrale Herausforderung liegt hier aber noch in der Verarbeitung: Lichtfelder sollten genauso digital nachbearbeitet werden können, wie es heute für zweidimensionale Abbildungen, also für Bilder und Videos, möglich ist. Dort werden die Abbildungen in dem Seitenverhältnis der Kamera aufgenommen und später auf verschiedenen Displays mit dementsprechend unterschiedlichen Seitenverhältnissen dargestellt. Die Bildinhalte sollten dabei so auf die neuen Seitenverhältnisse angepasst werden, dass kein Bildinhalt abgeschnitten oder unnatürlich gestreckt bzw. gestaucht wird. Algorithmen, die diese Skalierung in Abhängigkeit des eigentlichen Bildinhaltes durchführen nennt man Retargeting. Diese aus der digitalen Bildverarbeitung und der Digitalfotografie bekannte Technik kann aber oft nicht ohne weiteres auf Lichtfelder angewendet werden.

Methode zur Bearbeitung von Lichtfeldern

Hier schaffen die Wissenschafter am Institut für Computergrafik der JKU unter der Leitung von Prof. Oliver Bimber Abhilfe: Sie haben Softwarealgorithmen entwickelt, die es ermöglichen, Lichtfelder entsprechend zu analysieren und zu bearbeiten. Zur im Mai 2012 stattfindenden Fachtagung Eurographics (Cagliari, Italien) und im internationalen Journal Computer Graphics Forum präsentieren sie erstmals ein Verfahren, welches das nichtlineare Strecken und Stauchen von Lichtfeldern ermöglicht. Dabei können Aufnahmen aus einer Lichtfeldkamera bequem auf eine beliebige Größe und ein gewünschtes Seitenverhältnis angepasst werden – ohne dass wichtige Inhalte unnatürlich verzerrt werden. Die JKU-Forscher stellen damit das weltweit erste Retargetingverfahren für Lichtfelder vor. (Manfred Rathmoser)

Externer Link: www.jku.at

Quantenphysik macht sicheres Cloud Computing möglich

Pressemeldung der Universität Wien vom 19.01.2012

Quantencomputer mit Quantenkryptographie vereinigen ForscherInnen des Vienna Center for Quantum Science and Technology (VCQ) an der Universität Wien und des Instituts für Quantenoptik und Quanteninformation der Österreichischen Akademie der Wissenschaften. Sie zeigen in der aktuellen Ausgabe von „Science“, dass Quanteneffekte absolut sicheres Cloud Computing ermöglichen. In einem Experiment gelang es, einen Quantencomputer so zu konstruieren, dass alle Ergebnisse der Daten und Rechnungen dem Computer selbst verborgen blieben.

Quantencomputer haben gegenüber klassischen Computern einen bedeutenden Vorteil: schnellere Rechnungen, die auf Quanteneffekten beruhen. Aufgrund Ihrer Komplexität existieren sie bisher nur als Grundlagenexperimente wie im Labor der Fakultät für Physik der Universität Wien. Daher ist es naheliegend, dass diese Technik zukünftig zunächst nur in wenigen spezialisierten Rechenzentren zur Verfügung stehen wird – ähnlich wie bei heutigen Großrechnern.

Auslagerung in die „Rechnerwolke“

Diese Strategie folgt dem aktuellen Trend des Cloud Computing, bei dem IT-Leistungen werden in die „Rechnerwolke“ ausgelagert werden. Nutzer könnten von außerhalb Anfragen an einen Quantencomputer stellen und Quantenrechnungen durchführen. Das neue Cloud Computing hat gegenüber derzeitigen Lösungen einen entscheidenden Vorteil, der nur durch Quanteneffekte erreicht werden kann: Es ist absolut sicher.

Code oder Telefonbuch?

Wiener ForscherInnen haben in Kooperation mit internationalen Forschungsinstituten erstmals diese absolute Sicherheit der Daten in einem Grundlagenexperiment realisiert. Dabei führt ein Quantencomputer Rechnungen durch, kann aber selbst nicht herausfinden, welche es sind. „Der Quantenrechner kann beispielsweise nicht unterscheiden, ob er gerade einen Code entschlüsselt, oder einen Eintrag in einem Telefonbuch sucht“, erklärt Stefanie Barz, Hauptautorin der soeben in „Science“ veröffentlichten Studie.

„Blind“ errechnet

Dies könnte in Zukunft folgendermaßen funktionieren: Ein Nutzer präpariert Qubits – die kleinsten Einheiten des Quantencomputers – in einem nur ihm bekannten Zustand und sendet diese zum Quantencomputer. Dieser verschränkt die Qubits nach einem bestimmten Schema. Die Quantenrechnungen werden nun durch Messungen realisiert. Dazu schickt der Nutzer verschiedene Messanweisungen an den Quantencomputer.

Diese Anweisungen sind an den Zustand der Qubits angepasst und ergeben nur einen Sinn, wenn auch der Zustand der Qubits bekannt ist. Da der Quantencomputer diesen jedoch nicht kennt, sind für ihn die Rechnungen eine unzusammenhängende Abfolge an Operationen. Daher kann er zu keinem Zeitpunkt Rückschlüsse ziehen, welche Rechnung er gerade durchführt – er rechnet „blind“. Am Ende der Rechnung werden Ergebnisse an den Nutzer zurückgesendet. „Der Nutzer kann als einziger die Ergebnisse interpretieren und nutzen, da nur er die Ausgangszustände der Qubits kennt“, erklärt Barz.

Beim Wiener Experiment wurden einzelne Lichtteilchen (Photonen) als Qubits verwendet. Deren Polarisation, die Schwingungsebene des Lichts, ist die Grundlage für das photonische Qubit, und Photonen sind perfekt geeignet, weil sie ideale Informationsträger sind und über weite Distanzen gesendet werden können.
 
Internationale Forschungskooperation

Das Projekt ist eine internationale Koperation von ForscherInnen des Vienna Center for Quantum Science and Technology (VCQ) an der Universität Wien, des Instituts für Quantenoptik und Quanteninformation (IQOQI) der Österreichischen Akademie der Wissenschaften, der University of Edinburgh, des Institute for Quantum Computing (University of Waterloo), des Centre for Quantum Technologies (National University of Singapore) und dem University College Dublin.

Publikation:
Demonstration of Blind Quantum Computing. Stefanie Barz, Elham Kashefi, Anne Broadbent, Joseph Fitzsimons, Anton Zeilinger, Philip Walther
DOI: 10.1126/science.1214707

Externer Link: www.univie.ac.at

Navigation für Elektrorollstühle

Pressemitteilung der RWTH Aachen vom 12.01.2012

Oft reicht der Akku seines Rollstuhls nicht für die Fahrt zur Hochschule und wieder zurück nach Hause. Dzenan Dzafic studiert Informatik an der RWTH. Er nutzte sein hier erworbenes Wissen und entwickelte ein mobiles Navigationssystem für Elektrorollstühle: „Fahrzeuge mit Elektromotoren sind in ihrem Bewegungsraum durch die Akku-Kapazität und den Stromverbrauch eingeschränkt. Der Stromverbrauch ist stark abhängig von der Steigung und dem Straßenbelag. Je größer die zu bewältigende Steigung und je unebener der Belag ist, desto schneller sinkt der Akkustand“, erklärt Dzafic. Zusammen mit Diplom-Informatiker Dominik Franke, wissenschaftlicher Mitarbeiter am Lehrstuhl für Informatik 11 (Software für eingebettete System), entwickelte er einen Algorithmus auf Basis von Daten aus der OpenStreetMap, kurz OSM. Sie gingen dabei davon aus, dass ein kurzer Weg nicht immer effizient sein muss: „Auch wenn ich laut Plan schneller an einem Ort sein könnte, kann ich wegen vieler Steigungen auf halber Strecke nicht mehr weiterkommen“, berichtet Dzafic. Mit Hilfe der neuen Daten soll der Energieverbrauch einer Route angezeigt und damit die Reichweite des Fahrzeugs maximiert werden.

Noch gibt es wenige Systeme, die den Akkustand zu Beginn der Route, die Steigung des Streckenverlaufs und mögliche Ladestationen für Elektrofahrzeuge berücksichtigen. Die frei verfügbare Weltkarte OSM war Ausgangspunkt für den am RWTH-Lehrstuhl unter Leitung von Professor Dr.-Ing. Stefan Kowalewski entwickelten Rollstuhl-Routenplaner. Durch die freie und kostenlose Nutzbarkeit bietet OSM den Vorteil, dass die Benutzer Informationen in die Karte eingeben können. „Hier sind bereits mehrere Teile Deutschlands erfasst“, so Franke. „In Aachen basieren die Daten auf meinen Erfahrungswerten“, ergänzt Dzafic.

Um die Akku-Kapazität eines Rollstuhls zu bestimmen, umfuhr der 29-Jährige mit speziellen Sensoren am Rollstuhl immer wieder den Sportplatz des Hochschulsportzentrums. „Die Strecke ist besonders ebenmäßig und eignete sich daher gut für die Messungen. Es dauerte vier Stunden, bis der Akku leer war“, berichtet Dzafic. Danach testeten die beiden Informatiker verschiedene Steigungen in Aachen, die maximale Bordsteinhöhe, die Straßenbeschaffenheit und das Gefälle wurden ebenfalls berücksichtigt. Mit Hilfe dieser Messungen und den Daten aus OSM berechneten sie eine effiziente und eine kurze Route. Dem Nutzer werden künftig beide Wege sowie der Energieverbrauch angezeigt. „Unser Routenplaner kann bei einer Strecke von 300 Metern bis zu 20 Prozent der Energie einsparen“, so Franke.

In Zusammenarbeit mit dem Exzellenzcluster UMIC (Ultra high-speed Mobile Information and Communication) Research Centre der RWTH und der Universität Heidelberg konnte der Algorithmus in den Webservice www.rollstuhlrouting.de integriert und zusätzlich um den mobilen Client AndNav für die Plattform Android erweitert werden. Somit ist die Route auch per Mobiltelefon abrufbar. Mit seiner Anwendung hat Dzafic dabei nicht nur großes Interesse bei Betroffenen geweckt, auch viele Wissenschaftler nahmen Kontakt auf. Das Projekt soll nun auf verschiedene Formen der Elektromobilität ausgedehnt werden. (Celina Begolli)

Externer Link: www.rwth-aachen.de

Ein kleines Energiesparwunder: das Chaperon-Protein Hsp90

Pressemitteilung der TU München vom 12.01.2012

Scherenbewegung ganz ohne ATP-Verbrauch:

Eine bestimmte Gruppe von Proteinen, die sogenannten Chaperone, helfen anderen Proteinen, sich in die richtige Form zu falten. Bisher nahm man an, dass die Chaperone für die dafür nötigen Konformationsänderungen Energie in Form des universellen, zellulären Energieträgers ATP benötigen. Ein Team von Biophysikern um Thorsten Hugel, Professor an der Technischen Universität München (TUM) und Mitglied des Exzellenzclusters Nanosystems Initiative Munich (NIM), konnte nun zeigen, dass die Scherenbewegung des Chaperons Hsp90 kein ATP verbraucht sondern durch thermische Fluktuation angetrieben wird. Über ihre Ergebnisse berichtet das Fachjournal PNAS in seiner aktuellen Ausgabe.

ATP ist der Hauptenergieträger der meisten Organismen. Die Verbindung wird durch sogenannte ATPasen gespalten, um mit der dabei frei werdenden Energie beispielsweise Muskeln zu bewegen oder Nährstoffe zu transportieren. Das in großen Mengen in den Zellen vorkommende Chaperon-Protein Hsp90 besitzt in jeder seiner beiden Untereinheiten solch eine ATPase. Bisher gingen die Fachleute daher davon aus, dass die Bewegung und die Konformationsänderungen des HSP90 unmittelbar mit der Bindung oder Hydrolyse von ATP zusammenhängen.

Um diese Annahme näher zu untersuchen, haben der Biophysiker Thorsten Hugel und seine Mitarbeiter einen besonderen Versuchsaufbau entwickelt: Mit Hilfe von drei unterschiedlichen Lasern und einer äußerst empfindlichen Kamera konnten die Wissenschaftler die Bindung von ATP und die Konformationsänderungen des Hsp90-Proteins gleichzeitig beobachten. Entgegen ihrer Erwartung zeigten die Experimente, dass Bindung und Hydrolyse von ATP nicht direkt mit den umfassenden Konformationsänderungen des Chaperon-Proteins Hsp90 zusammenhängen. Hsp90 ist vielmehr ein sehr variables System, das durch thermische Fluktuationen angetrieben wird.

„Thermische Fluktuationen, das sind zufällige Änderungen der Struktur des Proteins – man kann sie sich als Zusammenstöße mit Wassermolekülen in der Umgebung vorstellen, die sich bei den Temperaturen in einem lebenden Organismus recht heftig bewegen,“ erklärt Thorsten Hugel. „Indem es diese Zusammenstöße nutzt, um zwischen den verschiedenen Konformationen hin und her zu schalten, spart das Hsp90 wertvolles ATP.“ Doch welche Aufgabe hat dann die ATPase im Hsp90-Chaperon? Die Wissenschaftler vermuten, dass Co-Chaperone oder auch Substratproteine das System so verändern, dass ATP-Bindung oder Hydrolyse eine wesentliche Aufgabe übernehmen.

Mit dem neu entwickelten Versuchsaufbau ist es jetzt möglich, das sehr komplexe System eingehender zu untersuchen und diese wichtige Frage zu lösen. Die Münchner Biophysiker eröffnen damit eine neue Sichtweise auf die Energieumwandlung in molekularen Maschinen.

Die Arbeiten wurden unterstützt durch Mittel der DFG (Hu997/9-1, SFB 863) und dem Exzellenzcluster Nanosystems Initiative Munich (NIM) sowie des NanoBio-Technologie Programms des Elitenetzwerks Bayern.

Originalpublikation:
Heat shock protein 90’s mechano-chemical cycle is dominated by thermal fluctuations
Christoph Ratzke, Felix Berkemeier and Thorsten Hugel.
PNAS, January 3, 2012 vol. 109, no. 1, 161-166) – Doi: 10.1073/pnas.1107930108

Externer Link: www.tu-muenchen.de

Schärfer als Heisenberg erlaubt

Presseaussendung der TU Wien vom 16.01.2012

Messungen an der TU Wien führen zu einem tieferen Verständnis der quantenmechanischen Unschärfe.

Sie ist wohl das berühmteste Fundament der Quantenphysik – Heisenbergs Unschärferelation. Sie besagt, dass man nicht alle Eigenschaften von Quantenteilchen gleichzeitig mit beliebiger Genauigkeit bestimmen kann. Bisher wurde das oft dadurch begründet, dass eine Messung das Quantenteilchen eben notgedrungen verändert und dadurch andere Messungen verfälscht – doch ganz so einfach ist die Sache nicht. Neutronen-Experimente von Professor Yuji Hasegawa und seinem Team an der TU Wien konnten nun verschiedene Beiträge zur Quanten-Unsicherheit aufschlüsseln und damit eine Theorie japanischer Kollegen bestätigen: Der Einfluss der Messung auf das Quanten-System ist nicht immer der Grund für die Mess-Unsicherheit. Heisenbergs Argumente für die Quanten-Unschärfe müssen also neu überdacht werden – die Unschärferelation selbst bleibt freilich bestehen. Die Ergebnisse wurden nun im Fachjournal „Nature Physics“ veröffentlicht.

Ort oder Impuls – doch niemals beides

Dass sich in der Quantenphysik bestimmte Größen nicht gleichzeitig messen lassen ist unbestritten. Die Frage ist, wie man das interpretieren muss. „Bis heute hört man oft von Heisenbergs berühmten Gedankenexperiment, in dem die Position eines Elektrons mit Licht gemessen werden soll“, sagt Jacqueline Erhart vom Atominstitut der TU Wien. Um die Position eines Teilchens sehr genau bestimmen zu können muss man Licht mit sehr kurzer Wellenlänge (also großer Energie) verwenden. Das bedeutet aber auch, dass ein starker Impuls auf das Teilchen übertragen wird: Das Teilchen erhält durch die Messung einen Schubs. Je genauer man den Ort misst umso dramatischer verändert man den Impuls des Teilchens. Ort und Impuls, so argumentierte Heisenberg, sind daher nicht gleichzeitig exakt messbar. Dasselbe gilt in der Quantenphysik für viele andere Messgrößen-Paare. Heisenberg war der Meinung, dass in solchen Fällen eine genauere Messung der einen Messgröße immer eine Störung der zweiten Messgröße verursacht. Das Produkt aus Ungenauigkeit der ersten Messung und Störung der zweiten Messung, so meinte er, kann eine gewisse Grenze nicht unterschreiten.

Die Natur ist unscharf – auch ohne Messung

Dass eine Messung das Quantensystem stört und damit das Ergebnis einer zweiten Messung verfälscht ist aber gar nicht der Kern des Problems. „Solche Störungen gibt es schließlich auch in der klassischen Physik, das hat mit Quantentheorie zunächst noch nichts zu tun“, erläutert Stephan Sponar (TU Wien). Die Unsicherheit liegt in der Quantennatur des Teilchens selbst: Schon lange weiß man, dass man sich in der Quantenphysik ein Teilchen eben nicht mehr als punktförmiges Objekt vorstellen kann, das eine eindeutig bestimmte Geschwindigkeit und eine klare Bewegungsrichtung hat. Stattdessen verhält sich ein Teilchen wie eine Welle – und bei Wellen lassen sich Aufenthaltsort und Impuls eben nicht gleichzeitig beliebig genau definieren. Man könnte sagen: Das Teilchen „weiß“ selbst nicht, wo es sich genau befindet und wie schnell es ist – ganz unabhängig davon, ob es gemessen wird oder nicht.

Berücksichtigung des Messvorgangs – neue Unschärferelation

„Um diese prinzipielle Unbestimmtheit und die zusätzliche Störung durch einen Messvorgang korrekt zu beschreiben, kommt man nicht umhin, das Teilchen gemeinsam mit dem Messapparat  im quantenmechanischen Formalismus  zu beschreiben“, erklärt Georg Sulyok (TU Wien). Genau das gelang dem japanischen Physiker Professor Masanao Ozawa 2003 und führte auf eine verallgemeinerte Unschärferelation: In seinen Gleichungen steckten unterschiedliche „Sorten“ von Unschärfe: Einerseits die Unsicherheit, die durch die Messung entsteht, weil sie in den Zustand des Systems eingreift und damit die andere Messung verfälscht. Das ist die Unsicherheit von Heisenbergs Ort-Impuls-Beispiel. Andererseits beinhalten die Gleichungen auch die grundlegende Quanten-Unsicherheit, die unabhängig von der Messung in jedem Quanten-System vorhanden ist.

Neutronen und ihre Spins

Durch ein ausgeklügeltes Experiment-Design konnten die unterschiedlichen Beiträge am Atominstitut der TU Wien nun gemessen und voneinander unterschieden werden. Dabei wurden nicht Ort und Impuls eines Teilchens untersucht, sondern die Spins von Neutronen. Der Spin in X-Richtung und der Spin in Y-Richtung kann nicht gleichzeitig genau gemessen werden – sie erfüllen eine Unschärferelation, ähnlich wie Ort und Impuls. Durch magnetische Felder wurde der Spin der  Neutronen aus dem Reaktor des Atominstituts in die richtige räumliche Orientierung gebracht, ihr Spin wurde in zwei aufeinander folgenden Messungen bestimmt. Durch kontrollierte Manipulationen des Messapparats konnte statistisch ermittelt werden, wie die unterschiedlichen Quellen der Unschärfe miteinander zusammenhängen.

Einfluss der Messung beliebig klein

„Nach wie vor gilt: Je exakter, die erste Messung durchgeführt wird, desto stärker wird die zweite Messung gestört – doch kann das Produkt aus Ungenauigkeit und Störung beliebig klein gemacht werden, auch kleiner, als Heisenbergs ursprüngliche Formulierung der Unschärferelation erlaubt“, sagt Professor Yuji Hasegawa. Doch auch wenn sich die Messungen kaum beeinflussen – unscharf bleibt die Quantenphysik trotzdem: „Die Unschärferelation ist natürlich nach wie vor richtig“, versichert das Forschungsteam. Man sollte nur mit seiner Begründung vorsichtig sein: „Die Unschärfe kommt nicht vom störenden Einfluss der Messung auf das Quanten-Objekt, sondern von der Quanten-Natur der Teilchen selbst.“ (Florian Aigner)

Originalpublikation:
Nature Physics DOI: 10.1038/NPHYS2194

Externer Link: www.tuwien.ac.at