„Intelligente“ Hydrogele revolutionieren die Flüssigkeitssensorik

Pressemitteilung der TU Dresden vom 27.08.2009

Wenn bestimmte Polymere in Kontakt mit einem geeigneten Lösungsmittel kommen, lösen sie sich nicht, sondern quellen auf. Ist das Lösungsmittel Wasser, spricht man von „Hydrogelen“. Bestimmte Hydrogele könne das bis zu 100-fache ihrer Eigenmasse in Form von Wasser aufnehmen. Die Menge des aufgenommenen Wassers hängt bei „intelligenten“ Hydrogelen von einer Vielzahl von Eigenschaften des Lösungsmittels ab, so zum Beispiel von der Temperatur, vom pH-Wert oder der Konzentration gelöster Salze.

Anhand des Quellgrades Stoffkonzentrationen bestimmen – dieses Prinzip nutzen Wissenschaftler der TU Dresden nun in einem neuen Messgerät. Es beruht auf dem Prinzip der Quarzmikrowaage. Tritt an der Oberfläche eines Schwingquarzes eine Massenänderung auf, so verändern sich die Resonanzeigenschaften des Schwingquarzes. Mit der heutzutage vorhandenen Messtechnik ist es so möglich, selbst geringste Massenzunahmen im Bereich von wenigen Nanogramm zu registrieren. Für die Massenänderung auf der Quarzoberfläche wiederum sorgt das eingesetzte „intelligente“ Hydrogel, welches auf die Quarzoberfläche aufgebracht wurde.

Die Vorteile des Messgerätes, das im Rahmen eines vom Europäischen Fonds für regionale Entwicklung (EFRE) und der Sächsischen Aufbaubank (SAB) geförderten Projekts gemeinsam mit einem Industriepartner entwickelt wurde, liegen auf der Hand. Es ist klein, kompakt und dadurch transportabel. Messwerte können innerhalb weniger Sekunden einfach abgelesen werden. Aufwändige Laboranalysen können somit eingespart werden.

Die Wissenschaftler haben mit dem neuen Messgerät bereits erfolgreich ph-Werte und die Konzentration kommerzieller Reinigerlösungen bestimmen können. Das entwickelte Messprinzip ist aber auch auf viele andere Messaufgaben übertragbar, etwa um Schadstoffkonzentrationen im Trinkwasser zu analysieren. Dazu muss das „intelligente“ Hydrogel lediglich an die gewünschte Anwendung angepasst werden. (Martin Morgenstern)

Externer Link: www.tu-dresden.de

Reife Ananas und leckeres Schweinefleisch

Mediendienst der Fraunhofer-Gesellschaft vom August 2009

Kunden wünschen frische Lebensmittel, die weder unreif noch verdorben sind. Ein neues System könnte die Sicherheit und die Qualität von Nahrungsmitteln zuverlässig, schnell und kostengünstig überprüfen. Ein Beispiel: der Reifegrad von Ananas.

Beim Kauf einer Ananas steht der Kunde oft ratlos vor dem Supermarkt-Regal: Welche ist schon reif? Isst man die Frucht sofort, ist sie oft noch nicht süß genug, liegt sie zu lange, bekommt sie faulige Stellen. Laboruntersuchungen sind für solche Fragestellungen zu langsam und zu kostenintensiv.

Künftig könnten Großlieferanten Abhilfe schaffen: Ein neuartiges System erkennt anhand von flüchtigen Komponenten, wann die Ananas reif ist und an den Supermarkt ausgeliefert werden kann. Forscher der Fraunhofer-Institute für Molekularbiologie und Angewandte Oekologie IME in Schmallenberg und für Physikalische Messtechnik IPM in Freiburg haben es entwickelt. Das System überprüft die Gasabsonderungen online – also etwa direkt im Lagerhaus. »Dazu haben wir verschiedene Technologien zusammengeführt: Basis sind Metalloxidsensoren, wie sie auch in Autos verbaut werden, um etwa im Tunnel die Lüftungsklappen zu schließen. Diese Sensoren haben die Forscher am IPM weiterentwickelt. Strömt ein Gas über den 300 bis 400 Grad Celsius heißen Sensor, verbrennt es dort und Elektronen werden ausgetauscht – die elektrische Leitfähigkeit ändert sich daher«, sagt Dr. Mark Bücking, Abteilungsleiter am IME. »Bevor das Gas diese Sensoren erreicht, muss es durch eine Trennsäule mit Polymeren. Be-stimmte Substanzen werden hier bereits herausgefiltert.« Ein Prototyp des Analysegeräts existiert bereits. Erste Versuche waren vielversprechend: Das Gerät misst die flüchtigen Substanzen ebenso sensitiv wie gängige Geräte in den Lebensmittellaboren. In einem weiteren Schritt wollen die Forscher das System optimieren und an spezifische Fragestellungen anpassen. Für einen Preis im vierstelligen Eurobereich könnte das Gerät dann auf den Markt kommen, schätzt Bücking.

Weiterhin überprüfen die Forscher, ob das Gerät auch bei der Unter-suchung von Schweinefleisch gute Dienste leisten kann. Das männliche Schwein produziert zur Fortpflanzung Hormone und bestimmte Geruchsstoffe. Was das weibliche Schwein anziehend findet, riecht für menschliche Nasen jedoch alles andere als angenehm. Zwar werden die meisten Schweine bereits vor der Geschlechtsreife geschlachtet – in einer Zeit, in der sich bei einem Großteil der Schweine noch keine Geruchsstoffe gebildet haben. Da jedoch die Gefahr besteht, dass einzelne Eber in ihrer Entwicklung voraus sind und die Geruchsstoffe in diesem Alter bereits gebildet haben, werden alle Eber im Ferkelalter kastriert. Künftig könnte man auf die Kastration verzichten und stattdessen das Schweinefleisch vor dem Verpacken online testen.

Externer Link: www.fraunhofer.de

Von Fliegen Sehen lernen

Pressemitteilung der TU München vom 09.07.2009

Flugsimulator für Insekten hilft bei Konstruktion intelligenter Roboter

Scheinbar plumpe und ordinäre Schmeißfliegen sind wahre Flugkünstler. Plötzliche Richtungsänderungen, in der Luft stehen, blitzschnell um die eigene Achse drehen und punktgenaue Landungen sind für sie selbstverständlich. Extrem schnelle Augen helfen ihnen, im rasanten Hin und Her die Orientierung nicht zu verlieren. Doch: Wie verarbeitet ihr winziges Gehirn so schnell und effizient die Vielzahl der Bilder und Signale? Um das zu ergründen, haben Wissenschaftler des Münchner Exzellenzclusters „Cognition for Technical Systems (CoTeSys)“ einen Flugsimulator für Fliegen gebaut. Hier erforschen sie, was in den Fliegengehirnen abläuft. Ihr Ziel: Dass Menschen diese Fähigkeiten nutzen können, etwa für Roboter, die eigenständig ihre Umgebung wahrnehmen und daraus lernen.

Fliegengehirne leisten Unglaubliches. Sie navigieren im schnellen Flug mit halsbrecherischen Kurven um Hindernisse, reagieren in Sekundenbruchteilen auf die Hand, die sie fangen will, und finden zielsicher zu den stark riechenden „Leckerbissen“, von denen sie leben. Seit langem weiß die Forschung, dass Fliegen sehr viel mehr Bilder wahrnehmen als Menschen. Während für menschliche Augen spätestens ab 25 Bildern pro Sekunde Einzelbilder in einen kontinuierlichen Bewegungsablauf übergehen, erkennen Schmeißfliegen noch 100 Bilder pro Sekunde als einzelne Sinneseindrücke, können sie blitzschnell interpretieren und so ihre Bewegung steuern und die Lage im Raum exakt bestimmen.

Dabei ist das Fliegengehirn kaum größer als ein Stecknadelkopf. Würde es genauso funktionieren, wie das Gehirn des Menschen, würde dies bei Weitem nicht zu solchen Leistungen ausreichen. Es muss die Bilder von den Augen also einfacher und sehr viel effizienter zu einer visuellen Wahrnehmung verarbeiten. Effiziente Wahrnehmung von visuellen Signalen aber ist etwas, was Roboterkonstrukteure ganz besonders interessiert, denn Roboter haben heute noch große Schwierigkeiten, ihre Umgebung nicht nur mit Kameras zu sehen, sondern auch wahrzunehmen, was sie sehen. Selbst das Erkennen von Hindernissen in ihrer eigenen Arbeitsfläche dauert viel zu lange. Daher müssen bislang beispielsweise Menschen noch mit Schutzgittern vor den maschinellen Helfern geschützt werden. Eine direkte, unterstützende Zusammenarbeit von intelligenten Maschinen und Menschen aber ist ein zentrales Forschungsziel des Exzellenzclusters „CoTeSys“ (Cognition for Technical Systems), zu dem sich im Raum München rund 100 Wissenschaftler von fünf Hochschulen und Forschungsinstituten zusammengefunden haben.

Im Rahmen von „CoTeSys“ erkunden Hirnforscher des Max-Planck-Instituts für Neurobiologie, wie Fliegen es schaffen, ihre Umwelt und ihre Bewegung so effizient wahrzunehmen. Unter Leitung des Neurobiologen Prof. Alexander Borst haben sie einen Flugsimulator für Fliegen gebaut. Hier werden Schmeißfliegen auf einem halbrunden Display unterschiedliche Muster, Bewegungen und Sinnesreize vorgespielt. Die Insekten sind an einem Halter befestigt, damit Elektroden die Reaktionen der Gehirnzellen registrieren können. Die Forscher analysieren so, was im Fliegengehirn passiert, wenn die Tiere wie wild kreuz und quer durch ein Zimmer sausen.

Die ersten Ergebnisse zeigen Eines ganz deutlich: Fliegen verarbeiten die Bilder ihrer unbeweglichen Augen ganz anders als das menschliche Gehirn. Bewegungen im Raum erzeugen sogenannte „optische Flussfelder“, die für eine ganz bestimmte Bewegung charakteristisch sind: Bei einer Vorwärtsbewegung fließen die Objekte seitlich vorbei, bei frontalem Anflug vergrößern sich die Objekte, nahe und weit entfernte Dinge bewegen sich ganz unterschiedlich. Die Fliege erstellt als ersten Schritt in ihrem winzigen Gehirn aus diesen Bewegungen ein Muster. Geschwindigkeit und Richtung, mit denen sich einzelne Bildpunkte vor den Augen scheinbar bewegen, ergeben in jedem Moment ein typisches Bild von Bewegungsvektoren, das Flussfeld, das schließlich in einem zweiten Schritt in der sogenannten „Lobula-Platte“ ausgewertet wird, einer höheren Ebene des Sehzentrums. In jeder Gehirnhälfte sind lediglich 60 Nervenzellen dafür zuständig – jede reagiert besonders intensiv, wenn das für sie passende Muster vorliegt. Wichtig für die Analyse der optischen Flussfelder ist, dass die Bewegungsinformation von beiden Augen zusammen geführt wird. Dies geschieht über eine direkte Verschaltung der spezialisierten Nervenzellen, sogenannte VS-Zellen. So ergibt sich für die Fliege eine exakte Information über ihre Lage und Bewegung.

„Durch unsere Ergebnisse ist das für Rotationsbewegungen zuständige Netzwerk der VS-Zellen im Fliegengehirn heute einer der am besten verstandenen Schaltkreise des Nervensystems“, erläutert Prof. Borst die Bedeutung dieser Untersuchungen. Diese Arbeiten bleiben aber nicht bei der reinen Grundlagenforschung stehen. Die Befunde der Martinsrieder Fliegenforscher sind besonders auch für die Ingenieure am Lehrstuhl für Steuerungs- und Regelungstechnik der Technischen Universität München (TUM) interessant, mit denen Prof. Borst im Rahmen von „CoTeSys“ eng zusammenarbeitet.

Die Forscher an der Technischen Universität entwickeln unter Leitung von Prof. Martin Buss und Dr. Kolja Kühnlenz intelligente Maschinen, die über Kameras ihre Umwelt beobachten, daraus lernen und flexibel auf die jeweilige Situation reagieren. Zielsetzung dieser Forschungsarbeiten sind intelligente Maschinen, die direkt mit dem Menschen umgehen können, auf ihn reagieren und ihn nicht gefährden. Auch die Schutzzäune in den Fabriken zwischen Menschen und Robotern sollen fallen. Dafür sind einfache, schnelle und effiziente Verfahren für die Analyse und die Interpretation von Kamerabildern unbedingt erforderlich.

Die TUM-Forscher entwickelten beispielsweise einen kleinen Flugroboter, der Fluglage und Bewegung durch visuelle Analyse im Computer nach dem Vorbild der Fliegengehirne kontrolliert. Einem fahrbaren Roboter, dem Autonomous City Explorer (ACE) wurde die Aufgabe gestellt, durch Ansprechen und Fragen von Passanten vom Institut zum etwa 1,5 Kilometer entfernten Münchner Marienplatz zu finden. Dabei musste er auch die Gesten der Menschen interpretieren, die ihm den Weg zeigten, und er musste sich „verkehrsgerecht“ ausschließlich auf dem Gehsteig bewegen.

Ohne effiziente Bildanalyse ist ein Zusammenspiel von intelligenten Maschinen und Menschen nicht denkbar. Die Forschungsarbeiten am Flugsimulator für Fliegen bieten dafür durch den Austausch der Wissenschaftler aus unterschiedlichen Disziplinen im Rahmen von CoTeSys einen interessanten Ansatz, der auch einfach genug erscheint, um technisch umsetzbar zu sein.

Externer Link: www.tu-muenchen.de

Mikrowellen für ultrakalte Atome

Presseinformation der LMU München vom 07.07.2009

Extrem präzise Messungen dank neuartiger Mikrochips

Extrem kalte Atome lassen sich auf einem Mikrochip mithilfe von Lasern und Magnetfeldern erzeugen und gezielt manipulieren. Das macht diese Chips zu einer Art Experimentierfeld der Quantenphysik, um grundlegende Fragen zu untersuchen, etwa den Welle-Teilchen-Dualismus. Gleichzeitig können Atomchips als präzise Sensoren für Kräfte wie die Gravitation oder schwache elektromagnetische Felder dienen. LMU-Physikern um Dr. Philipp Treutlein und Professor Theodor W. Hänsch ist es nun erstmals gelungen, Mikrowellenfelder auf einem Atomchip zu integrieren und damit ein Interferometer, also ein Messgerät für Materiewellen, zu realisieren. Die dabei verwendeten Mikrowellenpotentiale sind eine Schlüsseltechnologie für die Erzeugung neuartiger „gequetscher“ Quantenzustände. Diese Zustände verringern das sogenannte Quantenrauschen der Atome und eignen sich damit für die extrem präzise interferometrische Messung von Kräften. Die Potentiale könnten außerdem eine Schlüsseltechnologie für die Herstellung mikrochip-basierter Quantencomputer darstellen. (Nature Physics online, 5. Juli 2009).

Eingefangen, tiefgekühlt und unter Strom gesetzt: Atome auf einem Mikrochip haben oft kein leichtes Schicksal. Sie erlauben aber grundlegende Einblicke in die Welt der Quantenphysik. Die Basis der chipbasierten Technologie ist ein Quantenzustand der Materie, der 1995 erstmals im Labor verwirklicht wurde: Im Bose-Einstein-Kondensat werden Atome bis auf wenige Millionstel Grad über dem absoluten Nullpunkt – also 0 Kelvin oder -273,15 Grad Celsius – abgekühlt.

Aufgrund der extrem kalten Temperaturen entsprechen die Bewegung, der interne Energiezustand und andere Eigenschaften der Atome dann einem genau definierten Quantenzustand. Dieser kann mit Hilfe eines Mikrochips in einer Vakuumkammer gezielt manipuliert werden. Strom erzeugt dabei Magnetfelder, die die Teilchen wenige Mikrometer über der Chipoberfläche schweben lassen.

„Diese Technologie ermöglicht, den Welle-Teilchen-Dualismus, die Verschränkung von Quantenzuständen und andere grundlegende Fragen der Quantenphysik zu untersuchen“, sagt Dr. Philipp Treutlein, Leiter der Arbeitsgruppe „Munich Atom  Chip Group“ an der Fakultät für Physik der LMU München und dem Max-Planck-Institut für Quantenoptik in Garching. „Unter Quantenverschränkung versteht man, dass zwei oder mehr Teilchen nicht mehr einzeln, sondern nur noch als Gesamtsystem beschrieben werden können.“

Atomchips werden auch als Interferometer genutzt. Dieses Messgerät für Materiewellen nutzt aus, dass sich das Bose-Einstein-Kondensat auf dem Chip zunächst räumlich aufspalten und anschließend wieder vereinen lässt. „Bei der Aufspaltung wird eine quantenmechanische Überlagerung der Atome in zwei Zuständen erzeugt. Bei der Vereinigung interferieren die Zustände dann, und ein charakteristisches Interferenzmuster entsteht“, erklärt Treutlein. „Wirken im aufgespalteten Zustand externe Kräfte auf die Atomwolke ein, kann man diese anhand der Veränderungen des Interferenzmusters messen.“

Treutlein und sein Team haben nun ein Interferometer auf der Basis von Bose-Einstein-Kondensaten entwickelt. Es soll extrem präzise Messungen ermöglichen und erzeugt zudem – dank integrierter Mikrowellenfelder – außerordentlich flexible Potentiale. „Wir konnten den Bewegungszustand und den internen Energiezustand der Atome unabhängig voneinander manipulieren“, berichtet Treutlein. Neu ist auch, dass das Interferenzmuster nicht mehr räumlich aufgelöst werden muss. Es genügt, die Anzahl der Atome in den verschiedenen Zuständen zu bestimmen.

Die mikrowellenbasierte Technologie ermöglicht zudem die Erzeugung „gequetschter“ Quantenzustände, mit deren Hilfe die Präzision bei interferometrischen Messungen – etwa von Gravitations- oder Rotationskräften – deutlich gesteigert werden könnte. Denn gequetschte Quantenzustände reduzieren das Quantenrauschen bei Messungen. Hierdurch wird die Genauigkeit beim Auslesen von Atomuhren und bei der interferometrischen Messung sehr schwacher Kräfte bislang begrenzt.

„Mikrowellenbasierte Atomchips könnten als kompakte und extrem empfindliche Messgeräte schwache elektromagnetische Felder, Rotations- und Gravitationkräfte bestimmen“, sagt Treutlein. Die Messung von Rotationskräften ist etwa bei Navigationsgeräten von Bedeutung, während das Aufspüren schwacher Gravitationsveränderungen für die Entdeckung unterirdischer Wasser- oder Erdölvorräte von Nutzen sein könnte.

In der Computertechnologie sieht der Physiker etwa in der Entwicklung eines Quantencomputers mögliche Anwendungen. „Hier sind Atomchips von Vorteil, weil sie sehr kompakt sind und viele Quantenbits und -gatter auf ihnen Platz haben“, so Treutlein. „Außerdem leben die Überlagerungszustände von ultrakalten Atomen lange und sind sehr stabil.“ (CA/suwe)

Publikation:
„Coherent manipulation of Bose-Einstein condensates with state-dependent microwave potentials on an atom chip“;
Pascal Böhi, Max F. Riedel, Johannes Hoffrogge, Jakob Reichel, Theodor W. Hänsch and Philipp Treutlein;
Nature Physics online, 5. Juli 2009;
DOI: 10.1038/NPHYS1329

Externer Link: www.uni-muenchen.de

Radarsensoren mit Durchblick

Mediendienst der Universität Stuttgart vom Juni 2009

Fahrerassistenzsystem optimiert die Umgebungserfassung

Schlechtes Wetter, ungünstige Lichtverhältnisse? Radarsensoren behalten fast immer den Durchblick. Für die automatische Abstandseinstellung sind sie schon in Serienfahrzeugen erhältlich. Um allerdings über die reine Komfortfunktion hinaus auch für aktive Sicherheitsfunktionen eingesetzt werden zu können, muss sich ihr „Sehverhalten“ noch bessern. Im Rahmen des Verbundprojekts KRAFAS (Kostenoptimierter Radarsensor für aktive Fahrerassistenzsysteme), das vom Bundesministerium für Bildung und Forschung (BMBF) gefördert wird, arbeiten Wissenschaftler vom Lehrstuhl für Systemtheorie und Signalverarbeitung der Universität Stuttgart an der Umgebungserfassung von Radarsensoren.

Die Umgebungserfassung, das räumliche und zeitliche Abtasten der Umgebung des Fahrzeugs, spielt in modernen Fahrerassistenzsystemen eine zentrale Rolle. Um andere Fahrzeuge, Fußgänger, die Straße, Verkehrsschilder und vieles mehr zu erkennen, kommen verschiedene Sensoren wie etwa Kamera, Ultraschall, Laser und Radar zum Einsatz. Der Radartechnik kommt dabei eine besonders wichtige Bedeutung zu, denn aus der Laufzeit des Radarsignals kann der Abstand zu Gegenständen aller Art bestimmt werden; und mittels des sogenannten Doppler-Effekts lässt sich die relative Geschwindigkeit präzise bestimmen, mit der sich diese relativ zum Fahrzeug bewegen.

Sollen Radarsensoren in Zukunft nicht nur als reine Komfortsysteme, sondern auch als aktive Fahrsicherheitssysteme Einsatz finden, die in kritischen Situationen beispielsweise einen Bremsvorgang einleiten oder zur Unfallvermeidung in Verbindung mit weiterer Sensorik gar eine Vollbremsung vornehmen, müssen hohe Anforderungen an deren Zuverlässigkeit gestellt werden. Professor Bin Yang und sein Team am Lehrstuhl für Systemtheorie und Signalverarbeitung der Universität Stuttgart arbeiten im Rahmen des BMBF-Projekts KRAFAS an der Verbesserung der Trennfähigkeit von Zielen bei Radarsensoren.

Bisher sind Radarsysteme nicht tauglich für aktive Fahrsicherheitssysteme, da sie eng benachbarte Ziele im gleichen Winkelbereich nicht getrennt erfassen können, sondern als ein Ziel „wahrnehmen“. So „sehen“ zum Beispiel die hinter den vorderen Stoßfängern angebrachten Radarsensoren in einer „Gassensituation“, wenn sich also vor dem Auto in gleicher Entfernung je ein Fahrzeug auf der linken und der rechten Spur befindet, ein großes Fahrzeug auf der mittleren, eigenen Spur, anstelle der zwei Fahrzeuge. Eine falsche Bremsentscheidung wäre die Folge – undenkbar für ein aktiv in das Fahrgeschehen eingreifendes System, das zu mehr Sicherheit verhelfen soll.

Genau hier setzt die Arbeit der Stuttgarter Wissenschaftler an. Um die Winkeltrennfähigkeit der Radarsensoren deutlich zu verbessern, setzen sie auf moderne Sensorgruppensignalverarbeitung. Die Auswertung der aus der Umgebung aufgenommenen Signale und deren Laufzeitdifferenz übernimmt bei diesem hochauflösenden Verfahren eine ganze Gruppe von Sensoren statt nur eines Sensors – und zwei Ziele bleiben zwei Ziele. Das Stuttgarter Teilprojekt endet in diesem Jahr. Die Ergebnisse können dann von der Autoindustrie genutzt werden.

Externer Link: www.uni-stuttgart.de