Mit elektrischen Feldern Magnetismus steuern

Presseinformation der Ruhr-Universität Bochum vom 23.08.2011

„Nature Materials“: Neues multiferroisches Material entwickelt

RUB-Forscher ermöglichen hochpräzise Messung mit Röntgenstreuung

Ein internationales Forscherteam aus Frankreich und Deutschland hat ein neues Material entwickelt, das erstmals auch bei Raumtemperatur magnetisch auf elektrische Felder reagiert. Bisher war dies überhaupt nur bei sehr tiefen, nicht praktikablen Temperaturen möglich. Elektrische Felder sind technisch viel einfacher und billiger herzustellen als magnetische Felder, für die man stromfressende Spulen benötigt. Die Forscher haben nun einen Weg gefunden, Magnetismus durch elektrische Felder schon bei „normaler“ Temperatur zu steuern, und verwirklichen damit einen Traum. Möglich waren die hochpräzisen Experimente in einer von der Ruhr-Universität Bochum gebauten Messkammer am Berliner Helmholtz-Zentrum. Über ihre Ergebnisse berichtet die Forschergruppe aus Paris und Berlin unter Beteiligung von Wissenschaftlern der RUB in „Nature Materials“.

ALICE im Wunderland

Die „multiferroische“ Eigenschaft des neuen Materials nachzuweisen, gelang in der Messkammer ALICE – so benannt, weil sie wie „Alice im Wunderland“ hinter die Dinge schauen kann. Dabei wird ein bestimmter Bereich von Röntgenstrahlung genutzt, um magnetische Nanostrukturen zu untersuchen. Die von Bochumer Physikern entwickelte Messkammer, gefördert vom Bundesministerium für Bildung und Forschung, ist seit 2007 erfolgreich im Einsatz am Elektronenspeicherring BESSY II in Berlin. Mit den jetzt entdeckten Materialeigenschaften von BaTiO3 (Barium-Titan-Oxid) lassen sich zukünftig Bauelemente wie Datenspeicher und logische Schalter entwerfen, die mit elektrischen anstatt mit magnetischen Feldern kontrollierbar sind.

Ferromagnetische und ferroelektrische Eigenschaften

Ferromagnetische Materialien wie Eisen können durch magnetische Felder beeinflusst werden. Im Magnetfeld sind alle atomaren magnetischen Dipole ausgerichtet. In ferroelektrischen Materialien ersetzen elektrische Dipole – das sind zwei getrennte und entgegengesetzte Ladungen – die magnetischen Dipole, so dass man sie in einem elektrischen Feld ausrichten kann. In ganz seltenen Fällen reagieren so genannte multiferroische Materialien auf beide Felder – magnetische und elektrische.

Multiferroisch bei Raumtemperatur

Ein solch multiferroisches Material stellten die Forscher her, indem sie ultradünne ferromagnetische Eisenschichten auf ferroelektrische Barium-Titan-Oxid-Schichten aufdampften. Dabei konnten sie feststellen, dass das sonst nicht magnetische ferroelektrische Material an der Grenzfläche zwischen den beiden Schichten ferromagnetisch wird. Damit haben die Forscher das weltweit erste multiferroische Material entwickelt, das bereits bei Raumtemperatur sowohl auf magnetische wie auf elektrische Felder reagiert.

Magnetische Röntgenstreuung wirft Licht auf neuen Steuermechanismus

Diesen Grenzflächenmagnetismus wiesen die Wissenschaftler mit Hilfe der spektroskopischen Methode „magnetischer Röntgendichroismus“ nach. Dabei wird die Polarisation der Röntgenstrahlen durch Magnetismus beeinflusst – ähnlich dem bekannten „Faraday-Effekt“ aus der Optik. Der magnetische Röntgendichroismus hat den Vorteil, dass er auf jedes einzelne Element in dem untersuchten Material angewandt werden kann. Mit dieser Methode konnte das Forscherteam zeigen, dass alle drei Elemente in dem ferroelektrischen Material – Barium, Sauerstoff und Titan – an der Grenzfläche zu Eisen ferromagnetisch reagieren, obwohl diese Atome sonst nicht magnetisch sind.

Eine äußerst raffinierte Methode

„Die Methode des magnetischen Röntgendichroismus ist hoch komplex“, sagt Prof. Dr. Hartmut Zabel, Lehrstuhl für Experimentalphysik der RUB. Die Messkammer ALICE vereinigt Röntgenstreuung mit Röntgen-Spektroskopie. „Das ist eine äußerst raffinierte und sehr empfindliche Methode“, so Prof. Zabel. „Die hohe Präzision der Detektoren sowie aller Goniometer in der Kammer führte zum Erfolg der Experimente des internationalen Messteams.“ (Jens Wylkop)

Titelaufnahme:
S. Valencia et al.: „Interface-induced room-temperature multiferroicity in BaTiO3“. Nature Materials, DOI: 10.1038/NMAT3098

Externer Link: www.ruhr-uni-bochum.de

Massivholz ohne Makel

Mediendienst der Fraunhofer-Gesellschaft vom August 2011

Hat der Eichentisch einen Haarriss? Ist der Fensterrahmen fehlerhaft verklebt? Die Ultraschall-Thermographie entdeckt Materialfehler im Holz bereits im Produktionsprozess zuverlässig. Ausschuss lässt sich so frühzeitig erkennen und aussondern, defekte Ware rechtzeitig reparieren.

Wer sich einen teuren Massivholztisch oder -schrank kauft, möchte sichergehen, dass das Möbel keinen noch so kleinen Riss aufweist. Auch Klaviere und Flügel klingen nur gut, wenn Resonanzboden, Stege und Klaviatur aus hochwertigem Material gefertigt wurden. Wichtig ist makelloses Holz ebenso für den Haus- und Fensterbau, ein tragender Holzbalken etwa muss von einwandfreier Qualität sein – schließlich können selbst kleinste Risse zum Bruch führen.

Forscher vom Fraunhofer-Institut für Holzforschung WKI in Braunschweig machen Fehler im Holz sichtbar, die sich mit bloßem Auge nicht entdecken lassen. Mit der Leistungsultraschall-Thermographie (LUS-Thermographie) spüren sie Längs- und Querrisse, Fehlverklebungen, Delaminationen und Schwarzäste auf. Hierfür versetzen sie die Holzplatte mit einer Sonotrode, sprich einem Ultraschallanreger, in Schwingung. Mit 20 KHz – also 20 000 Mal pro Sekunde – wird das Bauteil bewegt. Im Bereich von Defekten reiben die Teile des Materials aneinander und produzieren so Wärme. Eine Wärmebildkamera macht diese an den Enden der Fehlstellen sichtbar, bei Haarrissen ist die Reibungswärme auch entlang der Risse zu erkennen. Sogar nicht verklebte Dübel unter der Oberfläche oder Defekte unter Beschichtungen können die Forscher mit der LUS-Thermographie entdecken. Mit bisherigen Methoden wie der mechanischen Werkstoffprüfung und mit elektrischen Messverfahren war das nicht möglich, sie arbeiten weit weniger zuverlässig.

»Wir können die Fehlstellen schon im Rohholz ausfindig machen. Das ist wichtig, da der Ausschuss früh erkannt werden muss, bevor das Material teuer und zeitaufwändig weiterbearbeitet werden muss«, sagt Diplomphysiker Peter Meinlschmidt vom WKI. Dabei spielt es keine Rolle, ob es sich um Eiche, Nussbaum oder Buche handelt. Dies gilt auch für die Beschaffenheit des Holzes – die mit einem Monitor verbundene Thermographiekamera zeigt Fehler auch in feuchten Bauteilen an. Wie weit die Wissenschaftler in das Material vordringen können, hängt von der Wärmeleitfähigkeit des Holzes ab, möglich sind bis zu 20 Millimeter. »Unser Verfahren eignet sich vor allem, um Defekte in hochwertigen Massivholzteilen und in Fensterkanteln für Fensterrahmen oder schlecht verklebte Leimfugen zu detektieren. Die Prüfmethode ist zerstörungsfrei. Lediglich beim Anlegen des Ultraschallanregers entstehen kleine Druckstellen, was beim Rohholz aber nicht von Bedeutung ist«, erläutert Meinlschmidt. Mit der LUS-Thermographie ist es den Forschern sogar gelungen, Risse in Keramiken und in Glas nachzuweisen. In Labortests konnten sie etwa Defekte an gebrannten Keramik-Fußbodenfliesen und aus Glas hergestellten Mundwasserflaschen sichtbar machen. »Bei Glas und Keramik können wir bis zu 30 Zentimeter weit von der Sonotrode entfernt liegende Fehler aufspüren«, so der Experte. Ein Demonstrator des Ultraschallgenerators inklusive Wärmebildkamera existiert bereits.

Externer Link: www.fraunhofer.de

Weiche Kristalle fließen anders

Presseaussendung der TU Wien vom 08.08.2011

Eine Flüssigkeit muss kein ungeordnetes Gewirr von Teilchen sein: Ein Forschungsteam der Technischen Universität (TU) Wien und der Universität Wien entdeckt neuartige Strukturen aus winzigen Teilchen, die in Flüssigkeiten schweben. Teilchen-Cluster in Flüssigkeiten können unter mechanischer Belastung Stränge ausbilden und dadurch ihre Fließeigenschaften dramatisch ändern.

Was haben Blut, Tinte und Mehlsuppe gemeinsam? Sie alle sind Flüssigkeiten, in denen winzige Teilchen schweben – sogenannte „Kolloide“. In manchen dieser Flüssigkeiten finden sich die Teilchen zu Gruppen zusammen, die sich dann ganz von selbst regelmäßig anordnen, wie Atome in einem Kristall. Einer Forschungsgruppe der TU Wien und der Universität Wien gelang es nun, durch Computersimulationen erstaunliche Eigenschaften dieser kristallartigen Substanzen zu ergründen. Unter mechanischer Belastung kann sich die kristalline Ordnung in eine andere Struktur umwandeln oder sich komplett auflösen. Das Forschungsteam sieht ein breites technisches Anwendungsspektrum für diese Effekte. Die Ergebnisse der Berechnungen wurden nun im angesehenen Fachjournal „Physical Review Letters“ veröffentlicht.

Geordnete Struktur in Flüssigkeit

Lagern sich winzige Teilchen aneinander an, bezeichnet man sie als Cluster. Die Teilchen innerhalb eines Clusters können sich überlappen und durchdringen, ähnlich wie ein dichter Schwarm von Aalen, die eng verschlungen aneinander vorbeigleiten. Das Bemerkenswerte daran ist, dass sich diese Cluster nicht einfach an zufälligen Orten aufhalten, sondern ganz von selbst eine regelmäßige Struktur ausbilden – sogenannte „weiche Kristalle“. Der Abstand von einem Cluster unter bestimmten äußeren Bedingungen zum nächsten ist immer gleich. „Erhöht man die Teilchendichte, bekommt zwar jeder Cluster eine immer größere Anzahl von Teilchen ab, doch der Abstand zwischen den Clustern bleibt unverändert“, erklärt Arash Nikoubashman, Doktorand an der TU Wien. Er führte die Berechnungen im Rahmen seiner Dissertation mit Professor Gerhard Kahl am Institut für Theoretische Physik der TU Wien und mit Professor Christos Likos von der Universität Wien durch. Diese gemeinsamen wissenschaftlichen Arbeiten werden im Rahmen des von der EU finanzierten „Initial Training Networks“ COMPLOIDS realisiert.

Vom Kristallgitter zu langen Fäden

„Wir hatten schon aufgrund unserer früheren Ergebnisse die Vermutung, dass die Partikel unter äußeren Einflüssen unerwartete Eigenschaften zeigen können“, erzählen die Physiker – und die Hoffnungen des Forschungsteams wurden nicht enttäuscht: Am Computer konnte berechnet werden, wie sich die kristallartige Struktur unter einer mechanischen Belastung verhält, die eine Scherspannung bewirkt -also die Flächen innerhalb der Flüssigkeit gegeneinander verschiebt. Zunächst beginnt die Kristallstruktur zu schmelzen – die Bindungen zwischen den Clustern werden gebrochen. Aus diesen „abgeschmolzenen“ Teilchenclustern bildet sich dann aber spontan eine neue Ordnung: Lange, gerade Teilchenstränge entstehen, die sauber parallel zueinander angeordnet sind.

Von dünnflüssig zu dickflüssig

Während sich diese Stränge bilden wird die Substanz immer dünnflüssiger – ihre Zähigkeit (die Viskosität) nimmt ab. Das liegt daran, dass sich die parallelen Stränge relativ leicht gegeneinander verschieben können. Belastet man das Material dann noch stärker, brechen allerdings auch diese Stränge auseinander, es entsteht eine „geschmolzene“, also ungeordnete Ansammlung von Teilchenclustern – und die Zähigkeit der Substanz nimmt wieder zu: Immer mehr Teilchen werden aus ihren ursprünglichen Positionen gespült und bremsen so den Flüssigkeitsstrom ab. Dieses Verhalten gilt universell für alle Cluster-Kristalle, und mit einfachen theoretischen Überlegungen kann man die kritische Belastung, bei der die geordnete Struktur komplett geschmolzen ist, sehr genau vorhersagen.

Kristalle aus weichen, durchdringbaren Teilchen können unter Scher-Beanspruchung ganz neue Szenarien der Selbstorganisation aufzeigen. Geometrische Strukturen ergeben sich einfach durch die Art der Kräfte, die zwischen den Teilchen wirken. Diese Forschung an „weicher Materie“ im Nano- und Mikrometerbereich ist nicht nur für die Grundlagenforschung interessant, Materialien dieser Art spielen auch im Alltag eine wichtige Rolle. Zu ihnen zählen Blut oder große Biopolymere wie etwa DNA-Moleküle. Sie spielen in der Biotechnologie, aber auch in der Erdöl- und Pharmaindustrie eine wichtige Rolle – und überall dort, wo maßgeschneiderte Nanomaterialien benötigt werden. Eine Flüssigkeit, die unter äußeren Kräften ihre Zähigkeit ändert verspricht jedenfalls ein breites Spektrum an Anwendungsmöglichkeiten – von Stoßdämpfern über Flusssensoren bis hin zu Schutzkleidung. (Florian Aigner)

Originalpublikation:
Arash Nikoubashman, Gerhard Kahl, and Christos N. Likos, Cluster Crystals under Shear, Phys. Rev. Lett. 107, 068302 (2011).

Externer Link: www.tuwien.ac.at

„Quanten-Magie“ kommt ohne „spukhafte Fernwirkung“ aus

Pressemeldung der Universität Wien vom 24.06.2011

Die quantenmechanische Verschränkung ist das Herzstück des berühmten Quanten-Teleportationsexperiments. Albert Einstein bezeichnete sie als „spukhafte Fernwirkung“. Ein Forschungsteam der Universität Wien und des Instituts für Quantenoptik und Quanteninformation der Österreichischen Akademie der Wissenschaften um Anton Zeilinger verwendete ein System, das Verschränkung nicht zulässt und fand doch Resultate, die nicht auf klassische Weise interpretiert werden können. Das Team publizierte dazu in der aktuellen Ausgabe der renommierten Fachzeitschrift „Nature“.

Asher Peres, einer der Pioniere der Quanteninformationstheorie, meinte in einem Brief an seine Kollegin Dagmar Bruß scherzhaft: „Verschränkung ist ein Trick, den ‚Quantenmagier‘ einsetzen, um Phänomene zu erzeugen, die von ‚klassischen Magiern‘ nicht kopiert werden können.“ Wenn zwei Teilchen miteinander verschränkt sind, beeinflussen Messungen, die an einem der beiden Teilchen vorgenommen werden, das andere Teilchen augenblicklich, gleichgültig wie weit entfernt sich die beiden Teilchen voneinander befinden. Was aber, wenn im Experiment ein System herangezogen wird, das Verschränkung gar nicht zulässt? Sind die „Quanten-Magier“ gegenüber den anderen noch immer im Vorteil?

Quantenphysik fern von Spuk und Zauberei

Dieser Frage gingen Forscher der Fakultät für Physik der Universität Wien und des Instituts für Quantenoptik und Quanteninformation der Österreichischen Akademie der Wissenschaften um Anton Zeilinger in einem Experiment nach. Sie verwendeten ein sogenanntes Qutrit – ein Quantensystem aus einem einzelnen Photon, das drei voneinander unterscheidbare Zustände einnehmen kann. „Damit konnten wir zeigen, dass quantenmechanische Messungen auch dann nicht auf klassische Weise interpretiert werden können, wenn das Phänomen der Verschränkung nicht beteiligt ist“, erklärt Radek Lapkiewicz, Erstautor der Studie. Die Ergebnisse beziehen sich auf die theoretischen Vorhersagen von John Stewart Bell, Simon B. Kochen und Ernst Specker.

Quantenwelt versus Alltagserfahrung

Die Quantenphysik unterscheidet sich erheblich von dem, was wir in unserer Alltagswelt wahrnehmen, erfahren und als „klassische Physik“ bezeichnen. Betrachten wir beispielsweise einen Globus von nur einem Standpunkt aus, dann können wir jeweils nur eine Hemisphäre zu einem bestimmten Zeitpunkt sehen. Drehen wir den Globus einmal um die eigene Achse, können wir unter der Annahme, dass die Form der Kontinente gleich bleibt, auch wenn wir sie gerade nicht sehen, letztendlich ein aussagekräftiges und „wahres“ Bild unserer Erde konstruieren.

Mit unseren Erfahrungen und Annahmen der „klassischen Physik“ können wir also einem System Eigenschaften zuordnen, ohne dass Messungen erforderlich wären. Anders verhält es sich, wenn wir uns einen „Quantenglobus“ vorstellen. Im Gegensatz zum Globus, der sich aufgrund klassischer Annahmen von Eigenschaften wie ein Puzzle zusammenfügt, passen die Bilder beim ‚Quantenglobus‘ nicht zusammen. Es ergibt sich aber auch kein ‚zufälliges‘ Muster, vielmehr kann bereits im Voraus gesagt werden, um wie viel die einzelnen Teile nach der Beobachtung voneinander differieren.

Publikation:
Experimental non-classicality of an indivisible quantum system
Radek Lapkiewicz, Peizhe Li, Christoph Schaeff, Nathan K. Langford, Sven Ramelow, Marcin Wiesniak and Anton Zeilinger
Nature, 23. Juni 2011 | DOI: 10.1038/nature10119

Externer Link: www.univie.ac.at

Mehr Wissen kühlt Computer

Medienmitteilung der ETH Zürich vom 01.06.2011

Supercomputer brauchen viel Energie, die sie als Wärme freisetzen. Eine Studie aus der theoretischen Physik zeigt nun Erstaunliches: Beim Löschen gespeicherter Daten könnte die Wärmebildung vermieden und im Idealfall sogar Kälte erzeugt werden. Hinter dieser praktischen Anwendung stehen grundlegende Überlegungen zu Wissen und Unwissen.

Wenn Rechner rechnen, produzieren sie vor allem eines: Wärme. Die Wärmeproduktion macht den Computer aus energetischer Sicht ineffizient, was nicht erst seit der laufenden Energiedebatte ein Problem ist. Zudem limitiert die Hitze auch die Leistung der Hochleistungsrechner, so dass eine Steigerung nur noch begrenzt möglich ist. Der enorme Energiebedarf und die überflüssige Wärmeproduktion machen Hochleistungsrechner also nicht nur teurer, sie behindern auch deren Weiterentwicklung.

Die jüngsten Forschungsresultate eines Teams von Physikern lassen deshalb aufhorchen. ETH-Professor Renato Renner beschreibt zusammen mit Professor Vlatko Vedral, vom Centre for Quantum Technologies der NU Singapore, im Fachmagazin Nature, wie beim Datenlöschen anstatt Wärme unter bestimmten Voraussetzungen Kälte entstehen könnte.

Landauer-Prinzip ist nicht immer gültig

Der Physiker Rolf Landauer zeigte bereits 1961, dass beim Datenlöschen unweigerlich Energie in Form von Wärme freigesetzt wird. Das Landauer-Prinzip besagt, dass wenn eine bestimmte Anzahl an Rechenoperationen pro Sekunde überschritten wird, der Computer so viel Wärme produziert, dass diese unmöglich abgeführt werden kann. Renner geht davon aus, dass diese kritische Grenze in den nächsten 10 bis 20 Jahren erreicht wird. Die Wärmeabgabe beim Löschen einer Festplatte von zehn Terabyte beträgt zwar prinzipiell weniger als ein Millionstel Joule. Wird ein solcher Löschvorgang aber viele Male pro Sekunde wiederholt, summiert sich die Wärme dementsprechend auf.

Das Landauer-Prinzip, so zeigt nun die Studie, gilt aber nur, solange man den Wert, der zu löschenden Bits nicht kennt. Das Löschen eines Speichers ist bis jetzt ein irreversibler Prozess. Wenn der Speicherinhalt jedoch bekannt ist, wäre es möglich, ihn so zu löschen, dass er theoretisch wieder herstellbar wäre. Unter diesen Umständen würde das Landauer-Prinzip nicht mehr gelten.

Ähnliche Formel – zwei Disziplinen

Um das zu beweisen, verbanden die Wissenschaftler den Entropie-Begriff aus der Informationstheorie mit dem aus der Thermodynamik. In der Informationstheorie ist die Entropie ein Mass für die Informationsdichte. Sie beschreibt beispielsweise, wie viel Speicherplatz ein gegebenes Set von Daten bei optimaler Kompression einnehmen würde. In der Thermodynamik hingegen sagt die Entropie etwas über die Unordnung in Systemen (zum Beispiel der Moleküle in einem Gas) aus.

Das Konzept der Entropie existiert also in verschiedenen Disziplinen weitgehend unabhängig voneinander. «Wir haben nun gezeigt, dass in beiden Fällen der Entropie-Begriff eigentlich dasselbe beschreibt», hält der ETH-Physiker Renner fest. Da die Formeln gleich aussehen, vermutete man bereits früher eine Verknüpfung zwischen beiden. «Unsere Studie zeigt, dass die Entropie in beiden Fällen als eine Art Unwissen angesehen werden kann», sagt Renner. Wichtig dabei ist, dass ein Objekt nicht per se eine gewisse Entropie hat, sondern dass diese immer vom Beobachter abhängt. Auf das Beispiel mit dem Datenlöschen übertragen, heisst das: Wenn zwei Personen einen Datenspeicher löschen und einer von beiden mehr Wissen über den Speicherinhalt hat, kann dieser den Speicher mit weniger Energie löschen.

Keine Wärme oder gar Kälte

Denkt man die Ergebnisse der Wissenschaftler konsequent weiter, dann wird beim Löschen von Computerdaten im Extremfall keine Energie mehr gebraucht. Beim klassischen Computer ist das allerdings erst möglich, wenn dessen Prozessoren so klein sind, dass Quanteneffekte eine Rolle spielen. Das heisst, dass ein einzelnes Bit nicht wie heute durch hunderte in eine bestimmte Richtung ausgerichtete Atome auf einem Chip dargestellt wird, sondern dass der Wert jedes Bits nur noch in ein einziges Atom geschrieben wird.

Die Physiker gehen sogar noch einen Schritt weiter: Bei einem Quantencomputer könnte der Nutzer mit dem Speicherinhalt „verschränkt“ sein. Dies bedeutet, dass er den Speicherinhalt „mehr als vollständig kennt“, und damit die Entropie negativ wäre. Der Umgebung würde dann bei einem Löschvorgang sogar Wärme entzogen, diese also abgekühlt. «Das heisst nicht, dass wir das Perpetuum Mobile entwickeln können», betont Renner. Die der Umgebung entzogene Wärme würde zwar in nutzbare Energie umgewandelt, da das Löschen von Daten aber ein einmaliger Prozess ist, ergäbe sich dadurch keine fortlaufende Energiegewinnung.

Grundlegende Erkenntnis

Die neuen Erkenntnisse der Wissenschaftler über den Begriff der Entropie in der Physik und der Informationstheorie sind grundlegend – nicht nur im Bezug auf die Wärmeproduktion von Computern. Die innerhalb der Informationstheorie entwickelten Methoden, um beispielsweise mit unvollständigem Wissen umzugehen, könnten der Schlüssel zu einem neuartigen Verständnis der Thermodynamik sein.

Veröffentlichung:
Del Rio L, Aberg J, Renner R, Dahlsten O & Vedral V: The thermodynamic meaning of negative entropy, Nature (2011) doi: 10.1038/nature10123.

Externer Link: www.ethz.ch