Für sichere Software: Röntgen statt Passkontrolle

Presseinformation des KIT (Karlsruher Institut für Technologie) vom 25.06.2014

Das Softwareanalysewerkzeug JOANA überprüft den Quelltext eines Programms und bietet damit neue Möglichkeiten Sicherheitslücken aufzudecken

Vertrauen ist gut, Kontrolle ist besser – auch bei der Sicherheit von Computerprogrammen. Statt sich auf „Ausweispapiere“ in Form von Zertifikaten zu verlassen, durchleuchtet die neue Softwareanalyse JOANA den Quelltext (Code) eines Programms. Auf diese Weise spürt sie die Lecks auf, über die geheime Informationen nach außen gelangen oder Fremde von außen in das System eindringen können. Gleichzeitig reduziert JOANA die Zahl der Fehlalarme auf ein Minimum. Das am Karlsruher Institut für Technologie (KIT) entwickelte Analysewerkzeug hat sich bereits in realistischen Testszenarien bewährt. Als Nächstes ist eine industrielle Fallstudie geplant.

„Gängige Softwarezertifikate bescheinigen die Vertrauenswürdigkeit des Herstellers. Mit JOANA können wir ergänzend das tatsächliche Verhalten eines Programms überprüfen“, sagt Gregor Snelting, der das Analysewerkzeug mit seiner Forschergruppe am Lehrstuhl Programmierparadigmen des KIT entwickelt hat. Das sei deshalb so wichtig, weil die meisten Schwachstellen auf unbeabsichtigte Programmierfehler zurückgingen. Im Fokus der Wissenschaftler stehen derzeit mobile Anwendungen für Android-Smartphones. Prinzipiell können sie aber fast alle Programme testen, die in den gängigen Sprachen JAVA, C oder C++ geschrieben sind. Zunächst sollen Softwareunternehmen ihre Produkte prüfen lassen können, bevor sie damit an den Markt gehen. Da derzeit noch Fachleute das Einrichten und Bedienen übernehmen müssen, ist JOANA für private Nutzer weniger geeignet.

JOANA überprüft sämtliche Datenkanäle einer Software, durch die Informationen fließen, und findet dadurch die Sicherheitslücken. „Wir unterscheiden zwischen öffentlich sichtbaren Kanälen, die beispielsweise die Nutzeroberfläche abbilden, und geschützten Kanälen, auf die Anwender nicht zugreifen können“, erklärt Snelting. „Für die Sicherheit von geheimen Informationen, wie Passwörtern oder Kontonummern, ist entscheidend, dass sie ausschließlich in geschützten Kanälen befördert werden.“ Wo sich geheime und öffentliche Datenströme kreuzten, sei ein Informationsaustausch prinzipiell möglich und so bestehe Gefahr, dass sensible Informationen weitergegeben würden.

Die Wissenschaftler unterscheiden mehrere Sicherheitslücken: So können beispielsweise direkt lesbare Kopien sensibler Daten nach außen gelangen (explizites Leck) oder nur die Muster, nach denen sie verschlüsselt sind (implizites Leck). Problematisch ist auch, wenn sich geheime Passwörter auf die wahrscheinliche Reihenfolge sichtbarer Informationsflüsse auswirken (probabilistisches Leck) – und daraus rekonstruierbar sind. Ein vereinfachtes Beispiel: Der Befehl ein „rotes L“ zu drucken erreicht einen Drucker zeitgleich mit dem geheimen Passwort für die Zugriffsberechtigung. Lautet das Passwort AB, kommt die Information „L“ in den meisten Fällen kurz vor der Information „rot“ an. Lautet das Passwort BA, ist es genau umgekehrt. JOANA erkennt auch solche Sicherheitslücken zuverlässig, obwohl sie schwerer zu identifizieren sind.

„Mindestens ebenso wichtig, wie alle Sicherheitslücken zu finden, ist es, möglichst wenig Fehlalarme zu produzieren“, sagt Snelting. Viele Fehlalarme führten zu einem massiv erhöhten Prüfaufwand oder dazu, dass Alarme ignoriert würden. JOANA reduziert die Zahl der Fehlalarme für alle Sicherheitslücken – auch für probabilistische Lecks. Die KIT-Wissenschaftler haben dafür eine neue Rechenmethode entwickelt (Relaxed Low-Security Oberservational Determinism), die nur an sicherheitskritischen Stellen eine feste Reihenfolge für beobachtbare Prozessschritte vorschreibt. Im obigen Beispiel hieße das, die Information „rot“ muss den Drucker immer vor der Information „L“ erreichen, unabhängig vom Passwort. „Die Herausforderung war, sicherheitsirrelevante Prozesse von solch strikten Vorgaben auszunehmen“, so Snelting. Andernfalls stiege entweder die Zahl der Fehlalarme, weil jede Abweichung als gefährlich eingestuft würde, oder die Ausführungen eines Programms müssten so massiv beschränkt werden, dass es praktisch nicht mehr nutzbar sei.

JOANA ist bislang weltweit das einzige Softwareanalysewerkzeug, das nicht nur alle Sicherheitslücken findet, sondern auch die Zahl der Fehlalarme minimiert, ohne die Funktionsfähigkeit von Programmen zu beeinträchtigen. Gefördert von der Deutschen Forschungsgemeinschaft haben die KIT-Wissenschaftler rund zwanzig Jahre auf diesem Gebiet geforscht. „Längerfristig könnte mit JOANA geprüfte Software ein neuartiges Zertifikat erhalten, das die Sicherheit des Programmcodes bescheinigt“, sagt Snelting. (lcp)

Externer Link: www.kit.edu

Physiker entwickeln Methode, mit der Quantencomputer 72 Mal schneller starten können als bisher

Pressemitteilung der Universität des Saarlandes vom 23.06.2014

Theoretische Physiker der Universität des Saarlandes haben eine Methode entwickelt, mit der ein Quantencomputer in fünf Minuten eingestellt und stabil ist. Bisher dauerte das im Experiment sechs Stunden. Die Wissenschaftler haben sich dabei mathematischer Modelle aus dem Ingenieurwesen bedient. Für die Quantenphysik bedeuten diese Erkenntnisse eine ganz neue Qualität für Experimente: Blieb bislang nur eine kurze Zeit, um mit einem Quantenprozessor zu experimentieren, bevor die empfindlichen Einstellungen wieder stundenlang nachjustiert werden mussten, können Forscher künftig viel schneller ein Experiment vorbereiten und viel länger experimentieren. Die Arbeit wurde in der Fachzeitschrift Physical Review Letters veröffentlicht. In derselben Ausgabe haben Experimentalphysiker der University of California in Santa Barbara einen Aufsatz veröffentlicht, der die Methode der Saarbrücker Physiker erfolgreich im Experiment bestätigt.

Startknopf drücken, Monitor anschalten, Kaffee holen, los geht’s: Übliche Computer sind in Windeseile hochgefahren und betriebsbereit. Bei einem Quantencomputer sieht das ganz anders aus. Um einen Chip mit fünf Quantenbits, dem quantenphysikalischen Äquivalent der Bits in normalen Rechnern, so einzustellen, dass man damit arbeiten und experimentieren kann, musste bisher ein Wissenschaftler stundenlang Dutzende Einstellungen aufs Feinste kalibrieren. Lag er nur wenig daneben, lief der Chip nicht.

Denn das Problem ist, dass Quantencomputer ähnlich wie ein Musikinstrument auf kleinste Unterschiede in der Umgebung reagieren. Ist es beispielsweise nur ein wenig wärmer oder kälter, ist der Luftdruck höher oder niedriger als am Vortag, funktioniert das komplexe Geflecht der Quantenbits nicht mehr, der Quantencomputer ist sozusagen „verstimmt“ und muss neu eingestellt werden. „Bisher haben sich Quantenphysiker also jeden Tag aufs Neue hingesetzt und geschaut, was anders ist als am Vortag. Sie haben jeden Parameter gemessen und den Chip immer wieder mühsam neu kalibriert“, erklärt Frank Wilhelm-Mauch, Professor für Quanten- und Festkörpertheorie an der Universität des Saarlandes. Die Fehlerquote beim Messen der Umgebungsbedingungen darf nur sehr gering sein, etwa im Bereich unter 0,1 Prozent. „Das bedeutet, dass nur bei einer von 1000 Messungen ein Fehler passieren darf. Sind nur zwei von 1000 Messungen fehlerhaft, kann die Software das nicht mehr korrigieren und der Quantencomputer läuft fehlerhaft“, erklärt Frank Wilhelm-Mauch die Empfindlichkeit. Bedenkt man, dass rund 50 verschiedene Parameter in die Kalibrierung mit einfließen, erhält man eine Vorstellung von dem Aufwand, mit dem sie betrieben werden muss.

Gemeinsam mit seinem Doktoranden Daniel Egger hat er überlegt, was man grundsätzlich anders machen kann. „Wir haben uns gefragt, warum man jeden Tag aufs Neue verstehen muss, was anders ist als am Vortag? Also haben wir uns irgendwann gesagt: Das müssen wir gar nicht. Entscheidend ist, dass die Einstellung am Ende funktioniert. Warum sie funktioniert, ist nicht so wichtig.“ Mit diesem pragmatischen Ansatz gingen Wilhelm-Mauch und Egger an die Arbeit. „Wir haben für die Kalibrierung einen Algorithmus aus der Ingenieurmathematik, genauer gesagt, aus dem Bauingenieurwesen, verwendet. Denn auch dort sind Versuche teuer“, sagt Physiker Wilhelm-Mauch.

Mithilfe dieses Kniffs gelang es den Theoretikern, die Fehlerquote beim Kalibrieren auf unter die benötigten 0,1 Prozent zu drücken und gleichzeitig die Geschwindigkeit des Einstellverfahrens von sechs Stunden auf fünf Minuten zu reduzieren. Das haben Experimentalphysiker der University of California in Santa Barbara gezeigt, die die Saarbrücker Methode, welche von den Physikern auf den Namen „Ad-HOC” (Adaptive Hybride Optimale Kontrolle) getauft wurde, erstmals auf Herz und Nieren testeten. Das Experiment ist in derselben Ausgabe der Physical Review Letters veröffentlicht wie der Saarbrücker Aufsatz.

Für weitere Experimente bei der Erforschung von Quantencomputern ist dieser Fortschritt ungemein wichtig. Nun müssen in den Laboren der Physiker nicht mehr jeden Tag stundenlange Vorarbeiten gemacht werden, um eine kurze Zeit lang zu experimentieren. „Denn während der langen Kalibrierungsphase haben sich viele Parameter wie Temperatur, Licht und Luftdruck ja bereits wieder leicht verändert, so dass die Zeitspanne, in der der Chip fehlerfrei läuft und man damit experimentieren kann, immer kürzer wird“, sagt Wilhelm-Mauch, der hinzufügt, dass seine Überlegungen skalierbar seien. Sind bisher also aus rein technischen Gründen Experimente mit einem Chip möglich, auf dem fünf Quantenbits die Rechenoperationen durchführen, sind in Zukunft der Größe des Chips mit dieser Methode kaum Grenzen gesetzt, er ist beliebig vergrößerbar.

Zudem gibt es einen Clou an der Methode, auf den Frank Wilhelm-Mauch mit einer Portion Humor hinweist: „Unsere Methode ist im Gegensatz zu der bisherigen Kalibrierung von Hand vollautomatisch. Der Wissenschaftler drückt also tatsächlich nur einen Knopf wie bei einem herkömmlichen Computer und geht Kaffee holen, bis der Quantencomputer einsatzbereit ist.“ Im Alltag ein nicht zu vernachlässigender Gewinn.

Publikation:
Adaptive Hybrid Optimal Quantum Control for Imprecisely Characterized Systems, 20. Juni, Physical Review Letters, DOI: 10.1103/PhysRevLett.112.240503

Externer Link: www.uni-saarland.de

Neues Rot für schöneres Weiß

Presseinformation der LMU München vom 23.06.2014

LMU-Chemiker entwickeln einen neuartigen roten Leuchtstoff, der weiße LED-Lampen heller macht.

Einem Team von Wissenschaftlern um Wolfgang Schnick, Inhaber des Lehrstuhls für Anorganische Festkörperchemie an der LMU, ist es in Kooperation mit Dr. Peter Schmidt von der Philips Technologie GmbH Aachen gelungen, ein neues Material für Leuchtdioden zu entwickeln. „Seine außergewöhnlichen Leuchteigenschaften könnten den LED-Markt revolutionieren“, sagt Schnick. Über ihre Ergebnisse berichten die Forscher aktuell in der Fachzeitschrift Nature Materials.

Nach dem EU-Verbot von Glühlampen, die nur wenige Prozent der elektrischen Energie in Licht verwandeln, gelten Leuchtdioden (LEDs) als Lichtquelle der Zukunft. Sie erzeugen Licht durch Anregung von Elektronenübergängen in halbleitenden Festkörpern. Im Gegensatz zu den umstrittenen Energiesparlampen, die giftiges Quecksilber enthalten, sind sie ökologisch unbedenklich und zudem sehr effizient, senken also den Energieverbrauch.

Jede LED kann immer nur eine Lichtfarbe erzeugen. Schnick und sein Team haben jedoch bereits zuvor den technologischen Durchbruch geschafft, neuartige Leuchtstoffe zu entwickeln, die blaues Licht von LEDs in alle Farbkomponenten des sichtbaren Spektrums umwandeln, insbesondere in solche im roten Spektralbereich. Durch Farbmischung kann so weißes Licht in sehr hoher Qualität erzeugt werden. Für diese Entwicklung wurden sie 2013 für den Deutschen Zukunftspreis nominiert.

Neuer Leuchtstoff mit großem Potenzial

Weißes Licht wird erzeugt, indem einfarbige blaue LEDs mit verschiedenen keramischen Leuchtstoffen beschichtet werden. Diese können einen Teil des blauen Lichts absorbieren und in allen anderen Farben des sichtbaren Spektrums von Cyan bis Rot emittieren. Durch Mischung aller dieser Farbkomponenten entsteht dann weißes Licht. Hierbei werden allerdings extreme Anforderungen an die Leuchtstoffe gestellt. Sie brauchen nämlich eine hohe thermische Belastbarkeit und müssen mit sehr hoher Effizienz arbeiten.

„Bei kommerziell erhältlichen Weißlicht-LEDs muss man sich bisher noch zwischen möglichst hoher Effizienz und ausreichender Farbwiedergabe entscheiden“, sagt Schnick. Begrenzender Faktor sind hierbei vor allem die eingesetzten rot emittierenden Leuchtstoffe, da sie in besonderer Weise die Farbwiedergabe beeinflussen. Auch die Industrie hat seit vielen Jahren großen Bedarf an neuen Leuchtstoffen, deren Emissionen den tiefroten Spektralbereich abdecken, um höchste Effizienz und hervorragende Farbwiedergabe in Einklang zu bringen.

Das nun von Schnick, Schmidt und ihren Kollegen neu entdeckte nitridische Material Sr[LiAl3N4] zeigt nach gezielter Zugabe des Seltenerdmetalles Europium intensive und außergewöhnlich schmalbandige Lumineszenz im Roten bei Wellenlängen von etwa 650 nm und einer Halbwertsbreite von nur 50 nm. Erste LED-Prototypen mit diesem Leuchtstoff zeigten dabei im Vergleich zu handelsüblichen Weißlicht-LEDs eine um 14 % erhöhte Lichtausbeute bei trotzdem brillanter Farbwiedergabe. „Dieses neuartige Material übertrifft im Hinblick auf die einzigartigen Lumineszenzeigenschaften alle bisher für LEDs verwendeten tiefrot emittierenden Leuchtstoffe und zeigt sehr großes Potenzial für die industrielle Anwendung“, sagt Schnick.

Wissenschaftler am Lumileds Development Center Aachen (Philips Technologie GmbH) um Dr. Peter Schmidt sind derzeit damit beschäftigt, den neuen roten Leuchtstoff für die Produktion tauglich zu machen. Ihr Ziel ist es, den Weg zur nächsten Generation von helleren, energieeffizienteren weißen LEDs mit bester Farbwiedergabequalität zu ebnen. (nh)

Publikation:
Nature Materials 2014

Externer Link: www.uni-muenchen.de

Quantenteilchen tunneln Gegner gleich mehrfach

Medieninformation der Universität Innsbruck vom 12.06.2014

Tunneleffekte sind in der Physik allgegenwärtig und werden für viele technische Anwendungen ausgenutzt. Nun haben Physiker der Universität Innsbruck erstmals im Experiment beobachtet, wie wechselwirkende Quantenteilchen durch eine ganze Reihe von Barrieren tunneln. Die in der Fachzeitschrift Science veröffentlichte Arbeit eröffnet neue Einblicke in dieses weitverbreitete physikalische Phänomen.

Er erklärt den radioaktiven Alphazerfall mancher Atomkerne, macht Sterne zu Fusionskraftwerken und ermöglicht die Supraleitung: der Tunneleffekt. Einzelne Quantenteilchen können eine Barriere auch dann überwinden, wenn sie die dafür notwendige Energie nicht besitzen. Das ist eine der bemerkenswerten Konsequenzen aus den Regeln der Quantenmechanik. Technisch wird dieses Phänomen bei zahlreichen Anwendungen ausgenutzt, so beim Rastertunnelmikroskop und Flash-Speichermedien. Nun haben Forscher um Hanns-Christoph Nägerl vom Institut für Experimentalphysik der Universität Innsbruck im Labor Quantenteilchen erstmals dabei beobachtet, wie diese eine Reihe von bis zu fünf Barrieren hintereinander durchdringen. Dabei ist entscheidend, dass die Teilchen miteinander wechselwirken und sich gegenseitig mit einer Art Räuberleiter helfen, um zusammen ans Ziel zu kommen.

Wechselspiel der Kräfte

In ihrem Experiment kühlen die Innsbrucker Physiker eine Gaswolke aus bosonischen Cäsiumatomen bis nahe an den absoluten Nullpunkt ab. Diese Atome platzieren sie in einer Potentiallandschaft, die mit Hilfe von Laserstrahlen geschaffen wird. Dieses sogenannte optische Gitter zwingt die Teilchen in eine regelmäßige Struktur. Die Potentialwände hindern anfänglich die stark abgekühlten Teilchen daran, ihren Platz zu verlassen. „Die Atome können die Hürden nicht überspringen, weil ihnen dazu die Energie fehlt“, erklärt Hanns-Christoph Nägerl. „Es bleibt ihnen nur die Möglichkeit, die Barrieren mit Hilfe des quantenphysikalischen Tunneleffekts zu durchdringen.“ Doch auch das geht nicht, wenn die Nachbarplätze schon besetzt sind und dadurch eine Wechselwirkungsblockade besteht. Um trotzdem ein Quantentunneln zu ermöglichen, kippen die Forscher die Reihen der Teilchen mit einer äußeren Kraft. So verändert sich die potentielle Energie der Teilchen. Im Zusammenspiel mit den benachbarten Teilchen können die Atome dann eine oder mehrere Barrieren durchdringen, so das auch für die Forscher überraschende Ergebnis. „Jetzt helfen sich die Teilchen gegenseitig, anstatt sich zu blockieren, wie in einer Räuberleiter. Es ist entscheiden für das Experiment, dass wir das Zusammenspiel der Wechselwirkung zwischen den Teilchen und der äußeren Kraft genau kontrollieren“, sagt Nägerl. „Denn tunnelnde Atome müssen potentielle Energie abgeben, und das können sie in unserem System nur über die Wechselwirkung mit den benachbarten Atomen.“ So können die Physiker über die Anpassung von potentieller Energie und Wechselwirkungsenergie genau bestimmen, wie viele Barrieren ein Teilchen durchdringt. Interessant ist, dass die Quantenräuberleiter besser funktioniert als eine gewöhnliche Räuberleiter. Da die Cäsiumatome ununterscheidbare Quantenteilchen sind, die der Bose-Statistik gehorchen müssen, kommt es nicht darauf an, welches der Atome ins Ziel kommt, sondern nur, dass eines der Atome ins Ziel kommt. Das Mehr an Wahrscheinlichkeit erhöht folglich die Geschwindigkeit des Tunnelprozesses.

Neue Einsichten möglich

„In diesem Experiment haben wir erstmals beobachtet, wie Teilchen in einem stark wechselwirkenden System mehrere Barrieren hintereinander durchdringen“, sagt Hanns-Christoph Nägerl. Solche langreichweitigen Tunnelprozesse wurden in der Forschung bisher wenig beachtet, auch weil sie experimentell nicht zugänglich waren. Der ERC-Preisträger erwartet sich, dass die aktuellen Ergebnisse das Interesse daran rasch wachsen lassen werden. „Die Zukunft wird zeigen, welche Einsichten für molekulare, biologische oder elektronische Systeme daraus gewonnen werden können“, meint der Physiker. „Auch Anwendungen in der Quanteninformationsverarbeitung oder Quantensimulation sind denkbar.“

An der Arbeit beteiligt war der Theoretiker Andrew Daley, der 2010 aus Innsbruck an die University of Pittsburgh, USA, berufen wurde und mittlerweile an der University of Strathclyde in Schottland forscht und lehrt. Finanziell unterstützt wurden die Forscher unter anderem vom Europäischen Forschungsrat ERC und der National Science Foundation NSF.

Publikation:
Observation of many-body dynamics in long-range tunneling after a quantum quench. Florian Meinert, Manfred J. Mark, Emil Kirilov, Katharina Lauber, Philipp Weinmann,  Michael Gröbner, Andrew J. Daley, Hanns-Christoph Nägerl. Science am 13. Juni 2014 DOI: 10.1126/science.1248402 (arXiv:1312.2758)

Externer Link: www.uibk.ac.at

Fettmoleküle helfen T-Zellen im Kampf gegen Leukämie

Medienmitteilung der Universität Basel vom 16.06.2014

T-Zellen können einen bisher kaum bekannten Weg nutzen, um Leukämiezellen zu bekämpfen. Sie sind in der Lage, bestimmte Fettbausteine auf der Oberfläche der Krebszellen zu erkennen und können die Tumorzellen durch die Interaktion mit diesen Lipidstrukturen vernichten. Das zeigten Forschende der Universität Basel, denen es gelang, Leukämiezellen im Reagenzglas ebenso wie im Tiermodell mithilfe dieser lipid-spezifischen T-Zellen zu zerstören. Die Studie wurde im «Journal of Experimental Medicine» veröffentlicht.

Leukämien werden auch als Blutkrebs bezeichnet und sind im akuten Zustand lebensbedrohlich, da die veränderten Blutzellen die Reifung gesunder Blutzellen verhindern. Zur Beseitigung der Krebszellen erhalten Erkrankte zuerst eine Chemotherapie, anschliessend versucht man mithilfe einer Knochenmarkspende, neue, gesunde Blutzellen aufzubauen. Trotz dieser Behandlung überleben bei manchen Patienten einzelne Leukämiezellen, die sich erneut im Körper ausbreiten. Diese vor einem erneuten Ausbruch der Krankheit im Knochenmark oder Blut rechtzeitig aufzustöbern und zu beseitigen, ist seit geraumer Zeit das Ziel verschiedener Forschungsprojekte.

Mehr Schlagkraft gegen Tumorzellen

Dass T-Zellen eine wichtige Rolle bei der Bekämpfung von Leukämien spielen, ist bekannt. In der Regel erkennen die Abwehrzellen Bruchstücke von tumortypischen Proteinen, die auf der Oberfläche der Krebszellen zu finden sind. Im Idealfall werden die T-Zellen durch den Kontakt mit diesen sogenannten tumorassozierten Antigenen (TAA) aktiviert und können die Leukämiezellen vernichten. Manchmal allerdings ziehen sich die Proteinfragmente von der Oberfläche der Tumorzellen zurück oder verändern ihr Erscheinungsbild, wodurch es den Krebszellen gelingt, sich der Kontrolle des Immunsystems zu entziehen.

Einen neuen Ansatz, der dem Immunsystem zu mehr Schlagkraft verhelfen könnte, hat nun das Team um Prof. Gennaro De Libero von Universität und Universitätsspital Basel untersucht. Die Arbeitsgruppe beschäftigt sich schon längere Zeit mit T-Zellen, die anstelle der üblichen Proteine Fettbausteine (Lipide) erkennen. Die Basler Forscher konnten gemeinsam mit Kollegen aus Italien, China und Singapur ein neues Lipid charakterisieren, das sich in Leukämiezellen und auf deren Oberflächen anreichert und eine T-Zell-Antwort gegen den Tumor stimuliert. Bei dem Lipid handelt es sich um Methyl-Lysophosphatsäure (mLPA). Das Molekül ist bei verschiedenen Leukämieformen in grossen Mengen zu finden und darf als Lipid-TAA betrachtet werden.

Therapeutische Effekte beobachtet

Dem Team gelang es zudem, T-Zellen zu isolieren, die im Reagenzglas den Lipidbaustein erkennen und Leukämiezellen abtöten konnten. Bei Versuchen mit Mäusen, die an Blutkrebs erkrankt waren, konnte mit diesen Abwehrzellen ebenfalls ein therapeutischer Effekt beobachtet werden.

Das Lipid mLPA kann – anders als tumorassozierte Antigene aus Proteinen – sein Aussehen nicht ohne weiteres verändern oder sich von der Oberfläche der Leukämiezellen zurückziehen. Daher könnte mLPA, indem es die proteinvermittelte Anti-Tumor-Antwort verstärkt, als Ansatzpunkt für künftige Immuntherapien bei Leukämie dienen und mit dazu beitragen, dass die Erkrankung nach Chemotherapie und Knochenmarkspende nicht erneut aufflammt.

Originalbeitrag:
Marco Lepore, Claudia de Lalla, S. Ramanjaneyulu Gundimeda, Heiko Gsellinger, Michela Consonni, Claudio Garavaglia, Sebastiano Sansano, Francesco Piccolo, Andrea Scelfo, Daniel Häussinger, Daniela Montagna, Franco Locatelli, Chiara Bonini, Attilio Bondanza, Alessandra Forcina, Zhiyuan Li, Guanghui Ni, Fabio Ciceri, Paul Jenö, Chengfeng Xia, Lucia Mori, Paolo Dellabona, Giulia Casorati, and Gennaro De Libero
A novel self-lipid antigen targets human T cells against CDc+ leukemias
The Journal of Experimental Medicine (2014) | doi: 10.1084/jem.20140410

Externer Link: www.unibas.ch