Rundholz mit Antenne

Mediendienst der Fraunhofer-Gesellschaft vom August 2010

Funk-Etiketten auf Holzbasis sollen künftig die Logistikprozesse in der Forstwirtschaft optimieren. Die RFID-Transponder bestehen aus Papier und dem Pflanzenbestandteil Lignin. So stören sie nicht bei der Verarbeitung der Stämme und ermöglichen es dennoch, komplette Lkw-Fuhren mit Rundholz zu erfassen.

Waldspaziergängern sind sie bestens bekannt, die farbigen Markierungen auf den Baumstämmen, die längs der Forstwege auf ihren Abtransport warten. Zu deuten wissen sie freilich nur Eingeweihte. »Im Prinzip hat jeder Förster oder Waldbesitzer sein eigenes Kennzeichnungssystem«, stellt Mike Wäsche vom Fraunhofer-Institut für Fabrikbetrieb und -automatisierung IFF in Magdeburg fest. Der Wirtschaftsinformatiker will die Markierungen durch einheitliche RFID-Transponder, sprich Funk-Etiketten, ersetzen – gemeinsam mit Kollegen vom Fraunhofer-Institut für Zuverlässigkeit und Mikrointegration IZM in Berlin, der Thüringer Landesanstalt für Wald, Jagd und Fischerei sowie weiteren Partnern aus der Forstwirtschaft. Gleichzeitig soll ein RFID-basierter Logistik-Standard für den Datenaustausch zwischen Waldbesitzern, Ernte- und Fuhrunternehmen sowie den gewerblichen Endabnehmern etabliert werden.

Im forstlichen Umfeld gibt es zwar seit 2002 den ELDAT-Standard für den ELektronischen DATenaustausch von Verkaufsinformationen. Logistische Prozesse sind darin aber nur ansatzweise berücksichtigt. Dazu kommen Lücken in der IT-Infrastruktur: »Informationstechnologien setzen bislang eigentlich nur die großen Akteure ein«, bedauert Wäsche. Von einem durchgängigen elektronischen Datenaustausch in Verbindung mit RFID könnten jedoch alle Beteiligten profitieren – auch die kleinen und mittleren Betriebe, die meist für Holzernte und Transport zuständig sind: Daten wie Herkunft, Qualität, Menge und Bestimmungsort der Stämme müssen nur noch einmal erfasst werden. Außerdem lässt sich das Holz schnell und sicher zuordnen, was die Abrechnung beschleunigt und die Abfuhrkontrolle vereinfacht.

Hochwertiges Stammholz für Möbel oder Parkett wird häufig schon mit Nummernplättchen oder Funk-Etiketten gekennzeichnet. Die Partner des Projekts »Intelligentes Holz – RFID in der Rundholzlogistik« wollen jedoch eine praktikable Lösung, die sich zum Kennzeichnen aller Holzsorten eignet – auch der gut zehn Millionen Kubikmeter Industrieholz, die jährlich in Deutschland anfallen. Industrieholz wird aufgefasert und zu Zellstoff, Papier oder Holzwerkstoff-Platten verarbeitet. »Die Gewinnmargen in diesem Sektor sind gering, deshalb dürfen die eingesetzten RFID-Transponder weder viel kosten, noch bei der weiteren Verarbeitung des Holzes stören«, betont Projektleiter Wäsche. Das Team am IZM hat daher einen Transponder auf Holzbasis entwickelt: Mit Ausnahme der Antenne besteht der »Tag« aus Papier und Lignin. Das harzartige Polymer fällt in großen Mengen bei der Gewinnung von Cellulose aus Holz an. »Der Metallanteil des Transponders liegt weit unter dem, was sonst an Verunreinigungen im und am Holz üblich ist«, erklärt Christine Kallmayer, Gruppenleiterin am IZM.

Um die Kosten gering zu halten, wird auf den Funk-Etiketten nur ein Zahlencode gespeichert. Alle weiteren Informationen sind in den Verwaltungs- und Abrechnungssystemen der einzelnen Akteure hinterlegt. Ausgelesen werden die Tags im Vorbeifahren: Bei der Anlieferung am Werk passiert der LKW samt Ladung ein Reader-Gate. Alle angelieferten Stämme werden noch auf dem Fahrzeug im Pulk erfasst. Pro LKW-Ladung reichen theoretisch ein bis zwei RFID-Transponder, um alles eindeutig zu identifizieren. Stammt das Holz einer Fuhre von mehreren Lieferanten, muss für eine sichere Zuordnung mindestens jeder zwanzigste beziehungsweise jeder dreißigste Stamm gekennzeichnet werden – je nachdem, wie groß die einzelnen Chargen sind. Das Projekt läuft noch bis Anfang 2011, aber bereits jetzt denkt das IFF über Anfragen aus der Chemieindustrie nach: Hier könnten nach demselben Prinzip Metallfässer mit gefährlichen Flüssigkeiten pulkweise erfasst und verfolgt werden.

Externer Link: www.fraunhofer.de

Saarbrücker Informatiker entwickeln Verfallsdatum für digitale Daten

Pressemitteilung der Universität des Saarlandes vom 15.07.2010

Wenn früher in Zeitungsartikeln oder Leserbriefen über Personen berichtet wurde, so verschwanden diese Angaben bald in den Archiven und waren nur noch schwer zugänglich. Heute ist alles anders, weil das Internet nichts vergisst und vieles gleich mehrfach abspeichert. Wer private Daten auf einer Webseite löscht, weiß daher noch lange nicht, ob sie damit aus dem Internet verschwunden sind. Saarbrücker Informatiker haben jetzt ein System entwickelt, mit dem jeder Computerlaie seine Dateien und Bilder mit einem Verfallsdatum versehen kann, bevor er diese ins Internet stellt. Dank einer neuartigen Kombination aus Verschlüsselungstechnik und so genannten Captchas werden die Daten und ihre vielfältigen Kopien nach Fristablauf automatisch gelöscht.

„Unser System sieht im Kern vor, dass man Daten, die jemand im Internet veröffentlichen möchte, erst verschlüsselt. Den Schlüssel, den man zum Lesen der Daten benötigt, legen wir auf mehreren Servern ab“, erklärt Michael Backes, Professor für Informationssicherheit und Kryptographie der Universität des Saarlandes. Diese Server könnten künftig von vertrauenswürdigen Organisationen zur Verfügung gestellt werden, so dass jeder Benutzer die Wahl habe, wo er seine Schlüssel lagern möchte. Wenn jemand dann die Daten auf den Webseiten abrufen will, muss der betreffende Rechner dafür erst den Schlüssel anfordern. „Diese Abfrage und die eigentliche Ver- und Entschlüsselung geschieht vollautomatisch im Hintergrund, ohne dass der Benutzer aktiv werden muss“, sagt Backes.

Für den Internetnutzer ist ein solches System einfach zu bedienen und nur mit einmaligem, sehr geringem Aufwand verbunden. Notwendig ist lediglich ein Programm-Zusatz (Add-on) für einen der gängigen Internet-Browser. „Wer zum Beispiel sicher gehen will, dass ein Partybild im sozialen Netzwerk nach ein paar Monaten verschwindet, gibt einfach schon beim Hochladen des Fotos ein Verfallsdatum ein“, sagt Michael Backes. Der Server, auf dem die Schlüssel für die Daten gespeichert sind, merkt sich dieses Datum und löscht dann nach Ablauf der Frist alle herausgegebenen Schlüssel. Dadurch können die Daten auf den Webseiten nicht mehr aufgerufen werden. „Ziel unserer Forschungen ist es, dass jeder Einzelne die Kontrolle über seine Daten behält. Dazu zählt, dass nicht jeder automatisch Zugriff auf alle Daten erhält und man einmal veröffentlichte Bilder auch wieder löschen kann“, sagt der Informatik-Professor.

Nach Meinung von Michael Backes muss ein in der Praxis wirksames System die Hürde vor allem für die großen Suchmaschinen wie Google oder Yahoo sehr hoch setzen, die nach dem Motto „Durchsuche alles, speichere alles und stelle es mehrfach zu Verfügung“ (Caching) verfahren. Eine solche vollautomatische Speicherung aller Daten stellt einen der Hauptgründe dar, dass Daten nicht vergessen werden  Mit seinen Mitarbeitern Markus Dürmuth und Sebastian Gerling hat der Saarbrücker Forscher daher noch eine zweite Sicherheitsstufe in das System eingebaut, um den Ansatz praxistauglich zu machen. Dafür werden so genannte Captchas verwendet, das ist eine Art Puzzle, das der Mensch recht einfach lösen kann, aber ein Rechner nicht automatisch zu entziffern weiß.

„Wer zum Beispiel ein privates Video auf einer Webseite betrachten oder eine private Fotosammlung anschauen will, muss mit Hilfe des Captchas eine Buchstabenfolge manuell eingeben“, erklärt Backes. Für Unternehmen, die viele Daten im Internet sammeln, wäre es nur mit großem Mehraufwand möglich, eine Vielzahl dieser Captchas zu lösen. „Die Daten können durch unser System daher nur noch mit einem hohen kommerziellen Aufwand in großem Maßstab gespeichert werden“,  betont Backes. Damit könnte die Privatsphäre der einzelnen Internetnutzer noch besser geschützt werden.

Externer Link: www.uni-saarland.de

Prognoseverbesserung im Lebensmitteleinzelhandel durch Wettervorhersage

Pressemitteilung der Universität Passau vom 17.06.2010

Lassen sich Wettervorhersagedaten nutzen, um Absatzprognosen für Lebensmittel zu verbessern? Mit welchen Methoden kann man das erreichen, vor allem dann, wenn es sich um viele tausend Lebensmittelmärkte mit jeweils mehreren tausend Artikeln handelt und täglich eine Prognose erstellt werden muss?

Solche und ähnliche Fragen waren Thema eines Forschungsprojekts, das von Prof. Dr. Thomas Müller-Gronbach (Lehrstuhl für Mathematische Stochastik der Universität Passau) gemeinsam mit Prof. Dr. Klaus Ritter von der TU Darmstadt und der REWE-Informations-Systeme GmbH (RIS) durchgeführt wurde. Die REWE Group ist einer der führenden europäischen Handels- und Touristikkonzerne mit einem Umsatz von 50 Mrd. Euro, über 14.000 Lebensmittelmärkten und 320.000 Mitarbeiterinnen und Mitarbeitern weltweit. Die RIS ist zentraler IT-Lösungsanbieter der REWE Group und unter anderem verantwortlich für die Entwicklung der automatischen Waren-Disposition der Lebensmittelmärkte.

Mit dem Projekt wurde eine bereits langjährige Kooperation mit REWE zum Thema Kaufverhalten und Prognose fortgesetzt. Die unternehmerischen Ziele liegen auf der Hand: mit verbesserter Prognosegenauigkeit lassen sich zum einen wetterbedingte Nachfragespitzen besser bedienen und zum anderen wetterbedingte Warenüberhänge und Verderb reduzieren. Die wissenschaftliche Herausforderung besteht unter anderem in der Konstruktion von Verfahren, die in der Lage sind, für riesige Artikelmengen signifikante Prognoseverbesserungen in der geforderten Schnelligkeit zu erzielen.

In die aktuelle Analyse flossen etwa 100.000 Wetterdaten aus 43 Messstationen des Deutschen Wetterdienstes und 22 Millionen Abverkaufsdatensätze ein. Entwickelt und zum Einsatz kamen Verfahren aus der Statistik und der stochastischen Simulation, die Arbeitsschwerpunkte des Lehrstuhls bilden. Über die Ergebnisse hat Dr. Robert Offinger, ein Mitarbeiter am Lehrstuhl, bereits auf großen anwendungsorientierten Statistikkonferenzen berichtet.

Die entwickelten Methoden zur Erfassung von Wetterabhängigkeit und zur Prognoseverbesserung kommen bei REWE jetzt in die Erprobungsphase.

Externer Link: www.uni-passau.de

Neuer Maßstab zur Bewertung von Supercomputern

Pressemitteilung der TU München vom 15.04.2010

Supercomputing in Garching

Bei Höchstleistungsrechnern hängt die Leistungsfähigkeit nicht nur von der Anzahl der Prozessoren und deren Geschwindigkeit ab. Einen wesentlichen Einfluss hat auch die Rechnerarchitektur. Mit Sammlungen so genannter Benchmark-Programme können Hersteller und Forschungsinstitute prüfen, ob ein Supercomputer für bestimmte Aufgabenstellungen geeignet ist. Eine von Wissenschaftlern der Technischen Universität München (TUM) am Leibniz-Rechenzentrum (LRZ) der Bayerischen Akademie der Wissenschaften entwickelte Anwendung wurde nun in die wichtigste internationale Sammlung solcher Benchmark-Programme aufgenommen.

Weltweit kämpfen Hersteller und Betreiber um die besten Plätze im Wettbewerb um den schnellsten Supercomputer. Schiedsrichter dieses Wettkampfs ist die gemeinnützige SPEC (Standard Performance Evaluation Corporation). Sie ist die weltweit führende Institution zur Definition standardisierter Benchmarks. Alle namhaften Hersteller von Hard- und Software sind Mitglieder der SPEC, außerdem führende Forschungsinstitute wie das Garchinger LRZ.

Ein von Wissenschaftlern der TU München auf dem Supercomputer des LRZ entwickeltes Programmpaket wurde nun vom SPEC in die Sammlung repräsentativer Anwendungen für Höchstleistungsrechner aufgenommen, die für die Leistungsanalyse von Prozessor- und Rechensystemarchitekturen verwendet werden. Das gemeinsam vom Team um Dr. Alexandros Stamatakis, Fachbereich Bioinformatik und dem Lehrstuhl für Rechnertechnik und Rechnerorganisation (Prof. Dr. Arndt Bode, Dipl.-Inf. Michael Ott) an der TU München entwickelte Programm RAxML dient dazu, aus Erbgutinformationen ganze Stammbäume von Lebewesen zu berechnen.

Das Programm RAxML gehört derzeit zu den zehn weltweit am weitesten verbreiteten Anwendungen zur Rekonstruktion von Stammbäumen. Die wissenschaftliche Publikation zu dieser Anwendung zählt zu den weltweit am häufigsten zitierten Informatik-Veröffentlichungen die in den letzten fünf Jahren publiziert wurden. Seine Aufnahme in die Benchmark-Sammlung des SPEC unterstreicht die besondere Rolle und internationale Sichtbarkeit der Technischen Universität München und des Leibniz-Rechenzentrums im Bereich des Wissenschaftlichen Höchstleistungsrechnens und der Leistungsanalyse von Supercomputern.

Die Programmentwicklung wird durch das Bayerische Kompetenznetzwerk für Technisch-Wissenschaftliches Hoch- und Höchstleistungsrechnen KONWIHR unterstützt. Die Arbeitsgruppe von Dr. Alexandros Stamatakis wird durch das Emmy-Noether Programm der DFG gefördert.

Externer Link: www.tu-muenchen.de

Fälschungssichere Medikamente durch RFID

Mediendienst der Universität Stuttgart vom März 2010

Verbesserte Herkunftsnachweise in der Pharmabranche

Eine detaillierte Nachweispflicht und eine verbesserte Sicherheit vor Fälschungen von pharmazeutischen Produkten sind in Zeiten, in denen Medikamente auch online bestellt werden können, von zunehmender Bedeutung. Vor allem aus Gründen des Pa­tientenschutzes wächst der gesetzgeberische Druck, Fehlmedikationen und Medikamentenfälschungen durch eine lückenlose Rückverfolgung von einzelnen Medikamentenverpackungen zu verhindern. Moderne Identifikationsverfahren wie RFID (Radio Frequenz Identifikation) können für Transparenz in der Pharma-logistik sorgen. Allerdings erschweren die für Medikamente oft verwendeten Metallverpackungen, wie Tuben oder Blister, die Erfassung. Wissenschaftler des Instituts für Fördertechnik und Logistik der Universität Stuttgart (IFT) erforschen im Projekt „RadioPharm“ Möglichkeiten für eine praktikable und vollständige Erfassung.

Vor allem kleine und mittelständische Unternehmen der Pharmabranche setzen RFID bisher kaum ein. Grund sind neben den Schwierigkeiten bei der technischen Umsetzung die damit verbundenen hohen Kosten. Um bei einer Gesetzesänderung zur Nachweispflicht vorbereitet zu sein und einen kostengünstigen Einsatz von RFID in der Pharmalogistik zu entwickeln, arbeiten die Stuttgarter Forscher mit Pharma-Unternehmen, einer Stuttgarter und einer Versand-Apotheke und weiteren Unternehmen zusammen. Sie prüfen die gesamte Wertschöpfungskette ausgewählter Medikamente vom Arzneimittelhersteller über den Großhändler bis hin zur Apotheke und damit zum Verbraucher.

Die Logistiker bauten ein Identifikationssystem für verschiedene Verkaufsverpackungen von Medikamenten auf. Neuartig an diesem System ist, dass jede Medikamentverpackung und nicht nur größere Umverpackungen oder Paletten mit einem Transponder (in diesem Fall mit Schreib- und Lesezugriff) versehen ist. Zudem sollte, trotz störender Einflüsse von Flüssigkeiten oder Metallen, der Schreib-Lese-Zugriff auf jeden einzelnen Transponder möglich sein – eine neue Anforderung an die RFID-Technologie, die speziell im Pharmabereich zum Tragen kommt. Um die technische Machbarkeit des von ihnen entwickelten Systems nachzuweisen, bauten die Mitarbeiter des IFT eine Mess- und Prüfstrecke als Demonstrator. Mit diesem kann untersucht werden, ob auf die mit Transpondern ausgestatteten Einzelverpackungen unabhängig von der Medikamenten-Darreichungsform (wie Flüssigkeiten, Tabletten, Salben) zuverlässig zugegriffen werden kann, sowohl für die Einzelidentifikation als auch für größere Mengen (Pulklesung). Damit ist nicht nur die Abbildung einer Produktionslinie eines Arzneimittelherstellers, sondern auch der Prüfprozess nach der Auftragszusammenstellung beim Großhändler möglich. Durch den Einsatz solcher Systeme ergibt sich für den Verbraucher mehr Sicherheit beim Medikamentenkauf.

Das Projekt RadioPharm wird von der Arbeitsgemeinschaft industrieller Forschungsvereinigungen „Otto von Guericke“ e.V. (AiF) und vom Bundesministerium für Wirtschaft und Arbeit gefördert und von der Bundesvereinigung Logistik e.V. betreut.

Externer Link: www.uni-stuttgart.de