Stahlfaserbeton schnell kontrollieren

Presseinformation (Forschung Kompakt) der Fraunhofer-Gesellschaft vom 04.11.2013

Stahlfaserbeton ist praktisch und rasch einsatzbereit. Doch die Qualität des Werkstoffs lässt sich nur schwer überprüfen – daher lehnen viele Bauunternehmer ihn ab. Mit einem neuen mathematischen Verfahren lässt sich das jetzt schnell kontrollieren.

Man überspannt Täler und Flüsse mit ihm, man baut Wände daraus und kleidet damit Tunnels aus: Beton ist das am häufigsten verwendete Baumaterial. Meist kommt Stahlbeton zum Einsatz. Das Prinzip kennt jeder, der schon einmal eine Baustelle näher betrachtet hat: Aus langen Stahlstangen biegen die Arbeiter ein dichtes Stahlgerüst, die Bewehrung, die dann mit Beton aufgefüllt wird. Doch Stahlbetonbau ist zeitraubend. Es können Tage und Wochen vergehen, bis die Bewehrung großer Gebäude geknüpft ist und endlich mit Beton vergossen werden kann.

Schneller geht es mit Stahlfaserbeton. Man mischt dem flüssigen Beton einfach kiefernnadellange Stahlfasern bei. Im ausgehärteten Beton übernimmt dieses Fasergewebe dann die Aufgabe der klassischen Bewehrung. Es schluckt die Kräfte und gleicht Risse aus. Trotzdem hat sich der Stahlfaserbeton bislang nicht durchgesetzt. Der Grund: Seine Qualität lässt sich nur schwer ermitteln. Bisher gibt es keine Methode, mit der man einfach und zuverlässig untersuchen kann, wie gut sich die Fasern im Beton verteilt haben. Davon aber hängt die Tragfähigkeit des Werkstoffs entscheidend ab. Sind die Fasern verklumpt oder einzelne Bereiche einer Betonplatte völlig frei von Fasern, kann das Material Belastungen weniger gut widerstehen. Vielen Bauunternehmen ist der Einsatz von Stahlfaserbeton deshalb zu unsicher.

Software bewertet das Fasersystem

Für Durchblick im Faserbeton sorgt jetzt ein neues Analyseverfahren, das Mathematiker vom Fraunhofer-Institut für Techno- und Wirtschaftsmathematik ITWM in Kaiserslautern entwickelt haben: Mithilfe der Wahrscheinlichkeitsrechnung ermittelt es in wenigen Sekunden, wie die vielen Fasern in einer Betonprobe verteilt sind. Die Experten um Projektleiter Dr. Ronald Rösch nutzen dafür Röntgendaten aus einem Computertomographen (CT). »Das ist wie bei einer medizinischen Untersuchung«, sagt er, »nur, dass wir keinen Menschen, sondern eine Probe aus dem fertigen Bauteil untersuchen.«

Die Forscher ziehen dazu einen etwa zehn Zentimeter langen Bohrkern aus dem Beton. Dieser wird mit Röntgenstrahlung abgetastet. Die Auflösung dieses industriellen CT ist etwa tausendmal feiner als bei einem medizinischen Gerät. Das System macht mikro-meterfeine Strukturen sichtbar. Es spuckt einen hochaufgelösten dreidimensionalen Datensatz der Betonprobe mit etwa acht Milliarden Bildpunkten aus; eine gewaltige Datei. Diese Bilddaten analysieren Rösch und seine Mitarbeiter mit ihrer Software. Zunächst prüft diese anhand der Kontrastunterschiede, zu welcher Struktur jeder einzelne Bildpunkt gehört, zum Beton, zu einem Steinchen, einer eingeschlossenen Luftblase oder zu einer Stahlfaser. So werden im Bild nach und nach sämtliche Fasern sichtbar.

»Dieses Bild allein hilft aber wenig«, erklärt Rösch, »weil das Gewirr so dicht ist, dass man mit dem bloßen Auge kaum einzelne Fasern erkennen kann.« Die Kaiserslauterer Forscher haben daher eine Software entwickelt, die Ordnung ins Chaos bringt: Sie bewertet nicht jede einzelne Faser, sondern gleich das ganze System. Das Programm entscheidet einfach, ob ein Pixel Bestandteil einer Faser ist und welche Richtung sie hat.

Für jeden Bildpunkt berechnet das Programm, wie die benachbarten Stellen definiert sind. Handelt es sich um eine Faser oder nicht? Interessant sind vor allem die Punkte, an denen sich viele Fasern berühren oder kreuzen. Denn zunächst ist nicht klar, zu welcher Faser jedes einzelne benachbarte Pixel eigentlich gehört; zur Faser, die von links oben auf die Kreuzung trifft oder zur der, die direkt von oben kommt. Deshalb nutzen die Wissenschaftler hier die Wahrscheinlichkeitsrechnung. Sie gewichtet die Lage jedes Punkts und ordnet diesen logisch sinnvoll einer Faser zu. Die Software verrät nicht nur, wie hoch der Faseranteil in der Probe ist, sondern auch, wie die Fasern ausgerichtet sind. »Das ist vor allem wichtig, wenn die Betonbauteile Kräfte aus einer bestimmten Richtung aufnehmen müssen«, sagt Rösch, beispielsweise bei Brücken, über die Autos und Züge rauschen.

Natürlich weiß Rösch, dass sich ein Computertomograph, der derzeit noch die Größe eines Wandschranks hat, nicht direkt auf einer Baustelle einsetzen lässt. »Doch die Hürde ist überwindbar«, sagt Rösch. »Unsere Kollegen am Fraunhofer-Entwicklungszentrum Röntgentechnik EZRT in Erlangen haben schon ein Gerät von der Größe einer Bierkiste entwickelt.« Ein Prototyp für die Praxis könnte in fünf Jahren verfügbar sein, schätzt der Mathematiker.

Externer Link: www.fraunhofer.de

Durchblick in jeder Größenordnung

Presseinformation der Fraunhofer-Gesellschaft (Forschung Kompakt) vom 01.10.2013

Sie durchleuchten ganze Schiffscontainer genauso wie winzige biologische Proben: Im Entwicklungszentrum Röntgentechnik arbeiten Forscher sowohl mit dem größten als auch mit dem kleinsten Computertomographen der Welt.

Nach dem Crashtest mit 50 km/h ist von dem PKW nur noch ein Haufen Blech übrig – doch der liefert wertvolle Informationen darüber, wie sich die Fahrzeugsicherheit verbessern lässt. Voraussetzung dafür: Die Ingenieure müssen ins Innere des Fahrzeugs hineinsehen können, um zu analysieren, wie einzelne Bauteile auf die Belastung reagiert haben. Klassische zweidimensionale Röntgenbilder, wie sie in der konventionellen Werkstoffprüfung eingesetzt werden, sind hierfür oft zu ungenau: Sie zeigen lediglich eine Art »Schattenwurf« aus einer einzigen Position. Wesentlich mehr Möglichkeiten bietet die industrielle Computertomographie (CT): Bauteile können damit vollständig dreidimensional erfasst, berührungslos und zerstörungsfrei vermessen und inspiziert werden. Doch wie bekommt man ein ganzes Auto in einen Computertomographen?

Überdimensionaler Computertomograph durchleuchtet Schiffscontainer

Die Antwort liefern Forscher des Fraunhofer-Instituts für Integrierte Schaltungen IIS: Sie haben am Standort Fürth einen überdimensionalen Computertomographen entwickelt, der künftig Autos, Flugzeugflügel und sogar ganze Schiffscontainer durchleuchten soll. Das Untersuchungsobjekt wird dazu auf einen riesigen Drehtisch gehievt. Während dieser langsam rotiert, fahren eine Röntgenquelle auf der einen und ein vier Meter langer Röntgendetektor auf der anderen Seite neben dem Objekt auf und ab. Aus den so entstandenen Aufnahmen lässt sich am Computer ein dreidimensionales Bild errechnen. »Das ist in dieser Größenordnung eine bislang einzigartige Möglichkeit zur zerstörungsfreien Materialprüfung«, sagt Prof. Randolf Hanke, der das Entwicklungszentrum Röntgentechnik EZRT leitet. Dank der heute schon extrem hohen Auflösung von 0,8 Millimetern an metergroßen Objekten sind auf den Aufnahmen selbst winzige Details gestochen scharf zu erkennen – kurzfristig streben die Forscher eine Auflösung von 0,4 Millimetern an. Die Technologie ermöglicht es beispielsweise, Prototypen neuer Autos mit den Konstruktionsdaten abzugleichen oder Materialfehler wie winzige Risse in Automobil- oder auch Flugzeugbauteilen zu erkennen. Sicherheitskräfte könnten mithilfe des XXL-Tomographen Sprengstoff oder andere unerlaubte Gegenstände in Frachtcontainern aufspüren, ohne sie öffnen zu müssen.

CT-Gerät für den Nanobereich

Das Gegenstück zu dieser Riesenröhre kann Einrichtungsleiter Hanke bequem mit sich herumtragen: Das Gerät ist nicht größer als eine Mikrowelle und durchleuchtet mit einer Auflösung von 0,02 Millimetern kleinste Kunststoffteile bis hin zu biologischen Proben. Es ist derzeit der kleinste Computertomograph der Welt – doch Hanke und sein Team arbeiten bereits an der nächsten Innovation: Einem Gerät, das bis in den Nanobereich, also unter 100 Nanometer, vordringen soll. Diese Vision treibt Hanke schon seit 15 Jahren um, nun ist ihm gemeinsam mit Studenten und Doktoranden seines Lehrstuhls für Röntgenmikroskopie an der Universität Würzburg ein entscheidender Durchbruch gelungen. »Wir haben jetzt ein Elektronenmikroskop zu einer speziellen Nanoröntgenquelle weiterentwickelt«, erläutert der Forscher. Der Clou: Die elektrischen Ladungsträger, die das Röntgenlicht erzeugen, werden seitlich auf eine dünne Nadel geleitet. Dadurch tritt aus der Nadelspitze Röntgenlicht aus und liefert mit 50 Nanometern Durchmesser einen exakten Brennfleck. Damit lassen sich Objekte in Nanogrößenordnung scharf beleuchten. Biologen könnten mithilfe dieser Technologie etwa den Wassertransport in Holzfasern analysieren.

Im Juli wurde in Fürth-Atzenhof das neue EZRT-Gebäude eingeweiht. »Hier bündeln wir zukünftig im Bereich der industriellen Computertomographie die Kompetenzen für Aufgabenstellungen aus unterschiedlichsten Bereichen und in jeder Größenordnung. Mit unserem Equipment sowie unserem verfahrenstechnischen Know-how können wir Kunstgegenstände aus dem Altertum genauso durchleuchten wie ganze Windräder«, freut sich Prof. Hanke.

Externer Link: www.fraunhofer.de

Die atomare Oberflächenstruktur beeinflusst die Richtung von Reibungskräften

Pressemitteilung der Universität Regensburg vom 24.09.2013

Neue Studie liegt vor

Die atomare Oberflächenstruktur hat einen wesentlichen Einfluss auf die Richtung von Reibungskräften. Dies haben Wissenschaftler der Universität Regensburg durch ein besonderes Messverfahren nachweisen können. Die Ergebnisse der Forscher um Prof. Dr. Franz J. Gießibl vom Institut für Experimentelle und Angewandte Physik sind jetzt, mit Unterstützung eines Teams um Dr. Pavel Jelinek von der Tschechischen Akademie der Wissenschaften in Prag, in der aktuellen Ausgabe der Fachzeitschrift „Physical Review Letters“ veröffentlicht worden (DOI: 10.1103/Physics.6.102).

Schätzungen zufolge wird ein Drittel der gesamten Energie, die auf der Welt verbraucht wird, zur Überwindung von Reibungswiderstand aufgewendet. Vor diesem Hintergrund ist die Erforschung des Phänomens der Reibung von großem Interesse. Dies gilt auch für ihre Richtungsabhängigkeit: Schon beim Streicheln einer Katze stellt man fest, dass die Reibung von der Richtung abhängt – mit dem Strich geht es einfacher als dagegen. Bei der Untersuchung der Richtungsabhängigkeit von Reibung im atomaren Bereich standen Forscher allerdings lange Zeit vor einem Problem. So mussten die Messungen in der Regel mehrmals wiederholt werden, um zu klären, ob die Beobachtungen das Resultat der zu untersuchenden Probe sind, und nicht der Messspitze, die die Probe untersucht.

Die Regensburger Forscher haben deshalb ein besonderes Messverfahren entwickelt. Dabei wird eine Siliziumoberfläche von einer Sonde abgetastet, die sich parallel zur Oberfläche bewegt. Für die mechanische Abtastung der Oberfläche nutzten die Forscher einen speziellen qPlus-Lateralkraftsensor, der auf der Stimmgabel einer Quarzuhr basiert und die Sondenspitze in Schwingungen versetzt. Die Sondenspitze kommt bei diesem Verfahren nicht mit der Oberfläche in Kontakt.

Die Siliziumatome auf der Oberfläche wurden zudem in Pärchen bzw. sogenannten Dimeren auf unterschiedlich hohen Ebenen angeordnet – ähnlich einem Schaukelpferd. Die „atomaren Schaukelpferdchen“ ließen sich leichter in Längs- als in Querrichtung auslenken, wie von den Regensburger Experimentalphysikern gezeigt und durch Berechnungen der Prager Forscher bestätigt wurde.

Auf diese Weise waren die Wissenschaftler in der Lage, Reibungskräfte in zwei verschiedene Richtungen (parallel und senkrecht zu den „atomaren Schaukelpferdchen“) direkt miteinander zu vergleichen, da sich die Ausrichtung der „atomaren Schaukelpferdchen“ um 90 Grad dreht, wenn die Messspitze auf eine jeweils höhere oder niedrigere Ebene wechselte. Die Forscher stellten so fest, dass die atomare Oberflächenstruktur maßgeblichen Einfluss auf die Richtung der Reibungskräfte hat. (Alexander Schlaak)

Originalpublikation:
A.J. Weymouth, D. Meuer, P. Mutombo, T. Wutscher, M. Ondracek, P. Jelinek and F.J. Giessibl: “Atomic Structure Affects the Directional Dependence of Friction”, in “Physical Review Letters” 111, 126103 (2013), (DOI: 10.1103/Physics.6.102).

Externer Link: www.uni-regensburg.de

Sortiermaschine für Spitzenweine

Presseinformation (Forschung Kompakt) der Fraunhofer-Gesellschaft vom 02.09.2013

Bittere Geschmacksnoten will kein Winzer in seinem Wein haben. Eine Anlage mit optischer Erkennung sorgt dafür, dass dies nicht passiert. Sie sortiert die Trauben nach Qualitätsstufen und erspart Weinbauern mühevolle Handarbeit.

Die Verkoster sind begeistert: Von über 100 eingereichten Weinen ist dieser Rosé von herausragender Qualität. »Frisch, trocken, angenehm – ein echter Sommerwein«, »bemerkenswert ausgewogen«, »delikat« lauten ihre Kommentare. Zugleich loben sie die gute Harmonie und das Gleichgewicht zwischen Zucker und Säure. Damit ein Wein Juroren so einhellig für sich einnehmen kann, müssen die Prozesse in der Kellerei optimal verlaufen und auch die witterungsbedingten Faktoren stimmen. Eine gute Lese setzt einen Jahresverlauf, der das Wachstum der Beeren zur richtigen Zeit begünstigt sowie ein ausgewogenes Verhältnis von Sonne und Regen voraus. Doch hierzulande verhagelt das Wetter Winzern oftmals die Ernte. Eine neuartige optische Sortieranlage soll künftig helfen, die Qualität der Trauben optimal zu verwerten. Forscher vom Fraunhofer-Institut für Optronik, Systemtechnik und Bildauswertung IOSB in Karlsruhe entwickeln die Anlage gemeinsam mit der Armbruster Kelterei-Technologie GmbH, dem Ingenieurbüro Waidelich und der Hochschule Geisenheim University im Projekt »GrapeSort«, das vom Bundesministerium für Wirtschaft und Technologie BMWi gefördert wird.

Die guten ins Töpfchen, die schlechten ins Kröpfchen

Die in Bottichen angelieferten Trauben gelangen zunächst über eine Zuführeinrichtung in die Abbeermaschine der Firma Armbruster, die die Früchte von den Stielen ablöst – entrappt – und dann über einen neu entwickelten Fördermechanismus auf einem Band vereinzelt. »Wichtig ist, dass die Beeren unversehrt auf dem Band landen«, sagt Dr. Kai-Uwe Vieth, Wissenschaftler am IOSB. Mit einer Geschwindigkeit von drei Metern pro Sekunde bewegen sich die Trauben dann auf dem Förderband und passieren auf ihrem Weg das Sortiermodul des IOSB. Eine Hochgeschwindigkeits-Zeilenkamera, Herzstück des Moduls, schießt Bilder von den Früchten – 18 000-mal pro Sekunde. Die angeschlossene Auswertungssoftware vom IOSB analysiert die Aufnahme in Millisekunden. Sie steuert Druckluftdüsen an, die Fremdkörper wie Insekten, Rebholz, Steine und Ästchen herauspusten. Auch schlechte, unerwünschte Beeren werden von der Ausblaseinheit der Firma Waidelich entfernt. Die »guten« Beeren fallen in einen Behälter. »Unser Sortiermodul soll die Fähigkeiten aktueller Maschinen übertreffen. Es mustert nicht nur Fremdkörper aus, sondern sortiert Beeren zudem nach unterschiedlichen Qualitäten. So kann man den Wein komponieren wie man ihn haben will«, sagt Vieth. Was die Kamera mit »schlecht« bewerten soll, wird zuvor trainiert. Schimmel, Ohrwürmer, Blätter und falscher Reifegrad sind typische Auswurfkriterien. Sortiert wird anhand von Form- und Farbanalysen.

Den unterschiedlichen Reifegrad der Beeren anhand von Farbnuancen erkennen die Forscher bereits jetzt mit ihrer Anlage. Künftig wollen sie ihn auch nach dem Zuckergehalt der Trauben ermitteln. »Winzer messen diesen mit einem optischen Sichtgerät, dem Refraktometer, bei dem die Zuckermoleküle im Most den Brechungswinkel des einfallenden Lichts beeinflussen und der Wert auf einer Skala abgelesen wird. Je höher der Zuckergehalt, desto stärker wird das Licht gebrochen. Auch mit der Zeilenkamera lässt sich das reflektierte Licht messen. Sie ist mit einer lichtempfindlichen Zeile ausgestattet«, erläutert der Wissenschaftler. Dieser integrierte Zeilensensor ist empfindlich im sichtbaren sowie im nichtsichtbaren Bereich. Während der Laboranalysen – die parallel zur Messkampagne stattfinden – nutzen Vieth und seine Kollegen bildgebende Sensoren im Wellenlängenbereich von 240 bis 2500 Nanometern, die Spektren für jedes Pixel erzeugen.

Mehrere Tonnen Trauben pro Stunde schafft die automatische Sortieranlage. Trollinger, Riesling, Weißburgunder und Lemberger wurden bereits erfolgreich in Vorversuchen verarbeitet und die Sortierergebnisse von den Kooperationspartnern einhellig für gut befunden. Im Oktober 2013 soll ein optimiertes Funktionsmuster erstmals getestet werden, das als Basis für eine serienreife Anlage dient. Rechtzeitig zur Weinlese werden alle ständig weiterentwickelten und optimierten Komponenten – Zuführeinrichtung, Kamerabox und Ausblaseinheit – zusammengesteckt und getestet. Im Juni 2014 findet eine weitere Premiere statt – dann steht die sensorische Prüfung an: Die Weinbauexperten der Hochschule Geisenheim University, die das Projekt mit ihrer Expertise begleitet haben, werden den Wein verkosten. Von einer hohen Erfolgsquote sind Vieth und seine Projektpartner überzeugt: »Das Sortiersystem hilft, die Qualität zu steigern und aus dem Lesegut verschiedene Qualitätsstufen zu trennen. Winzer können ihre Premiumchargen ausbauen.«

Externer Link: www.fraunhofer.de

Neue Methode im Bereich der nicht-invasiven Hirnforschung entwickelt

Pressemitteilung der Universität Tübingen vom 21.06.2013

Tübinger Forscher messen Hirnaktivität auf elektrische Stimulation ohne Umwege – Neue Impulse für die Behandlung neuropsychiatrischer Erkrankungen

Elektrische Ströme werden seit vielen Jahrzehnten in der Behandlung neurologischer sowie psychiatrischer Erkrankungen erfolgreich eingesetzt. Doch bisher war unklar, was während einer solchen Neurostimulation im Gehirn passiert. Stimulationsabhängige Interferenzen verhinderten die zuverlässige Aufzeichnung der hirneigenen elektrischen Aktivität. An der Universität Tübingen ist es Neurowissenschaftlern nun erstmals gelungen, die neuromagnetische Hirnaktivität im Millisekundenbereich zu messen, während das Gehirn eines menschlichen Probanden mit elektrischen Strömen stimuliert wurde. Dr. Surjo R. Soekadar, Neurowissenschaftler am Universitätsklinikum Tübingen und Erstautor der Studie, will die neue Methode nun zur Weiterentwicklung etablierter Neurostimulationsverfahren einsetzen. So sollen neue Ansätze in der Behandlung neuropsychiatrischer Erkrankungen wie Schlaganfall, Depressionen oder chronischen Schmerzen genutzt werden. Die im Rahmen eines Kooperationsprojekts zwischen der Universität Tübingen und den National Institutes of Health (NIH) in den USA entwickelte Methode wurde nun in dem Fachjournal Nature Communications veröffentlicht.

Im Gegensatz zu früheren Untersuchungsmethoden, bei denen lediglich der Sauerstoffverbrauch oder die Durchblutung des Gehirns während einer elektrischen Hirnstimulation gemessen werden konnte, gibt die neue Methode nun über die direkten Wirkungen der Stimulation auf die elektrische Aktivität des Gehirns Aufschluss. Erreicht wird dies durch die Kombination spezieller mathematischer Algorithmen, die beispielsweise auch in der Sonartechnik oder bei Freisprechanlagen verwendet werden, mit speziellen Stimulationselektroden, die von den neuromagnetischen Feldern des Gehirns ungestört durchdrungen werden können. Dadurch wird es nun möglich, zahlreiche grundlagenwissenschaftliche Fragen zur Funktionsweise des Gehirns zu klären. So ist beispielsweise die Rolle hirnelektrischer Oszillationen seit ihrer Entdeckung in den 20er Jahren des letzten Jahrhunderts noch weitgehend ungeklärt. Zwar wurde schon früh eine Verbindung zwischen krankheitsspezifischem Verhalten und der Veränderung hirnelektrischer Oszillationen vermutet, der genaue Zusammenhang blieb jedoch weitgehend im Dunkeln. Die neue Methode verspricht hier wichtige Erkenntnisse. Zudem kann die elektrische Stimulation nun unmittelbar auf die individuelle Aktivität des Gehirns abgestimmt oder simultan mit einer sogenannten Gehirn-Computer-Schnittstelle oder einem Neurofeedback-System kombiniert werden. Die Forscher erwarten, dass die neuen Erkenntnisse für die Behandlung neuropsychiatrischer Erkrankungen von großem Nutzen sein werden.

Originalveröffentlichung:
Surjo R. Soekadar, Matthias Witkowski, Eliana G. Cossio, Niels Birbaumer, Stephen E. Robinson & Leonardo G. Cohen: „In vivo assessment of human brain oscillations during application of transcra-nial electric currents“. Nature Communications (2013). DOI: 10.1038/ncomms3032

Externer Link: www.uni-tuebingen.de