KI UNTER DER LUPE: KLUGER HANS ODER KLEVERE ENTSCHEIDUNG?

Forschende der Technischen Universität Berlin (TU Berlin), des Fraunhofer Heinrich-Hertz-Instituts (HHI) und der Singapore University of Technology and Design untersuchten kürzlich, wie verschiedene KI-Systeme zu ihren Ergebnissen kommen. Denn bislang war es der Wissenschaft meist verborgen, ob es sich wirklich um eine intelligente Lösung oder nur um einen statistisch erfolgreichen Weg handelte. Unter dem Aspekt, dass KI nicht nur als digitaler Sprachassistent oder Übersetzer genutzt wird, sondern sie auch im Bereich der medizinischen Diagnostik sowie des autonomen Fahrens eingesetzt wird, ist ein Blick auf die Funktionsweise der Lernalgorithmen ein relevanter Faktor.

EXPLAINABLE AI

Für ihre Arbeit entwickelten die Forscher ein Verfahren, anhand dessen sie KI Systeme analysieren und quantifizieren können. „Diese sogenannte ‚explainable AI‘ [erklärbare Künstliche Intelligenz] ist einer der wichtigsten Schritte für die praktische Anwendung und Verbreitung von KI“, so Dr. Klaus-Robert Müller, Professor für Maschinelles Lernen an der TU Berlin: „Insbesondere in der medizinischen Diagnostik oder in sicherheitskritischen Systemen dürfen wir keine KI-Algorithmen mit unsicheren Problemlösungsstrategien oder sonstige KI-Schummel-Kandidaten einführen.“

Wichtigste Voraussetzung für diese spezielle, automatisierte Technologie ist eine von der TU Berlin und dem HHI entwickelte Technik namens „Layer-wise Relevance Propagation“ (LRP). Diese macht sichtbar, aufgrund welcher Kriterien KI-Systeme Entscheidungen treffen.

Als Weiterentwicklung der LRP-Technologie gilt die „Spectral Relevance Analysis“ (SpRAy). Erst mit ihr wird das breite Spektrum der erlernten Entscheidungsverhalten identifiziert und quantifiziert. Ob naive Problemlösung, Schummel-Strategie oder hochelaborierte, intelligente und strategische Entscheidung – die Wissenschaftler stellten verschiedene KI-Algorithmen auf die Probe. So konnten auch bei sehr großen Datensätzen unerwünschte Lösungen ausgemacht werden.

Dazu Dr. Wojciech Samek, Gruppenleiter am Fraunhofer HHI: „Wir waren sehr erstaunt über die große Bandbreite der gelernten Problemlösungsstrategien. Selbst moderne KI-Systeme haben nicht immer einen aus menschlicher Perspektive sinnvollen Lösungsweg gefunden, sondern nutzten bisweilen sogenannte ‚Clever-Hans-Strategien‘.“

Der Kluge Hans (Clever Hans) war ein Pferd des Schulmeisters und Mathematiklehrer Wilhelm von Osten, das angeblich rechnen und zählen konnte. In den Jahren um 1900 galt Hans als wissenschaftliche Sensation. Denn in 90 Prozent der Fälle beantwortete der feinfühlige Orlow-Traber durch das Klopfen mit einem Huf oder durch Nicken beziehungsweise Schütteln des Kopfes zum Beispiel arithmetische Aufgaben richtig. Später stellte sich heraus, dass Hans zwar nicht rechnen konnte, aber er seine richtige Antwort aus der Körperreaktion des Fragestellers ableitete.

Diese Heatmap zeigt: Der Algorithmus trifft die Entscheidung Zug oder nicht Zug anhand der Schienen-Bildpunkte und nicht anhand derer, die den Zug ausmachen.
©Nature Communications/CC BY

Lösungsstrategien, die denen des kleveren Hans entsprechen, konnten die Forscher um Klaus-Robert Müller und Wojciech Samek auch bei KI-Systemen finden. So verfolgte zum Beispiel eines, das sogar vor einigen Jahren mehrere internationale Wettbewerbe zur Klassifikation von Bildern gewonnen hatte, eine aus menschlicher Sicht naive Lösungsstrategie: Es klassifizierte Bilder vorwiegend anhand des Kontextes. Dabei wurden zum Beispiel Bilder der Kategorie „Schiff“ zugeordnet, wenn viel Wasser im Bild zu sehen war. Andere Bilder wurden als „Zug“ klassifiziert, wenn Schienen vorhanden waren. Wieder andere Bilder wurden anhand des Copyright-Schriftzuges der richtigen Kategorie zugeordnet. Die eigentliche Aufgabe, nämlich Schiffe oder Züge zu erkennen, hat dieses KI-System nicht gelöst. Doch immerhin: die Mehrzahl der Bilder konnte es im Endeffekt korrekt klassifizieren.

Auch die sogenannten „tiefen neuronalen Netzwerke“ nutzen diese Art der fehlerhaften Lösungsstrategie. Denn sie stützen ihre Klassifikations-Entscheidung zum Teil auf Artefakte, die während der Präparation von Bildern entstanden, aber mit dem eigentlichen Bildinhalt gar nichts zu tun haben.

NAIVE KI FÜR DIE PRAXIS UNBRAUCHBAR

„Solche KI-Systeme sind für den praktischen Einsatz völlig unbrauchbar. Ihr Einsatz in der medizinischen Diagnostik oder in sicherheitskritischen Bereichen birgt sogar enorme Gefahren“, warnt Klaus-Robert Müller: „Es ist durchaus denkbar, dass ungefähr die Hälfte der aktuell eingesetzten KI-Systeme implizit oder explizit solche ‚Clever Hans‘-Strategien nutzen. Es ist Zeit, das systematisch zu überprüfen, damit sichere KI-Systeme entwickelt werden können.“

Mit der neuen Technik konnten aber auch KI-Algorithmen identifiziert werden, die unerwartet „intelligente“ Strategien anwandten. Dazu gehören Systeme, die zum Beispiel in der Lage sind, die Atari-Spiele „Breakout“ – hier wird mit einem virtuellen Schläger der Ball so gelenkt, dass er die am oberen Bildschirmrand erscheinenden Bauklötze wegschießt –, und „Pinball“ (virtuelles Flipperspiel) zu spielen.

„Hier haben die KI-Systeme ganz klar das Konzept des Spiels ‚verstanden‘ und einen intelligenten Weg gefunden, zielgerichtet und risikoarm sehr viele Punkte zu sammeln. Dabei schlägt das System bisweilen Wege ein, die ein echter Spieler nicht nutzen würde“, so Wojciech Samek.

Die automatisierte Technik steht als Open Source allen Wissenschaftlern und Wissenschaftlerinnen zur Verfügung. „Wir sehen unsere Arbeit als einen wichtigen ersten Schritt, KI-Systeme in Zukunft robuster, erklärbar und sicher zu machen. Denn das ist die wesentliche Voraussetzung für den Einsatz von KI überhaupt“, so Klaus-Robert Müller.

Bild oben: Die Heatmap zeigt: Allein aufgrund der vorhandenen Wasser-Bildpunkte – also anhand des Kontextes -, vermutet der Algorithmus, dass das Gebilde ein Schiff ist – er nutzt nicht die Bildpunkte, die das Schiff ausmachen. ©Nature Communications/CC BY

Dieser Artikel erschien am 11. März in der Innovation Origins.

DIESER ARTIKEL KÖNNTE SIE AUCH INTERESSIEREN

Gratwanderungen: Künstliche Intelligenz in der Medizin

Menschliches Gehirn inspiriert Forscher bei Künstlicher Intelligenz

EXPEDITION ZUM LARSEN-C-SCHELFEIS ABGEBROCHEN

Nun ist es beschlossene Sache: Das Larsen-C-Schelfeis bewahrt vorerst sein Geheimnis. Die aktuelle Meeressituation verhindert derzeit ein Weiterkommen des AWI-Forschungseisbrechers Polarstern. Denn das dichte Meereis hat sich mittlerweile zu einem bis zu zehn Meter dicken Presseisrücken übereinandergeschoben. Dazu Polarstern-Kapitän Thomas Wunderlich: „Wir haben sieben Tage versucht, uns einen Weg durch das Eis zu brechen, mussten aber einsehen, dass die Eisbedingungen keine andere Entscheidung zuließen, als weiter im Norden bessere Meereis- und Arbeitsbedingungen zu suchen.“

Zwar hatte die Meereisausdehung in der Antarktis Ende Dezember mit 4,94 Millionen Quadratkilometern den für diesen Monat niedrigsten Wert seit Beginn der kontinuierlichen Satellitenmessungen inne. Doch konnte die Expedition tief im Süden des westlichen Weddell-Meeres nicht davon profitieren.

Das Forschungsteam war am 9. Februar zum Abbruchgebiet des Eisberges A68 aufgebrochen, um hier das bisher unter dem Schelfeis verborgene Meeresökosystem erkunden.

ALTERNATIV WIRD IM NORDWESTLICHEN WEDDELL-MEER GEFORSCHT

Nun steuert das Schiff neue Untersuchungsgebiete weiter nördlich an. „Die vorab definierten alternativen Arbeitsregionen Larsen A- und Larsen-B-Schelfeisgebiet kamen nicht in Frage, denn dort hätten wir genauso in der Mausefalle gesteckt wie im eigentlichen Zielgebiet Larsen-C“, so Dr. Boris Dorschel vom Alfred-Wegener-Institut, Helmholtz-Zentrum für Polar- und Meeresforschung (AWI). Dorschel leitet die Expedition. Nach ausführlichen Gesprächen mit allen Forschungsteams an Bord legten die Wissenschaftler fest, ihre Arbeiten auf eine Region im nordwestlichen Weddell-Meer zu konzentrieren. Entlang eines Transekts, also einer ganzen Reihe von Beprobungsstationen, wollen die Forscher nun untersuchen, wie sich unterschiedliche Umweltbedingungen auf die Ökosysteme am Meeresboden und in der Wassersäule auswirken. So nehmen sie beispielsweise die Meereisbedeckung und die biologische Produktivität in den oberen Wasserschichten unter die Lupe. Die Ergebnisse dieser Arbeiten sollen unter anderem dazu beitragen, die Reaktionen des antarktischen Ökosystems auf den Klimawandel besser zu verstehen. „Mittlerweile konnten wir etliche Probennahmegeräte in der Wassersäule und am Meeresboden einsetzen, so dass die Labore voller Wissenschaftler sind, die eifrig die Mikroalgen sowie die am Boden und in der Wassersäule lebenden Tiere untersuchen“, freut sich Expeditonsleiter Dorschel.

Zudem wird das Expeditionsteam versuchen, entstehende Kanäle im Meereis zu nutzen, um im Weddell-Meer weiter nach Osten vorzustoßen. Denn jenseits des Kontinentalschelfs fällt der Meeresboden rasch von etwa 400 Meter auf rund 3000 Meter ab. „Wenn sich ein Fenster ergibt, wollen wir Gebiete ansteuern, da dort der Meeresboden wie in vielen anderen Bereichen des Südozeans noch weitgehend unkartiert ist“, erläutert Dorschel. Neben diesen bathymetrischen Arbeiten, also der Erstellung des Tiefenprofils, sind die Ozeanographen auch daran interessiert, hier Wassermassen und Strömungsverhältnisse zu untersuchen. Denn die in diesem Meeresbereich stattfindenden Umwälzprozesse treiben die globalen Ozeanströmungen an. So werden ‒ auch wenn das Larsen-C-Schelfeisgebiet außer Reichweite bleibt ‒, durch die Expedition PS118 viele spannende Forschungsfragen beantwortet.

Foto oben: Luftaufnahme: Das Expeditionsschiff Polarstern bei einer Fahrt durch antarktisches Meereis, Weddell-Meer ©Mario Hoppmann

Dieser Artikel erschien am 8. März in der Innovation Origins

DIESER ARTIKEL KÖNNTE SIE AUCH INTERESSIEREN

Antarktis: Forscherteam erkundet Leben unter dem Eisberg A68

Neumayer-Station III: Zehn Jahre deutsche Antarktisforschung

Gletscherschmelze in Grönland, der Antarktis und am Hindukusch

NIEDERLANDE UND DEUTSCHLAND: WISSENSCHAFTSKOOPERATION ZU KÜSTEN-, MEERES- UND POLARFORSCHUNG UNTERZEICHNET

Im Rahmen eines Besuchs des niederländischen Königspaares mit seiner Majestät König Willem-Alexander und ihrer Majestät Königin Máxima unterzeichneten niederländische und deutsche Wissenschaftler eine Erklärung zur Wissenschaftskooperation im Bereich der Küsten-, Meeres- und Polarforschung. Fokus liegt dabei auf den Themen Klimawandel, Artenvielfalt und Naturschutz. Zuvor hatten niederländische und deutsche Wissenschaftler in einem Symposium diese Themen ausgiebig diskutiert. Dazu Antje Boetius, Direktorin des AWI: „Als Küstenanrainer und international wichtige Akteure in der Meeresforschung stehen beide Länder vor großen Herausforderungen, die der Klimawandel mit sich bringt – für die Wissenschaft wie für die Gesellschaft insgesamt.“ Boetius ergänzt: „So beschäftigen uns der Meeresspiegelanstieg und die Erwärmung und Versauerung der Ozeane sowie die Auswirkungen des Wandels auf das Leben im Meer. Gemeinsam sind wir besonders stark im Verständnis der Rolle des Ozeans und der Polarregionen für die Erde und den Menschen.“

SYMPOSIUM ZU UMWELT- UND KLIMATHEMEN

An dem Symposium des Alfred Wegener Instituts nahmen insgesamt über 50 Forschende von der Royal Netherlands Organisation for Scientific Research (NWO), der Universität Utrecht, dem Institute for Sea Research (NIOZ), dem MARUM Zentrum für Marine Umweltwissenschaften der Universität Bremen und dem Alfred-Wegener-Institut teil. Während der Veranstaltung diskutierten die Wissenschaftler Themenfelder wie „Wandel in Arktis und Antarktis“, „unsere Küsten“ sowie „der globale Kohlenstoffkreislauf und das Klima“.

AWI-Biogeologe und Organisator des Symposiums Jelle Bijma freut sich über das gelungene deutsch-niederländische Zusammentreffen: „Im Symposium hatten wir die Chance, ‚out-of-the-box‘ zu denken. So trugen wir beispielsweise zusammen, welche Veränderungen wir zukünftig im System Erde erwarten. Dazu gehören Themen wie: Was bedeutet es für die Meeresökosysteme, wie schnell ändert sich der Meeresspiegel und welche Teile des Klimasystems gehen unwiderruflich verloren, wenn die globale Erwärmung ungebremst voranschreitet, sodass wir bis Ende des Jahrhunderts einen Temperaturanstieg von 4-6°C haben?“

Zudem diskutierten die Wissenschaftler die Frage, welche Funktionen im Vergleich dazu erhalten werden könnten, wenn das 2°C-Ziel eingehalten wird oder wir es sogar schaffen, den Anstieg auf 1,5 °C zu begrenzen. Auch wurden die Bekämpfung von Mikroplastik in unserer Umwelt und das Überfischen der Meere sowie die wissenschaftlichen Möglichkeiten, die ein besserer Zugang zur Nordpolregion eröffnen kann, besprochen. Nicht zuletzt betrachteten die Wissenschaftler auch eventuelle politische Auswirkungen, die sich aufgrund von Klima- und Umweltveränderungen ergeben könnten.

JÄHRLICHER BESUCH DES KÖNIGSPAARES

Das niederländische Königspaar besucht übrigens jedes Jahr ein oder zwei deutsche Bundesländer. Dabei gilt das besondere Augenmerk den Wirtschaftsbeziehungen. Der Besuch in Bremen soll dazu beitragen, die Möglichkeiten für wirtschaftliche Kooperation, auch im internationalen Rahmen, zu erweitern. Die Themenfelder Raumfahrt, Windenergie sowie Polar- und Meeresforschung bieten dafür gute Anknüpfungspunkte.

Der ehemalige deutsche ESA Astronaut Thomas Reiter berichtet dem Königspaar von der Arbeit in der Raumstation ISS ©Airbus

Neben der Wissenschaftskooperation stand auch der Besuch des Airbus Defence & Space Bremen auf dem royalen Programm. Themen waren hier die Bedeutung der Raumfahrttechnologie für die Wissensökonomien beider Länder. So ging es beispielsweise um die gemeinsame Nutzung von Satellitendaten, die bei der Suche nach Lösungen für grenzüberschreitende gesellschaftliche Herausforderungen wie Klimawandel und Luftqualität helfen können. Auch besuchte das Königspaar das europäische Modul der Raumstation ISS. Hier berichtete der ehemalige deutsche Astronaut Thomas Reiter von der Arbeit in der Raumstation.

Majestät König Willem-Alexander und Ihre Majestät Königin Máxima zu Besuch im IWES; von links nach rechts: Institutsleiter Prof. Andreas Reuter, Bremerhavens Stadtverordnetenvorsteherin Brigitte Lückert, OB Melf Grantz, das niederländische Königspaar, Bremens Bürgermeister Carsten Sieling mit seiner Gattin Alexia Sieling ©Martina Buchholz

Deutsche und niederländische Unternehmen gelten übrigens als Vorreiter bei der Entwicklung von kosteneffizienten Off-Shore-Windenergiesystemen für die europäische Energiewende. Grund genug für das Königspaar, das Fraunhofer-Institut für Windenergiesysteme (IWES) in Bremerhaven zu besuchen. Denn das IWES verfügt über eine der größten Testanlagen für Rotorblätter weltweit. Zudem fand hier der deutsch-niederländische Kongress „Market Place: Offshore Wind in the Netherlands and Germany“ statt. Im Rahmen dieser Veranstaltung wurde eine Kooperationsvereinbarung zwischen dem niederländischen Wind-Network NNOW und dem deutschen Branchennetzwerk WAB e.V. unterzeichnet.

Bild oben: Unterzeichnung der Wissenschaftskooperation im Beisein von König Willem-Alexander und Königin Máxima der Niederlande, Karsten Sieling und Alexia Sieling (stehend); Zeichnende: Niek Lopes-Cardozo (Royal Netherlands Organisation for Scientific Research – NWO), Henk Brinkhuis (Institute for Sea Research – NIOZ), Anton Pijpers (Universität Utrecht), Michael Schulz (MARUM Zentrum für Marine Umweltwissenschaften der Universität Bremen) und Antje Boetius (AWI) ©Esther Horvath

Dieser Artikel erschien am 7. März in der Innovation Origins.

EVOLUTIONSBIOLOGIE UNTER NEUER PERSPEKTIVE

Anhand von farbenfrohen Hamletbarschen erforschten Wissenschaftler des GEOMAR Helmholtz-Zentrums für Ozeanforschung Kiel und des Smithsonian Tropical Research Institute in Panamaeine der grundlegenden Fragen der Evolutionsbiologie: „Wie können neue Arten im Meer entstehen?“ Dies ist besonders unter dem Aspekt interessant, dass die karibischen Riffbarsche eigentlich nahe beieinander leben und sich auch weiterhin miteinander fortpflanzen können.

Die Forschenden entdeckten bei ihren Untersuchungen, wie die natürliche Selektion auf die Weiterentwicklung von Genen im Bereich der visuellen Wahrnehmung und damit einhergehend der Ausprägung von Farbmustern wirkt. So ist es zumindest bei den Hamlets der Fall, dass die blaue Fischart meistens blaue Partner bevorzugt, während die rote Art eher auf rote Partner anspricht. Das heißt, die einzigartige Farbgebung bedingt auch die Vorliebe für die Ausprägung dieser Farbeigenschaft bei der Partnerwahl.

Dies ist einer der Gründe, warum die Forschung lange vermutete, dass sich neue Arten nur in absoluter Isolation und ohne Kreuzung entwickeln können. Sofern sich in diesem Falle beide Arten untereinander vermischten, ging man davon aus, dass hier die codierten Merkmale zwischen Farb- und Paarungsvorlieben, die sogenannte Kopplung, durch die sexuelle Rekombination – die Neuanordnung von genetischem Material in den Zellen –, zerstört wird. In Folge dessen hätten rote Individuen eine Präferenz für blaue Partner und umgekehrt.

VERWANDTE ARTEN MIT DEUTLICHEN CHARAKTERISTIKA

Ein gestreifter Hamletbarsch (Hypoplectrus puella) vor der Küste Panamas ©Kosmas Hench/GEOMAR

Doch stellten die Wissenschaftler um Oscar Puebla, Professor am GEOMAR Helmholtz-Zentrum für Ozeanforschung in Kiel, in Zusammenarbeit mit Kolleginnen und Kollegen am Smithsonian Tropical Research Institute (STRI), fest, dass bei der natürlichen Selektion miteinander verwandter Arten codierte Merkmale für Farbmuster und Paarungspräferenzen eben nicht neu kombiniert werden.

Für ihre Untersuchungen hatten die Wissenschaftler einige Hürden zu meistern: „Die erste Herausforderung unserer Studie bestand darin, eine Tiergruppe zu finden, in der sich erst vor kurzer Zeit neue Arten entwickelt haben, die aber deutliche Charakteristika aufweisen“, so Puebla. Genau so eine Gruppe bilden die Hamletbarsche. Mehrere eng verwandte Arten von ihnen leben an den Riffen der gesamten Karibik. Die einzelnen Arten sind genetisch sehr ähnlich. Ihr Hauptunterschied ist das jeweilige Farbmuster, während die Präferenz für verschiedene Farbmuster bei der Paarung die Arten getrennt hält.

IDENTIFIZIERUNG DER GENE

Für die Forschenden galt es zudem, die Gene zu identifizieren, die den Unterschied zwischen den Arten und den Paarungspräferenzen ausmachen. Hierfür sequenzierten die Wissenschaftler zunächst das gesamte Genom von 110 Riffbarschen aus Panama, Belize und Honduras. Im Anschluss untersuchten sie bei den Fischen, worin sich das Genom unterscheidet. Denn alle drei untersuchten Arten leben zusammen in denselben Riffen.

„Dieser umfassende Datensatz ermöglichte es uns, vier eng begrenzte Regionen des Genoms zu identifizieren, die bei allen Arten deutliche Unterschiede aufzeigten, während der Rest des Genoms bei allen Arten kaum Differenzierung zeigte“, erklärt Kosmas Hench, Doktorand am GEOMAR und Erstautor der Studie. Denn genau diese vier Regionen beinhalten die Gene, die die visuelle Wahrnehmung sowie die Farbmuster der Fische beeinflussen.

Obwohl sich die Arten untereinander paaren, zeigen die Daten, dass die Konstellationen der Seh- und Farbmustergene sich nicht verändern. Die entsprechenden Gene sind also gekoppelt (haben codierte Merkmale) und sind so vor sexueller Rekombination (Neuordnung von genetischem Material) geschützt. Das Besondere an dem Ergebnis ist zudem, dass sich die Gene im Fall der Hamletbarsche auf drei verschiedenen Chromosomen befinden. Bisher kannte man solche Gen-Koppelungen nur, wenn die Gen-Sätze auf einem Chromosom sehr nahe beieinander lagen. So konnte das Team zeigen, wie die natürliche Selektion zur Entstehung neuer Formen in einer sehr frühen Phase der Artenbildung beitragen kann.

WEITERE FORSCHUNGEN

Die Wissenschaftler vermuten, dass ihre Ergebnisse auch noch auf andere Arten übertragbar sind. Doch dafür bedarf es zusätzlicher Untersuchungen, weshalb als nächster Schritt weitere der bisher 19 beschriebenen Hamlet-Arten erforscht werden sollen. Damit wollen die Wissenschaftler herausfinden, ob sich das gefundene Muster allgemein durch die Familie der Hamletbarsche zieht, oder ob es einen Spezialfall der drei untersuchten Arten darstellt.

Grundsätzlich ist übrigens denkbar, dass die natürliche Selektion auch bei anderen Faktoren, die der Partnerwahl dienen, funktioniert. So ist es möglich, dass hier eventuell auch Geruch, Größe oder das Verhalten wirken. Die Studie erschien Anfang März in der Fachzeitschrift Nature Ecology and Evolution.

Bild oben: Professor Oscar Puebla bei Feldarbeiten im Lebensraum der Hamletbarsche vor Puerto Rico ©Kosmas Hench/GEOMAR

Dieser Artikel erschien am 5. März in der Innovation Origins.

ENTWICKLUNG VON SCHNELLLADESYSTEM FÜR PEDELECS

Ob ambitionierter Mountain-Biker oder gemütlicher Stadt-Cruiser: Wer einmal Pedelecs gefahren ist, mag sie nicht mehr missen. Denn zu angenehm ist das Gefühl, jederzeit auf den bequemen Antrieb zurückgreifen zu können. Wenn da nicht das Problem mit dem Laden des Akkus wäre. Derzeit dauert eine vollständige Ladung zwei bis vier Stunden. Das heißt also: man muss eine lange Pause machen, um weiterfahren zu können.

Doch dies könnten sich bald ändern: Das Karlsruher Institut für Technologie (KIT) und die auf E-Mobility spezialisierte Coboc GmbH & Co. KG arbeiten derzeit an einem Schnellladeverfahren für E-Bikes beziehungsweise Pedelecs für die Stadt. Die elektrisch betriebenen Zweiräder unterscheiden sich übrigens im Antrieb: E-Bikes fahren schon per Knopfdruck los und bei Pedelecs (Pedal Electric Cycle) startet der Antrieb durch das Treten der Pedale.

KOMPAKTER AKKU FÜR DIE STADT

Das Schnellladesystem setzt auf besonders langlebige Lithium-Ionen-Zellen und einen vergleichsweise starken Ladestrom von bis zu zehn Ampere ©Lea de Biasi/Steffen Jokisch, KIT

Bei einem City-Bike reicht meist eine kleinere Batterie mit geringerer Reichweite. Dies macht ein Stadt-Pedelec erstens günstiger als andere elektrisch betriebene Bikes und zweitens schont es die Umwelt. Doch sollten mal weitere Strecken zurückgelegt werden, wäre eine Schnellladung von Vorteil. Gerade bei einer kompletter Akku-Entladung ist das bisher noch nicht möglich. „Deswegen wollen wir ein Schnellladesystem für E-Bikes entwickeln, das kompakt und leistungsfähig ist, aber auch nutzer- und umweltfreundlich“, erklärt Nicolaus Lemmertz, Wissenschaftler am Elektrotechnischen Institut (ETI) des KIT und Leiter des Projektes.

Das neue Schnellladeverfahren soll auf Lithium-Ionen-Zellen mit hoher Lebensdauer basieren. Zudem soll es über einen vergleichsweise starken Ladestrom von bis zu zehn Ampere verfügen und an normalen 230-Volt- Steckdosen  bei einem komplett leeren Akku  in weniger als einer Stunde aufgeladen werden können. Die Zwischenladung wäre dann entsprechend kürzer.

Zudem soll das Batterie-Managementsystem eine Diagnosefunktion erhalten. Dieses soll während der Nutzung des E-Bikes die gemessenen Daten über eine Internet-of-Things-Lösung (IoT) erfassen, analysieren und in die interne Cloud des Radherstellers Coboc streamen. Die Daten geben Aufschluss über den Ladezustand der Batterie, den sogenannten State of Charge (SOC), sowie ihren Gesamtzustand im Vergleich zu einem neuen Akku, also den State of Health (SOH). Beide Kennwerte bedingen einander.

Die Ergebnisse der Datenauswertung werden dem Nutzer sowie Hersteller grafisch aufbereitet zur Verfügung gestellt. Dies ermöglicht eine kontinuierliche Optimierung des E-Bikes, eine entsprechende Anpassung des Gesamtsystems und im Sinne einer vorausschauenden Wartung auch stets aktuelle Informationen über den Batteriestatus.

VOLLINTEGRIERTER EINBAU

Der Akku soll übrigens vollintegriert im Rahmen verbaut werden. Dies hilft Gewicht und somit Kosten zu sparen. Auch ermöglicht diese Bauweise eine bessere Wärmeabfuhr. Doch der größte Vorteil ist sicher die höhere Betriebssicherheit. Denn es werden weniger Stecker und Kontaktstellen, die zu Bruch und Korrosion führen können, benötigt. Einziger Nachteil ist, dass der Austausch des Akkus durch den Nutzer nicht möglich ist.

Innerhalb des Projektverbunds übernimmt das KIT unter anderem die Auswahl und Bewertung der infrage kommenden Lithium-Ionen-Zellen. Auch ist das Institut für die Lebensdaueruntersuchung ausgewählter Zellen sowie die Entwicklung des Schnellladeverfahrens und eines Diagnosesystems, das den Lade- sowie Gesamtzustand der Batterie (SOC und SOH) umfasst, verantwortlich.

GEFÖRDERT VOM BMWI

Coboc hingegen obliegt die Anforderungsanalyse und Entwicklung des Betriebs-Managementsystems. Auch zeichnet sich das Unternehmen für die Implementierung des IoT-Systems mit dem dazugehörigen Server Back End sowie die Hardware und deren Integration im Elektrofahrrad verantwortlich. „Durch den Vertrieb von E-Bikes mit einem solchen smarten System können wir nicht nur unseren Marktanteil erhöhen, sondern auch für mehr Nachhaltigkeit sorgen“, betont Coboc-Geschäftsführer David Horsch. Das Projekt wird im Rahmen des Zentralen Innovationsprogramms Mittelstand des Bundesministeriums für Wirtschaft und Energie (BMWi)gefördert und läuft noch bis Ende September 2021.

In dieser Zeit werden an einem Prototypen erste Feldtests durchgeführt. Zwar ist noch kein genauer Markteinführungstermin bekannt, doch er wird sicherlich im Anschluss an das Projekt angestrebt.  Übrigens: Wer die Reichweite seines Akkus erhöhen möchte, der kann sich mit vorauschauendem Verhalten behelfen. Dazu gehören zum Beispiel auf ausreichend Reifendruck zu achten, möglichst wenig Gewicht zu transportieren, im gemäßigten Modus anzufahren und auch eine möglichst ebene Fahrtstrecke zu wählen. Und, gut zu wissen: Wenn der Akku nicht ständig komplett entladen wird, hält er länger.

Bild oben: Das KIT entwickelt zusammen mit dem Unternehmen Coboc ein Schnellladesystem für Pedelecs ©ChristianMetzler

Dieser Artikel erschien am 4.3.2019 in der Innovation Origins.

DIESE ARTIKEL KÖNNTEN SIE AUCH INTERESSIEREN:

Convercycle: Vom City-Bike zum Lastenrad

Siegeszug des E-Bikes bei Paketdiensten

FORSCHUNGSPROJEKT: ERNEUERBARE ENERGIE CHEMISCH SPEICHERN

Im Jahre 2050 sollen 80 Prozent des Stroms in Deutschland aus erneuerbaren Energiequellen stammen. Wobei hier Sonne, Wind und Biomasse als die wichtigsten Energielieferanten gelten. Doch sie stehen nicht gleichmäßig zur Verfügung. Denn an wind- und sonnenreichen Tagen fällt mehr Strom an, als in die Netze eingespeist werden kann. Diese fluktuierende Verfügbarkeit ist im Rahmen der Energiewende eine der größten Herausforderungen. Doch lässt sich die Überproduktion aus Windkraft- und Photovoltaikanlagen in Energieträgern wie Wasserstoff oder Kohlenwasserstoffen chemisch speichern. So könnte die elektrische Energie zu einem späteren Zeitpunkt wieder zur Verfügung stehen. Für die Umwandlung der Energieträger in Speichermoleküle wie Methan, Kohlenwasserstoffe oder Alkohole sind Katalysatoren, elektrochemische Zellen und Reaktoren notwendig. Diese müssten in dynamischen Reaktionsbedingungen eingesetzt werden. Wie sich der Einfluss wechselhafter Gegebenheiten von außen – eben durch das Schwanken von Windstärke und Sonneneinstrahlung – auf die katalytischen Reaktionssysteme auswirkt, wurde bislang kaum betrachtet. Denn die chemischen Reaktoren wurden bis jetzt meist stationär betrieben.

„Man weiß jedoch, dass sich die Struktur fester Katalysatoren und damit ihre katalytische Wirkung mit den Reaktionsbedingungen stark ändern kann. Dies ist wissenschaftlich hochspannend“, erklärt Professor Jan-Dierk Grunwaldt von den Instituten für Technische Chemie und Polymerchemie (ITCP) sowie für Katalyseforschung und -technologie (IKFT) des KIT.

RENOMMIERTE FORSCHUNGSEINRICHTUNGEN AUS GANZ DEUTSCHLAND

Mit dem Namen „Schwerpunktprogramm 2080 – Katalysatoren und Reaktoren unter dynamischen Betriebsbedingungen für die Energiespeicherung und -wandlung (SPP 2080, DynaKat)“ ist im Februar 2019 das deutschlandweite, interdisziplinäre Forschungsprogramm der Deutschen Forschungsgemeinschaft (DFG) gestartet. Die DFG fördert das auf insgesamt sechs Jahre angelegte Schwerpunktprogramm DynaKat zunächst für drei Jahre mit 8,5 Millionen Euro.

Die Koordination obliegt als projektstärkstem Partner dem Karlsruher Institut für Technologie (KIT). Zudem sind zahlreiche weitere renommierte Forschungseinrichtungen in ganz Deutschland beteiligt. Darunter das Forschungszentrum Jülich, die TU München und mehrere Max-Planck-Institute wie das Berliner Fritz-Haber-Institut. Insgesamt zwölf große Forschungskonsortien untersuchen in interdisziplinären Verbünden grundlegende und methodische Herausforderungen des dynamischen Betriebs. Die überregionalen Forschungsprojekte untergliedern sich wiederum in 34 Teilprojekte.

DYNAMISCHE BEDINGUNGEN GRUNDLEGEND VERSTEHEN UND VERBESSERN

Die rasante Entwicklung bei spektroskopischen Methoden und im Bereich der Modellierung kombiniert mit neuen Ansätzen im Material- und Reaktordesign bieten für die Forschung exzellente Voraussetzungen. Neuere Untersuchungen belegen zudem, dass sich die Struktur fester Katalysatoren – und damit auch die katalytische Wirkung mit den Reaktionsbedingungen -, stark ändern kann. Dabei besteht zum einen das Potenzial, durch dynamischen Betrieb die Ausbeute der erwünschten Reaktionsprodukte zu erhöhen und Katalysatoren in Ruhephasen zu reaktivieren. Zum anderen müssen die nanostrukturierten Katalysatoren stabilisiert werden. Für eine effiziente Nutzbarmachung dynamischer Reaktionsbedingungen bedarf es daher eines grundlegenden Verständnisses aller beteiligten Prozesse – von der atomaren Skala des Katalysators bis hin zu dreidimensionalen Konzentrations- und Temperaturverteilungen im technischen Reaktor.

„Wir wollen Veränderungen des Materials der Katalysatoren unter dynamischen Bedingungen grundlegend verstehen und verbessern“, beschreibt Dr. Erisa Saraçi, wissenschaftliche Mitarbeiterin am IKFT das Projekt. Dafür werden alle beteiligten Prozesse untersucht, von den Vorgängen auf der atomaren Ebene des Katalysators bis zur räumlichen Verteilung der Stoffkonzentrationen und Temperaturen auf Reaktorebene. Für ein grundlegendes Verständnis der Prozesse und um neue Ansätze im Material- und Reaktordesign zu entwickeln, kommen klassische etablierte Experimente ebenso zum Einsatz wie neueste spektroskopische Methoden und Möglichkeiten der Modellierung.

Der zu erwartende Erkenntnisgewinn soll künftig den effizienten Betrieb katalytischer Systeme unter dynamischen Bedingungen ermöglichen. Das grundlegende Verständnis hierfür wird am Beispiel von Reaktionen zur Energiespeicherung und -wandlung erarbeitet und schafft die Basis für zukünftige technische Anwendungen.

Schematische Darstellung und Überblick über die wissenschaftliche Arbeit im SPP 2080: Mit erneuerbaren Energien werden aus Kohlendioxid und Wasser durch Elektrolyse und katalytische Umsetzung Chemikalien und Kraftstoffe hergestellt. Grafik und ©: Arbeitsgruppe Grunwaldt, KIT

Charakteristisch für alle untersuchten Systeme ist, dass die Dynamik systematisch im Zeitbereich zwischen Sekunden und Tagen von außen aufgeprägt wird. Entweder weil die aufgeprägte Dynamik nur mit großem Aufwand vermieden werden kann (z. B. schwankendes Angebot an elektrischer Energie), oder weil durch den dynamischen Betrieb begründete Vorteile für die Raum-Zeit-Ausbeuten oder Selektivitäten der katalytischen Reaktionen erwartet werden.

OFFEN FÜR NACHWUCHSWISSENSCHAFTLER UND WEITERE FORSCHUNGEN

Die Ergebnisse sind aber auch interessant für andere Bereiche wie Abgaskatalyse,  Selektivoxidationen, Brennstoffzellen, Batterien oder Photokatalyse. Diese Anwendungen sind jedoch ebenso wie rein physikalisch-chemische Studien nicht Gegenstand des Forschungsprojekts. Denn das interdisziplinäre Forschungsvorhaben ist in der Technischen Chemie bzw. der Chemischen Reaktionstechnik lokalisiert und explizit offen für weitere Gebiete der Chemie, Physik oder Materialwissenschaften, die zur Thematik beitragen.

Das Einbeziehen des wissenschaftlichen Nachwuchses spielt im DFG-Schwerpunktprogramm DynaKat ebenfalls eine wichtige Rolle. So steht interessierten Studierenden und Promovierenden ein Blockkurs am KIT zum Thema „Technologien und Ressourcen für Erneuerbare Energien: Von Wind und Solar zu Chemischen Energieträgern“ offen.

„In der Forschung kommt man ohne Netzwerke und Teamarbeit nicht voran, da die einzelnen Teildisziplinen sehr komplex sind“, so Sebastian Weber, Doktorand am IKFT/ITCP. Gerade für den wissenschaftlichen Nachwuchs seien der Austausch und das Zusammenbringen unterschiedlicher Expertisen wertvoll, betonen Saraçi und Weber. „Es geht darum, Kompetenzen zu bündeln und das Themengebiet deutschlandweit voranzutreiben, um darin international führend zu werden“, so Programmkoordinator Grunwaldt.

Bild oben: Energie aus erneuerbaren Quellen speichern – das ist eine der Herausforderungen der Energiewende. ©Pascal Armbruster, KIT

Dieser Artikel erschien am 1.3.2019 in der Innovation Origins.

HOLZBRILLE: NACHHALTIG UND EXKLUSIV

Eine Brille aus Massivholz? Geht das überhaupt? – Na klar, denn „geht nicht gibt´s nicht“ dachten sich findige Designer aus Freising in Oberbayern. In Zusammenarbeit mit der Hochschule Weihenstephan-Triesdorf sowie dank des Know-hows des Traditionsunternehmens Frank Instrumentenbau entwickelte das Start-up Freisicht Eyewear die sogenannte Woodflex-Technologie zur Modifikation von Holz. Sie schafften somit die Basis zum Design einer eleganten Holzbrille.

Durch das zum Patent angemeldete Verfahren ist es erstmals möglich, eine Brille aus einem einzigen Stück Massivholz individuell zu gestalten. Es werden weder Schichtholz noch Materialmischungen verwendet. Der Optiker erwärmt letztendlich das Brillengestell mittels Ventilette – ein in der augenoptischen Werkstatt übliches Heißluftgerät – und passt es ergonomisch auf die Gesichtsgeometrie des Kunden an. Denn das erwärmte Holz erreicht durch die Hitze eine gewisse Teigigkeit, lässt sich dadurch verformen und erstarrt nach dem Erkalten wieder. Damit auch die Verglasung risikofrei bleibt, ist ein Schließblock in das Gestell eingearbeitet. Dieser wird per Schlitzschraubendreher geöffnet, so dass die Gläser eingesetzt werden können. Sobald die Schrauben wieder zugedreht sind, ist der feine Spalt kaum mehr zu sehen.

EIGENSCHAFTEN WIE JEDES BRILLENGESTELL

Holzbrille von Freisicht hat ähnliche Eigenschaften wie eine herkömmliche Brille aus Acetat oder Metall ©Freisicht-Eyewear
Dank der Woodflex-Technologie lässt sich das Holz verformen – nach dem Erkalten erstarrt es wieder ©Freisicht-Eyewear

Die Holzbrille von Freisicht hat ähnliche Eigenschaften wie eine herkömmliche Brille aus Acetat oder Metall. Doch sie überzeugt zudem durch ihren exklusiven Charakter sowie durch ihre Nachhaltigkeit. Denn die Fassungen werden in reinster Handarbeit direkt vor Ort in Freising hergestellt. Zudem nutzen die Brillen-Pioniere ausschließlich heimische Holzarten wie Walnuss und Ahorn. Die Holzoberfläche wird so behandelt, dass eine einfache Verschmutzung leicht abzuputzen ist. Auch sind die Brillen vor Schweiß und Feuchtigkeit geschützt. Individuelle Maserungen und Patina zaubern aus jedem Stück ein Unikat. Passend dazu werden die Brillen mit edlen Brillenetuis aus Eichenholz geliefert. Sie geben dem Designerstück nicht nur einen perfekten Schutz, sondern sie glänzen auch mit allerhöchsten Qualitätsansprüchen. Besonders schön: Die Etuis werden in den Steinhöringer-Werkstätten für Menschen mit Behinderung gefertigt.

AUSZEICHNUNG

Übrigens wurden die Freisinger Holzbrillendesigner Ende Januar beim bayerischen Gründerwettbewerb PlanB mit dem ersten Platz gekürt. Hier werden insbesondere Geschäftsideen für die biobasierte Wirtschaft ausgezeichnet. Mit dem Sieg sicherte sich das Start-up ein Preisgeld von 5.500 Euro und eine Startereinheit im Straubinger Gründerzentrum BioCubator. „Wir werden das Preisgeld für die Weiterentwicklung des Unternehmens einsetzen“, freut sich Wittmann über die Auszeichnung, „das ist eine wunderbare Chance für uns, noch mehr Menschen von den Möglichkeiten des Werkstoffs Holz zu überzeugen und auch viele weitere Kunden und Fans zu gewinnen.“

Bild oben: Mit der Holzbrille zum Erfolg: Das Freisinger Start-up Freisicht-Eyewear wurde beim Gründerwettbewerb Plan B mit dem ersten Platz gekürt. Von li. nach re: Sebastian Wittmann, Founder & CEO; Thomas Winter, Design; Linus Frank, Founder & CTO ©Freisicht-Eyewear

Dieser Artikel erschien am 28.2.2019 in der Innovation Origins.

FESTKÖRPERBATTERIE MIT HOHER ENERGIEDICHTE DANK LITHIUM-ANODE

Wissenschaftler des Forschungszentrums Jülich und der Westfälischen Wilhelms-Universität Münster entwickelten eine neue Festkörperbatterie. Das Besondere: Sie verfügt über eine Anode aus reinem Lithium. Das Alkalimetall gilt als ideales Elektrodenmaterial, da sich mit ihm die höchsten Energiedichten erreichen lassen. Doch da das Metall sehr reaktiv ist, wurde es bisher nicht als Anode verwendet. Die Forschenden tricksten diese Eigenschaft jedoch durch den Einsatz von zwei zusätzlichen Lagen aus einem neuartigen Polymer aus. Diese schützen den keramischen Elektrolyten der Batterie und verhindern somit, dass sich das Metall auf zerstörerische Weise ablagert. In Labortests waren über Hunderte von Ladezyklen möglich, ohne dass die Zellen deutlich an Kapazität verloren.

BEDEUTENDE ZUKUNFT ERWARTET

Feststoffbatterien gelten übrigens als eine bedeutende Entwicklung für die Zukunft. Ihr besonderer Vorteil: Festkörperakkus enthalten keine Flüssigkeiten, die auslaufen oder in Brand geraten können. Aus dem Grund sind sie deutlich sicherer, zuverlässiger und langlebiger als aktuelle Lithium-Ionen-Batterien mit flüssigem Elektrolyt. Gleichzeitig besitzen Festkörperbatterien das Potenzial, mehr Energie auf demselben Raum bei geringerem Gewicht zu speichern. Entsprechend wird erwartet, dass diese Technologie verschiedenen Bereichen zum Durchbruch verhelfen könnte. Mögliche Einsatzszenarien sind die Elektromobilität, aber auch Nischenanwendungen in der Medizin- sowie Raumfahrttechnik sind denkbar.

„Ziel war es, unser Konzept für eine Festkörperbatterie so zu erweitern, dass der stabile Betrieb mit einer Lithium-Anode möglich wird, und das haben wir geschafft“, freut sich Dr. Hermann Tempel vom Jülicher Institut für Energie- und Klimaforschung (IEK-9) über die aktuellen Ergebnisse. Lithium als Anode gilt als Material der Wahl, wenn es darum geht, möglichst hohe Energiedichten zu erzielen. Denn das leichteste Metall ist gleichzeitig auch das elektronegativste aller chemischen Elemente.

Die neue Festkörperbatterie kommt bezogen auf beide Elektroden auf eine Energiedichte von 460 Wh/kg. Im Vergleich mit aktuellen Lithium-Ionen-Batterien ist das ein sehr guter Wert. Hinzu kommen weitere Vorteile, die die Bauweise mit sich bringt. So sind Festkörperbatterien deutlich weniger temperaturempfindlich als herkömmliche Lithium-Ionen-Batterien mit Flüssigelektrolyt. Daher benötigen sie keine Vorrichtungen für das Temperaturmanagement, wie sie bislang in Elektroautos verbaut werden, was zusätzlich Gewicht einsparen dürfte.

POLYMERFOLIE ALS SCHUTZSCHICHT

Aufbau einer Festkörperbatterie mit Hybridelektrolyt ©S. Yu et al., J. Mater. Chem. A, 2019, Advance Article, DOI: 10.1039/C8TA11259B with slight modification (CC BY 3.0)

Möglich wurde die Verwendung einer Anode aus reinem Lithium durch den Einbau einer Polymerfolie zwischen Anode und Elektrolyt. Reines Lithium neigt dazu, beim Laden unkontrollierte Auswüchse auszubilden. Diese sogenannten Dendriten können die Zelle kurzschließen oder sie mechanisch zerstören. In der Anode heutiger Lithium-Ionen-Akkus werden Lithium-Atome daher in einem Speichermedium, meist Graphit, eingelagert. Das Gewicht der Elektrode und der gesamten Batterie erhöht sich dadurch um ein Vielfaches.

„Das Polymer funktioniert wie eine Schutzschicht, die die Verwendung einer Lithium-Anode überhaupt erst möglich macht“, erklärt Tempel. „Sie verhindert, dass der keramische Elektrolyt in direkten Kontakt mit dem metallischen Lithium an der Anode kommt. So werden schädliche Prozesse wie die Dendritenbildung und chemische Veränderungen des keramischen Elektrolyten unterbunden, die die Funktion der Batterie beeinträchtigen.“ Erste Tests im Labor verliefen bereits sehr erfolgreich. Über 500 Lade- und Entladezyklen hinweg ließen sich kaum Performanceeinbußen feststellen.

„Das Besondere an der Zelle ist, dass sie trotz der moderat leitenden Polymere funktioniert; in mancher Hinsicht sogar besser als ohne“, konstatiert Professor Hans-Dieter Wiemhöfer vom Helmholtz-Institut Münster (HI MS), der das spezielle Polymer, das zu der Klasse der Polyphosphazene zählt, entwickelt hat. Wiemhöfer koordiniert das BMBF-Verbundprojekt MEET-HiEnD II, aus dem die neue Batterie hervorgegangen ist.

Die Polymerschicht wird bei der Herstellung flüssig aufgetragen. Sie dringt dabei tief in den porösen keramischen Elektrolyten ein. Das verbessert den Kontakt zwischen dem festen Elektrolyt und der festen Elektrode – bei Festkörperakkus ein häufiges Problem. Mit diesem Verfahren wird kein stabiles und entsprechend schweres Gehäuse benötigt, das die verschiedenen Komponenten mechanisch zusammenpresst und dadurch für eine gute Verbindung sorgt. Das spart ebenfalls Gewicht und trägt dazu bei, die Energiedichte zu erhöhen.

DOPPELTE ENERGIEDICHTE ABER LÄNGERE LADEZEIT

Als zusätzliche Barriere zwischen den einzelnen Komponenten wirken sich die Polymerschichten jedoch auch nachteilig auf die Performance der Batterie aus, insbesondere auf den Stromfluss. Im letzten Jahr hatten Jülicher Wissenschaftler eine gut funktionierende, schnellladefähige Festkörperbatterie vorgestellt, die innerhalb einer halben Stunde ge- und entladen werden kann. Mittels Lithium-Anode und Hybridelektrolyt ist es ihnen nun zwar gelungen, die theoretische Energiedichte zu verdoppeln. Die Ladezeit verlängerte sich dadurch jedoch auf zwei Stunden. Für Festkörperbatterien ist das immer noch ein guter Wert.

Auch andere Aspekte zeigen: Die Batterie ist noch in einem frühen Entwicklungsstadium und nur begrenzt reif für die Praxis. So muss die Zelle im Betrieb momentan auf einer Mindesttemperatur von 50 Grad Celsius gehalten werden, damit der hybride Elektrolyt für Ladungsträger durchlässig bleibt. „Für niedrigpreisige Anwendungen ist das Herstellungsverfahren bis jetzt auch noch zu aufwendig. Die funktionierende Zelle zeigt aber, dass es der Hybridelektrolyt ermöglicht, typische Probleme an den Grenzflächen von Festkörperbatterien zu umgehen“, erklärt Professor Rüdiger-A. Eichel, Institutsleiter am Forschungszentrum Jülich (IEK-9). Für Nischenanwendungen, bei denen Kosten eine nicht so große Rolle spielen, ist die inhärent sichere Batterie mit der hohen Energiedichte möglicherweise jetzt schon interessant. „Aber auch für kostenkritische Anwendungen wie die Elektromobilität birgt der Ansatz großes Potenzial.“

Die Arbeit entstand im BMBF-Verbundprojekt MEET-HiEnD II, in dem die Westfälische Wilhelms-Universität Münster, das Forschungszentrum Jülich und die RWTH Aachen zusammenarbeiten. Die Originalpublikation wurde in der Ausgabe 8/2019 im Journal of Materials Chemistry Averöffentlicht.

Bild oben: Die Komponenten der Lithium-Festkörperbatterie mit Hybridelektrolyt noch im Laborstadium ©Forschungszentrum Jülich / T.Schlößer

Dieser Artikel erschien am 27.2.2019 in der Innovation Origins.

DAS KÖNNTE SIE AUCH INTERESSIEREN

Europa setzt bei der Batterieproduktion auf Nachhaltigkeit

Eierschalen als Elektrode für Energiespeicher

Designprinzipien sollen Smartphoneakkus sicherer machen

CO2-AUFNAHME BEI JUNGEN WÄLDERN UM 25 PROZENT ERHÖHT

Ein internationales Forscherteam, darunter Wissenschaftlerinnen und Wissenschaftler des Karlsruher Instituts für Technologie (KIT), stellt unsere bisherigen Annahmen zur CO2-Aufnahme von Wäldern auf den Kopf: Nicht die Photosynthese allein ist für die Kohlenstoffsenken verantwortlich, sondern auch das Alter des Waldes.

Kohlenstoffsenken sind Ökosysteme, die große Mengen an Kohlenstoff binden und so die CO2-Ansammlung in der Atmosphäre – und damit den Klimawandel – verlangsamen.  So gilt der Wald diesbezüglich als ein bedeutender Filter für unsere Erde. Er reinigt die Luft von Staubpartikeln. Er produziert Sauerstoff. Er ist sozusagen unsere grüne Lunge.

KOHLENSTOFFSENKEN BEGRENZT

Bisher ging man davon aus, dass der hauptsächliche Prozess für die CO2-Aufnahme ein Verstärken der Photosynthese ist. Dieser begründet sich wiederum durch den Anstieg von Kohlendioxid in der Atmosphäre. Demnach sind die Senken dynamisch. Ihre Kapazität kann regional wachsen, aber auch schrumpfen. Dichte tropische Wälder in der Nähe des Äquators beispielsweise nehmen große Mengen COauf. Deshalb sprach man bis dato insbesondere dem Regenwald die elementare Aufgabe der Kohlenstoffdioxid-Reduktion zu.

Doch die Umweltforschenden fanden nun heraus, dass sich die weltweit größten Kohlenstoffsenken in jungen, nachwachsenden Wäldern befinden. Und zwar in Wäldern, die jünger als 140 Jahre sind.

„Diese Senken, die vom Waldwachstum abhängen, sind grundsätzlich begrenzt. Erreichen die Wälder ein bestimmtes Alter, sinkt ihre CO2-Aufnahme und die so wichtigen Kohlenstoffsenken verschwinden – außer es kommt zu einer weiteren Aufforstung“, so Professorin Almut Arneth vom Institut für Meteorologie und Klimaforschung – Atmosphärische Umweltforschung (IMK-IFU), Campus Alpin des KIT. „Die Ergebnisse der Studie sind ein wichtiger Beitrag zum Verständnis des Klimasystems und helfen uns gleichzeitig, fundierte Entscheidungen über die Forstwirtschaft zu treffen.“ Denn sie zeigen, wie viel CO2 nachwachsende Wälder in Zukunft binden könnten. „Allerdings ist die Menge an Kohlendioxid, die Wälder generell aus der Atmosphäre entfernen können, begrenzt. Deshalb müssen wir unsere Emissionen durch fossile Brennstoffe unbedingt reduzieren“, betont die Professorin.

ERGEBNIS BASIERT AUF VERGLEICH VON DATENSÄTZEN

Für seine bahnbrechenden Erkenntnisse analysierte ein internationales Forschungsteam, darunter Wissenschaftlerinnen und Wissenschaftler des Karlsruher Instituts für Technologie (KIT), eine Kombination aus Daten- und Computermodellen von globalen Wäldern neu. Mit dem Blick auf die Datensätze zum Alter der Wälder konnten die Experten nachvollziehen, wie viel CO2 etablierte Waldflächen, mit einem Alter von mindestens 140 Jahren, zwischen den Jahren 2001 bis 2010 aufnahmen. Der Vergleich mit jüngeren Wäldern ‒ die zum Beispiel auf vorherigen landwirtschaftlich genutzten oder abgeholzten Flächen nachwachsen ‒ zeigte: der Alterseffekt macht rund 25 Prozent der CO2-Aufnahme von Wäldern aus. Denn die Gebiete nehmen nicht nur aufgrund der erhöhten Photosynthese große Mengen CO2 aus der Atmosphäre auf, sondern vor allem aufgrund ihres jungen Bestehens. Dies trifft insbesondere auf die Wälder mittlerer und hoher Breiten zu. Dazu gehören beispielsweise Landflächen in den östlichen Bundesstaaten der USA, die Siedler bis Ende des 19. Jahrhunderts als Ackerland nutzten, oder Wälder in Kanada, Russland und Europa, die beispielsweise durch Waldbrände zerstört wurden. Aber auch große Aufforstungsprogramme in China leisten einen wichtigen Beitrag zu dieser Kohlenstoffsenke.

Finanziert wurde diese interessante Forschung von der Europäischen Kommission. Die Ergebnisse sind aktuell in den Proceedings of the National Academy of Sciences of the United States of America (PNAS) nachzulesen.

Dieser Artikel erschien am 26.2.2019 in der Innovation Origins.

FORSCHUNGSPROJEKT: MARKTREIFE FÜR LASERBASIERTE OBERFLÄCHENBEARBEITUNG

Unter dem Namen LAMPAS (High throughput Laser structuring with Multiscale Periodic feature sizes for Advanced Surface Functionalities) forscht derzeit ein internationales Expertenteam der TU Dresden an laserbasierter Oberflächenbearbeitung. Das Ziel: Das vielversprechende, neue Verfahren soll zur Marktreife gebracht werden. Zudem wollen die Wissenschaftler der Fakultät Maschinenwesen einen Weltrekord in der Fertigungsgeschwindigkeit aufstellen. „Wir sind sicher, dass die Ergebnisse wegweisend für verschiedene Industrien sein werden und freuen uns daher sehr, dass wir europaweit die führenden Partner für das Forschungsvorhaben gewinnen konnten“, so Professor Andrés Fabian Lasagni, Koordinator des Forschungsprojektes und Inhaber der Professur für Laserbasierte Methoden der großflächigen Oberflächenstrukturierung. Mögliche Anwendungsbereiche sehen die Forschenden in der Medizintechnik, Automobilindustrie sowie Energieforschung.

VORBILD LOTOSEFFEKT

Lotoseffekt des Schmetterlingsflügels als Vorbild für die Forschungsarbeiten ©Pixabay

Inspiriert wurden die Wissenschaftler von der Natur. Der selbstreinigende Lotoseffekt, den man auch vom Schmetterlingsflügel her kennt, basiert auf einer mikro- beziehungsweise nanostrukturierten Oberfläche. Entsprechend möchten die Laserexperten durch großflächige, filigrane Gravuren per Laser die Funktionalisierung von unterschiedlichen Oberflächen erreichen und somit eine echte Alternative zu bisherigen Verbundwerkstoffen oder zur Beschichtung von Oberflächen schaffen. Industrielle Anwendungsfelder könnten beispielsweise die Erstellung von antibakteriellen oder leichtreinigenden Oberflächen oder auch eine Anti-Fingerprint-Beschichtung sein.

Das Forscherteam plant, in den nächsten drei Jahren ein laserinterferenzbasiertes Verfahren zu entwickeln, das kostengünstig großflächige Mikro- und Nanostrukturen auf verschiedene Oberflächen bringen kann. Die Herausforderung des Projekts besteht in der Größe der Mikrostrukturen. Sie sind kleiner als ein menschliches Haar. Damit das Verfahren auch für den breiten Markt nutzbar ist, gilt es gleichzeitig die Fertigungsgeschwindigkeit solcher Strukturen zu erhöhen. Dafür wird im Rahmen des Projektes eine neue Laserstrahlquelle entwickelt, die eine Ausgangsleistung von 1.5 Kilowatt besitzt und ultrakurze Laserpulse erzeugt.

EU FORSCHUNGSPROJEKT „HORIZON2020“

Das Forscherteam um den Laseringenieur Lasagni zählte beim EU-Forschungswettbewerb „Horizon2020“ in der Kategorie Informations- und Kommunikationstechnologien (ICT-04-2018, Förderkennzeichen 825132) zu den besten Teilnehmern. Deshalb wird das Projekt im Rahmen des Horizon 2020-Programms mit mehr als 5,1 Mio. Euro von der Europäischen Union (EU) gefördert. In den nächsten drei Jahren forschen die Wissenschaftler der TU Dresden zusammen mit internationalen Partnern aus Industrie und Forschung, u.a. Bosch, Trumpf, Bosch-Siemens-Hausgeräte (BSH), Next Scan Technology, Near Infrared Technologies (NIT), Lasea und European Photonics Industry Consortium (EPIC) an dem Projekt.

Bild oben: Die Mikrostrukturen – hier ein Beispiel einer mit einem Laser bearbeiteten Metalloberfläche für selbstreinigende Oberflächen –  sind eine große Herausforderung. Der Abstand der einzelnen Strukturelemente (Abstand „Berg“ zu „Berg“) beträgt 10 Mikrometer. Zum Vergleich: Ein menschliches Haar hat einen Durchmesser von 50-80 Mikrometern ©TU Dresden

Dieser Artikel erschien am 25.2.2019 in der Innovation Origins.