STRESSHORMONE FÖRDERN DIE METASTASIERUNG VON BRUSTKREBS

Es gibt viele Faktoren, bei denen vermutet wird, dass sie zum Krebswachstum beitragen. Stress ist einer davon. Doch Stress ist subjektiv, also schwer zu messen. Bis jetzt beriefen sich Studien, die den Zusammenhang von Stress und Krebs herstellten, auf empirische Daten. Ein exakter wissenschaftlicher Beweis blieb offen. Denn eine große Herausforderung in der Erforschung wie auch in der Behandlung von metastasierendem Brustkrebs ist die Tumorheterogenität. Im Verlauf der Erkrankung wird der Tumor nämlich vielfältiger. Somit können die wachsenden Unterschiede zwischen den einzelnen Krebszellen zu einem unzureichenden Therapieerfolg führen. Unbekannt waren dabei bis dato die zu Grunde liegenden Mechanismen dieses Phänomens.

FORSCHUNG ANHAND VON MAUS-KREBSMODELL

Forschende der Universität Basel sowie des Universitätsspitals Basel deckten kürzlich die molekularen Mechanismen auf, die Brustkrebsmetastasen mit erhöhten Stresshormonen verbinden. Für ihre Studien untersuchten die Wissenschaftler rund um Prof. Mohamed Bentires-Alj die Form des sogenannten dreifach negativen Brustkrebses. Er ist eine besonders aggressive Krebsart, dessen Name sich durch die bei ihm nicht vorhandenen Rezeptoren ‒ also dem Östrogenrezeptor, Progesteronrezeptor oder HER-2-Rezeptor ‒, anhand derer die Oberfläche der Krebszellen eingeteilt wird, ableitet. Der dreifach negative Krebs ist resistent gegen Standardtherapien und bietet für die Patientinnen weniger Behandlungsmöglichkeiten.

Ihre Forschungen nahmen die Wissenschaftler an einem Maus-Krebsmodell vor. Um hier die Heterogenität zwischen Tumoren und Metastasen zu untersuchen, erforschten sie die Aktivität von Genen. Dabei stellten sie fest, dass Metastasen eine erhöhte Aktivität bei den sogenannten Glukokortikoid-Rezeptoren (GR) verzeichnen. Diese binden Stresshormone wie etwa Cortisol.

Mäuse mit Metastasen hatten höhere Konzentrationen von Stresshormonen als Mäuse ohne Metastasen. Die Studie zeigt, dass erhöhte Stresshormonlevels die GR aktivieren. Dies führt wiederum zu einer verstärkten Kolonisierung und Heterogenität der Krebszellen. Was letztendlich eine verkürzte Lebensdauer mit sich bringt.

NEUE THERAPIEN DENKBAR

Die GR binden auch synthetische Derivate von Cortisol. Dazu gehören zum Beispiel der Entzündungshemmer Dexamethason, der oft eingesetzt wird, um die Nebenwirkungen der Chemotherapie zu lindern. Die Forschungsergebnisse zeigten, dass Dexamethason die Wirksamkeit des Medikaments Paclitaxel, welches vielfach in der Chemotherapie Verwendung findet, beeinträchtigen kann.

Die Ergebnisse der Baseler Forschungsgruppe weisen darauf hin, dass bei der Verschreibung von Glukokortikoid-Hormonen an Patientinnen mit Brustkrebs Vorsicht geboten ist. Auch macht die Studie deutlich, dass die Blockierung der GR von Vorteil sein kann. Sie könnte zudem zur Entwicklung neuer Therapien für die Bekämpfung der Metastasierung von Brustkrebs führen.

„Die Tumorheterogenität ist ein großes Hindernis bei der Behandlung“

…, betont Prof. Bentires-Alj. Und er fährt fort: „Die Bedeutung von Stressmanagement kann nicht überbetont werden – insbesondere bei Patientinnen mit dreifach negativem Brustkrebs.“ Er empfiehlt betroffenen Patientinnen deshalb ein moderates Bewegungstraining sowie Entspannungstechniken. Nicht nur laut Bentires-Alj ist dies nachweislich mit einer verbesserten Lebensqualität und erhöhten Lebenserwartung verbunden.

Die Studie wurde kürzlich im International Journal of Science Nature veröffentlicht. Prof. Bentires-Alj ist übrigens zusammen mit Prof. Walter Paul Weber, Chefarzt der Abteilung für Brustchirurgie am Universitätsspital Basel, Gründer des Brustkonsortiums Basel.

Bild oben: Gezieltes Stressmanagement in Verbindung mit einem moderaten Bewegungstraining und Entspannungstechniken sind nachweislich mit einer verbesserten Lebensqualität und erhöhter Lebenserwartung der Patientinnen verbunden ©yogakalyanii by Pixabay

DIESER ARTIKEL KÖNNTE SIE AUCH INTERESSIEREN

Innovationen, die die Krebsbehandlung verändern werden:

(1) Gentherapie mit Clostridien

(2) Schnellerer Einblick durch molekulare Bildgebung

(3) Immuntherapie

ICE-ROAD-TRUCKS IM VISIER VON TANDEM-X: RASER VERURSACHEN WELLEN

Unter der strengen Beobachtung des deutschen TanDEM-X-Radarsatelliten stellten Forschende vom Canada Centre for Mapping and Earth Observation (CCMEO) fest, dass schnell fahrende Ice Road Trucks wellenförmige Hebungen und Senkungen der Eisdecke verursachen. Doch ging es bei der Studie nicht um Geschwindigkeitsmessungen, sondern die Frage, inwieweit der DLR Radarsatellit TanDEM-X zur Unterstützung des Eisstraßenmanagements einsetzbar ist.

WINTERSTRASSE TIBBITT-TO-CONTWOYTO IM FOKU

Aus Film und Fernsehen sind die wagemutigen Eis-Trucker, die mit ihren tonnenschweren LKW´s Waren über die zugefrorenen Seen Kanadas bringen, mittlerweile auch in Deutschland bekannt. Über diese nur in wenigen Wochen des Jahres existierenden Highways werden abgelegene Gemeinden und Industrien mit schwer transportierbarem Material versorgt. Das spart Zeit und Geld. Ist aber auch höchst riskant. Zudem verstärkt der Klimawandel die Schwierigkeiten der Eisstraßenbetreiber.

Aus der aus TanDEM-X-Daten hergeleiteten Hebungs- und Senkungskarte (nur über Eisflächen auf dem See) lassen die großflächigen Hebungen und Senkungen der Eisdecke auf schnell fahrende Fahrzeuge schließen, kleinere (unten im Bild) auf langsame ©DLR

Die Studie des CCMEO konzentrierte sich auf die Winterstraße Tibbitt-to-Contwoyto in den nordwestlichen Territorien Kanadas. Auf dem Radarbild wird eines der Ergebnisse sichtbar: Schnell fahrende Fahrzeuge führen zu wellenförmigen Hebungen und Senkungen der Eisdecke. Vor allem in flachen Gewässern kann dies zu gefürchteten Eisdurchbrüchen führen, also den sicheren Verkehr gefährden.

Die Abbildung wurde – unter Verwendung der Methode der differentiellen SAR-Interferometrie – aus zwei TanDEM-X-Datensätzen, die im Abstand von zehn Sekunden aufgenommen wurden, erzeugt. Durch den Zeitabstand ist es möglich, vertikale Verschiebungen der Eisbedeckung, die durch den Verkehr verursacht werden, im Zentimetermaßstab mit einer hohen Detaildichte und -genauigkeit zu erkennen. Dies wird bis jetzt von keiner anderen Technologie erreicht.

Somit ist klar: Radarsatelliten wie TanDEM-X sind nützliche Werkzeuge zur Sammlung von Informationen. Sie unterstützen also das Eisstraßenmanagement durch ihre Fähigkeit, die Eisstraßen in der Dunkelheit des Winters und unter widrigen Wetterbedingungen bildlich hochgenau zu erfassen. Zudem erlaubt es die Radartechnik die Daten wetterunabhängig zu erheben. Denn Schneefall, Regen sowie Dunkelheit spielen ‒ da sie nicht von der optischen Erkennbarkeit abhängig sind ‒, für Radaraufnahmen keine Rolle. Auch ermöglichen es die relativ langen Wellenlänge der Radarsatelliten, in das Eis hineinzuschauen. Sie können somit Aussagen über die Qualität und Beschaffenheit der Eisbedeckung machen. Eine sehr nützliche Information, um das sogenannte Moving Vehicle Problem, also das Einbrechen der Lastwägen, zu verhindern.

EXPERTISE AUS DEUTSCHLAND

Die Wissenschaftler des Instituts für Hochfrequenztechnik und Radarsysteme des Deutschen Zentrums für Luft- und Raumfahrt (DLR) sind für ihre speziellen Radartechnologien und Analyseverfahren, die eine hochgenaue Beobachtung von Permafrost ermöglichen, bekannt. Schon im Herbst 2018 kooperierten die Deutschen mit einem kanadischen Team, um den Permafrost in der Antarktis anhand neuester Radartechnologien zu beobachten. Im März 2019 startet nun die DLR-Winterkampagne PermASAR (Permafrost Airborne SAR). Diese soll im Norden Kanadas einen hochmodernen Radar-Datensatz im X-, C- und L-(Frequenz-)Band zur Erdbeobachtung liefern und das Eisstraßenmanagement damit unterstützen.

Auch hat das DLR schon eine mögliche Nachfolgemission zu TanDEM-X entworfen. So sind bei dem Tandem-L-Missionskonzept zwei Radarsatelliten vorgesehen. Sie arbeiten im L-Band (23,6 Zentimeter Wellenlänge) und erfassen dynamische Prozesse auf der Erdoberfläche global und systematisch.

Ziel von Tandem-L ist es, im Wochenrhythmus die Landmasse der Erde vollständig abzubilden. Bislang benötigt TanDEM-X ein ganzes Jahr dafür. Die Entwickler des DLR sind davon überzeugt, dass die Mission neue Maßstäbe in der Erdbeobachtung setzen wird. Sie werden dann vor allem in der Lage sein, den globalen Wandel mit einer neuen Qualität zu beobachten. Dies wiederum ermöglicht wichtige Handlungsempfehlungen. Mit der neuen Technologie könnten die dreidimensionalen Strukturen von Vegetations- und Eisgebieten erfasst sowie Deformationen großflächig mit Millimetergenauigkeit vermessen werden.

Bild oben: Nur für eine kurze Zeit gibt es in Kanadas Wintern die sogenannten „Ice Highways“ – hier der Weg von Inuvik nach Tuktoyaktuk über den Mackenzie River – ©Ronne Heming-NWT Tourism

DIESER ARTIKEL KÖNNTE SIE AUCH INTERESSIEREN

Gletscherschmelze in Grönland, der Antarktis und am Hindukusch

QUALITÄTSSICHERUNG FÜR DAS TANKEN VON WASSERSTOFF

Der Energieträger Wasserstoff gilt in Verbindung mit einer Brennstoffzelle als besonders saubere Alternative in der Mobilität der Zukunft. Doch schon kleinste Verunreinigungen des geruchs- und farblosen Gases können dem Fahrspaß ein jähes Ende bereiten. „Es kann zu einer Vergiftung der Brennstoffzelle kommen“, erklärt Sensor-Experte Andreas Schütze von der Universität des Saarlandes.

Dementsprechend gilt bei Brennstoffzellen wie bei anderen Treibstoffen auch: Stimmen Qualität und Reinheit nicht, wirkt sich das auf das Auto aus. So können Schwefelkomponenten, Ammoniak oder Kohlenwasserstoffe schon während der Produktion, auf dem Weg zur Tankstelle wie auch beim Pressen in die Tanks in den Wasserstoff gelangen. Bereits bei kleinen Verunreinigungen können die Zellmembranen Schaden nehmen. Als Folge produziert die Brennstoffzelle weniger Strom, bringt weniger Leistung und weniger Kilometer auf die Straße. Kommt es hart auf hart, bleibt das Auto sogar mit dauerhaftem Schaden stehen.

ENTWICKLUNG VON INFRAROT-MESSZELLE

Grund genug also für die Wissenschaftler der Universität des Saarlandes sowie dem Saarbrücker Zentrum für Mechatronik und Automatisierungstechnik (Zema) zusammen mit dem Fraunhofer-Institut für Solare Energiesysteme ISE und dem Unternehmen Hydac Electronic eine Infrarot-Messzelle zu entwickeln, die die Qualität und Reinheit des Wasserstoffs direkt beim Tanken überprüft. Denn nur so ist garantiert, dass die Brennstoffzelle guten Treibstoff erhält, so dass dieser dem per Wasserstoff betriebenen Auto eine lange Lebensdauer ermöglicht.

Dazu Schütze: „Die Herausforderungen hierbei liegen zum einen in der erforderlichen Genauigkeit und zum anderen in den Bedingungen, unter denen das Messsystem messen soll. Geballte 700 bis 900 bar Druck lassen die Tanknadel nach weniger als drei Minuten am Anschlag stehen.“

Das von den Forschenden entwickelte Verfahren soll deshalb auch unter diesen extremen Bedingungen verlässlich und exakt arbeiten. Den hohen Druck nutzen sie sogar dazu, um die Empfindlichkeit ihres Systems weiter zu steigern. Für Öl und Flüssigkeiten haben Andreas Schütze und sein Team solche Messzellen bereits zur Marktreife gebracht. Hier aber betreten die Wissenschaftler Neuland. „Bislang gibt es keine Erfahrungen mit Messungen bei derart hohem Druck. Normalerweise erfolgen solche Messungen bei einem Druck von allenfalls 40 oder 50 bar“, so Andreas Schütze. Die Messzelle für das Gas wird direkt in der Tankleitung untergebracht: Der Wasserstoff strömt dabei durch ein Röhrchen. „Hier durchleuchten wir das Gas mit einer Infrarot-Quelle und fangen die Strahlen auf der gegenüberliegenden Seite auf. Wenn sich das Gas chemisch verändert, ändert sich auch das empfangene Lichtspektrum. Hieraus können wir Rückschlüsse auf Beimengungen und Verunreinigungen ziehen“, erklärt Schütze.

ERSTER TEST IM HERBST

Universität des Saarlandes
Ingenieur Marco Schott zeigt den Hochdruck-Prüfstand, der auf der Hannover Messe zu sehen sein wird ©Oliver Dietze

Derzeit führen die Wissenschaftler Experimente durch und ordnen die Messwerte den verschiedenen Verunreinigungen zu. Dabei ergründen sie, welche Wellenlängen des Infrarot-Lichts sich am besten eignen. Zudem kalibrieren sie ihr System. Dies alles sind Vorarbeiten für das Sensorsystem, das diesen Herbst erstmals in der Test-Zapfsäule am ISE in Betrieb gehen soll. „Wir erforschen, ob und wie die Messwerte des Infrarot-Spektrums sich abhängig vom Druck verändern. Das System muss sehr unterschiedliche Verunreinigungen sicher erkennen, die zudem deutlich geringer sind als etwa bei Öl“, erläutert Ingenieur Marco Schott, der als Doktorand an der Wasserstoff-Messzelle arbeitet. Zu sehen ist der Hochdruck-Prüfstand vom 1. bis 5. April auf der Hannover Messe am saarländischen Forschungsstand B46 in Halle 2. Bis das neue Sensor-System auf den Markt kommt, wird Wasserstoff übrigens noch aufwändig und punktuell durch Stichproben und Analysen in Laboren untersucht.

Bild oben: An den Wasserstoff-Tankstellen des Fraunhofer ISE soll der Infrarot-Sensor zur Qualitätskontrolle des Gases getestet werden ©Fraunhofer ISE

DIESER ARTIKEL KÖNNTE SIE AUCH INTERESSIEREN

Forschungsprojekt: Erneuerbare Energie chemisch speichern

Mit Wasserstoff gegen den Strom schwimmen

Fokus auf mehr als nur elektrisches Fahren

Siemens setzt mit Brennstoffzellenpartnerschaft auf eine Null-Emissions-Strategie auf See

AMAZONASWALD KANN RESILIENZ TRAINIEREN – DOCH KLIMAWANDEL UND RODUNG ALS GEFAHR

Keine Frage: beim globalen Klimaschutz hat der Amazonaswald als größter zusammenhängender Regenwald eine bedeutende Rolle inne. Mit einer derzeitigen Fläche von etwa 7.500.000 km² bedeckt er etwa zwei Drittel Südamerikas. Dank seiner Größe gilt das Amazonas-Becken als größte Kohlenstoffsenke der Welt. Denn hier wird ungefähr so viel Kohlenstoff gespeichert, wie in rund zehn Jahren auf der ganzen Erde freigesetzt wird. Wissenschaftler des Potsdam-Institut für Klimafolgenforschung (PIK) sowie der Federal University of Santa Catarina (UFSC) haben nun noch eine weitere erstaunliche Eigenschaft entdeckt: Der Amazonaswald kann sozusagen durch wechselhafte Regenfälle trainiert werden. Das heißt, die Regionen des Waldes, in denen die Regenmengen stärker schwanken, sind widerstandsfähiger gegen heutige und zukünftige Klimastörungen.

KOMBINATION AUS ANALYSE UND BEOBACHTUNGSDATEN

„Angesichts der enormen Bedeutung des Amazonas-Regenwaldes für unser Klima und die Artenvielfalt ist es erstaunlich, wie wenig wir immer noch über seine Fähigkeit wissen, sich im Laufe der Zeit an veränderte Umweltbedingungen anzupassen“, stellt Leitautorin Catrin Ciemer vom PIK fest und ergänzt: „Wir haben einen Mechanismus entdeckt, der die Widerstandsfähigkeit des Ökosystems mitbestimmt. Dabei haben wir herausgefunden, dass Regionen des Amazonas-Regenwaldes, die stärker wechselnden Regenmengen ausgesetzt waren, offenbar mehr Widerstandskraft haben gegen Klimastörungen.“

Basierend auf Daten zum Niederschlag und zur Baumbedeckung im brasilianischen Amazonasbecken ermittelten die Wissenschaftler die Stabilität verschiedener Vegetationstypen in Abhängigkeit der Regenmengen und identifizierten auf diesem Weg kritische Schwellenwerte, jenseits derer die Vegetation von einem Wald zu einer Savanne, also einem tropischen Grasland, wechseln kann. In diesem Kontext entdeckten die Forscher nun den oben erwähnten Trainingseffekt.

„Wir konnten dieses bislang unbekannte dynamische Stabilitätsverhalten quantifizieren, indem wir moderne Techniken [mathematische Methoden] der Analyse nicht-linearer Systeme kombiniert haben mit modernsten Beobachtungsdaten [Satellitendaten]“, erklärt Jürgen Kurths, Leiter des PIK-Forschungsbereichs Komplexitätsforschung und Ko-Autor der Studie. Marina Hirota von der UFSC, ebenfalls Ko-Autorin der Untersuchung, ergänzt: „Wir entwickeln und nutzen innovative mathematische Methoden, um reale Probleme zu untersuchen, die enorme Auswirkungen auf Menschen auf dem ganzen Planeten haben. Denn klar ist: der Amazonas-Regenwald ist von großer Bedeutung für globale CO2- und Wasserkreisläufe und steht in Wechselwirkung mit einer Reihe anderer kritischer Elemente [denkbar ist z.B. das südamerikanische Monsunsystem] des Erdsystems.“

GRAVIERENDE ÄNDERUNGEN ERWARTET

So erlaube es der Ansatz zu erkennen, welche Regionen anfälliger für zukünftige Veränderungen des Niederschlags sein könnten, unterstreicht Ricarda Winkelmann, Leiterin des PIK FutureLab ‚Earth Resilience in the Anthropocene‘ und ebenfalls Ko-Autorin der Studie. Weniger ‚trainierte‘ Regionen, die nicht an häufige Änderungen der Niederschläge gewöhnt sind, werden dabei besonders betroffen sein. Die Analyse zeigt, dass in einem Business-as-usual-Szenario in Bezug auf den Ausstoß von Treibhausgasen eine große zusammenhängende Region im südlichen Amazonasgebiet Gefahr laufen könnte, vom Wald zur Savanne zu werden.

Noch ist unklar, wie viel Veränderung die Amazonasregion verkraften kann. So ist der Amazonaswald einerseits ein sehr altes Ökosystem, das sich über Millionen von Jahren entwickelte und sogar Eiszeiten überlebte. Es konnte sich also über lange Zeiträume anpassen. Aber heute ist es fraglich, ob es dem Tempo des fortschreitenden Klimawandels gewachsen ist.

Deshalb sind die Forschenden trotz der positiven Erkenntnis zur Anpassungsfähigkeit in großer Sorge um die Zukunft des Waldes. Denn dem einzigartigen System droht nun durch menschlichen Einfluss und durch den weltweiten Klimawandel ein großflächiges Absterben ‒ mit weitreichenden Folgen für seine Funktion als globale CO2-Senke. Zwar speichert eine wärmere Atmosphäre grundsätzlich mehr Feuchtigkeit, doch wird es im Amazonasbecken wahrscheinlich vermehrt Dürren geben, die die Baumsterblichkeit und das Brandrisiko erhöhen könnten.

Niklas Boers, Koautor der PIK-Studie fügt noch ein weiteres großes Problem, das der Erhaltung des Amazonas Regenwaldes entgegenwirkt, hinzu: So stellen die großflächigen Rodungen, die zur Umwandlung der Naturlandschaft in Weidelandschaft für Rinder zur Fleischerzeugung geschehen, eine ernsthafte Bedrohung für den Regenwald dar. Das bedeutet, dass die aktuelle Forstpolitik Brasiliens und anderer Länder die Frage der Widerstandsfähigkeit des Regenwaldes bedeutungslos machen könnte. „Mit oder ohne Widerstandsfähigkeit gegen Klimastörungen: Es gibt keine Möglichkeit, sich an Motorsägen anzupassen,“ fasst er die aktuelle Situation zusammen.

Die Studie wurde Ende Februar in Nature Geoscience veröffentlicht.

Bild oben: Der Amazonaswald ist resilienter als gedacht ©Pixabay

DIESER ARTIKEL KÖNNTE SIE AUCH INTERESSIEREN:

CO2-Aufnahme bei jungen Wäldern um 25 Prozent erhöht

KI UNTER DER LUPE: KLUGER HANS ODER KLEVERE ENTSCHEIDUNG?

Forschende der Technischen Universität Berlin (TU Berlin), des Fraunhofer Heinrich-Hertz-Instituts (HHI) und der Singapore University of Technology and Design untersuchten kürzlich, wie verschiedene KI-Systeme zu ihren Ergebnissen kommen. Denn bislang war es der Wissenschaft meist verborgen, ob es sich wirklich um eine intelligente Lösung oder nur um einen statistisch erfolgreichen Weg handelte. Unter dem Aspekt, dass KI nicht nur als digitaler Sprachassistent oder Übersetzer genutzt wird, sondern sie auch im Bereich der medizinischen Diagnostik sowie des autonomen Fahrens eingesetzt wird, ist ein Blick auf die Funktionsweise der Lernalgorithmen ein relevanter Faktor.

EXPLAINABLE AI

Für ihre Arbeit entwickelten die Forscher ein Verfahren, anhand dessen sie KI Systeme analysieren und quantifizieren können. „Diese sogenannte ‚explainable AI‘ [erklärbare Künstliche Intelligenz] ist einer der wichtigsten Schritte für die praktische Anwendung und Verbreitung von KI“, so Dr. Klaus-Robert Müller, Professor für Maschinelles Lernen an der TU Berlin: „Insbesondere in der medizinischen Diagnostik oder in sicherheitskritischen Systemen dürfen wir keine KI-Algorithmen mit unsicheren Problemlösungsstrategien oder sonstige KI-Schummel-Kandidaten einführen.“

Wichtigste Voraussetzung für diese spezielle, automatisierte Technologie ist eine von der TU Berlin und dem HHI entwickelte Technik namens „Layer-wise Relevance Propagation“ (LRP). Diese macht sichtbar, aufgrund welcher Kriterien KI-Systeme Entscheidungen treffen.

Als Weiterentwicklung der LRP-Technologie gilt die „Spectral Relevance Analysis“ (SpRAy). Erst mit ihr wird das breite Spektrum der erlernten Entscheidungsverhalten identifiziert und quantifiziert. Ob naive Problemlösung, Schummel-Strategie oder hochelaborierte, intelligente und strategische Entscheidung – die Wissenschaftler stellten verschiedene KI-Algorithmen auf die Probe. So konnten auch bei sehr großen Datensätzen unerwünschte Lösungen ausgemacht werden.

Dazu Dr. Wojciech Samek, Gruppenleiter am Fraunhofer HHI: „Wir waren sehr erstaunt über die große Bandbreite der gelernten Problemlösungsstrategien. Selbst moderne KI-Systeme haben nicht immer einen aus menschlicher Perspektive sinnvollen Lösungsweg gefunden, sondern nutzten bisweilen sogenannte ‚Clever-Hans-Strategien‘.“

Der Kluge Hans (Clever Hans) war ein Pferd des Schulmeisters und Mathematiklehrer Wilhelm von Osten, das angeblich rechnen und zählen konnte. In den Jahren um 1900 galt Hans als wissenschaftliche Sensation. Denn in 90 Prozent der Fälle beantwortete der feinfühlige Orlow-Traber durch das Klopfen mit einem Huf oder durch Nicken beziehungsweise Schütteln des Kopfes zum Beispiel arithmetische Aufgaben richtig. Später stellte sich heraus, dass Hans zwar nicht rechnen konnte, aber er seine richtige Antwort aus der Körperreaktion des Fragestellers ableitete.

Diese Heatmap zeigt: Der Algorithmus trifft die Entscheidung Zug oder nicht Zug anhand der Schienen-Bildpunkte und nicht anhand derer, die den Zug ausmachen.
©Nature Communications/CC BY

Lösungsstrategien, die denen des kleveren Hans entsprechen, konnten die Forscher um Klaus-Robert Müller und Wojciech Samek auch bei KI-Systemen finden. So verfolgte zum Beispiel eines, das sogar vor einigen Jahren mehrere internationale Wettbewerbe zur Klassifikation von Bildern gewonnen hatte, eine aus menschlicher Sicht naive Lösungsstrategie: Es klassifizierte Bilder vorwiegend anhand des Kontextes. Dabei wurden zum Beispiel Bilder der Kategorie „Schiff“ zugeordnet, wenn viel Wasser im Bild zu sehen war. Andere Bilder wurden als „Zug“ klassifiziert, wenn Schienen vorhanden waren. Wieder andere Bilder wurden anhand des Copyright-Schriftzuges der richtigen Kategorie zugeordnet. Die eigentliche Aufgabe, nämlich Schiffe oder Züge zu erkennen, hat dieses KI-System nicht gelöst. Doch immerhin: die Mehrzahl der Bilder konnte es im Endeffekt korrekt klassifizieren.

Auch die sogenannten „tiefen neuronalen Netzwerke“ nutzen diese Art der fehlerhaften Lösungsstrategie. Denn sie stützen ihre Klassifikations-Entscheidung zum Teil auf Artefakte, die während der Präparation von Bildern entstanden, aber mit dem eigentlichen Bildinhalt gar nichts zu tun haben.

NAIVE KI FÜR DIE PRAXIS UNBRAUCHBAR

„Solche KI-Systeme sind für den praktischen Einsatz völlig unbrauchbar. Ihr Einsatz in der medizinischen Diagnostik oder in sicherheitskritischen Bereichen birgt sogar enorme Gefahren“, warnt Klaus-Robert Müller: „Es ist durchaus denkbar, dass ungefähr die Hälfte der aktuell eingesetzten KI-Systeme implizit oder explizit solche ‚Clever Hans‘-Strategien nutzen. Es ist Zeit, das systematisch zu überprüfen, damit sichere KI-Systeme entwickelt werden können.“

Mit der neuen Technik konnten aber auch KI-Algorithmen identifiziert werden, die unerwartet „intelligente“ Strategien anwandten. Dazu gehören Systeme, die zum Beispiel in der Lage sind, die Atari-Spiele „Breakout“ – hier wird mit einem virtuellen Schläger der Ball so gelenkt, dass er die am oberen Bildschirmrand erscheinenden Bauklötze wegschießt –, und „Pinball“ (virtuelles Flipperspiel) zu spielen.

„Hier haben die KI-Systeme ganz klar das Konzept des Spiels ‚verstanden‘ und einen intelligenten Weg gefunden, zielgerichtet und risikoarm sehr viele Punkte zu sammeln. Dabei schlägt das System bisweilen Wege ein, die ein echter Spieler nicht nutzen würde“, so Wojciech Samek.

Die automatisierte Technik steht als Open Source allen Wissenschaftlern und Wissenschaftlerinnen zur Verfügung. „Wir sehen unsere Arbeit als einen wichtigen ersten Schritt, KI-Systeme in Zukunft robuster, erklärbar und sicher zu machen. Denn das ist die wesentliche Voraussetzung für den Einsatz von KI überhaupt“, so Klaus-Robert Müller.

Bild oben: Die Heatmap zeigt: Allein aufgrund der vorhandenen Wasser-Bildpunkte – also anhand des Kontextes -, vermutet der Algorithmus, dass das Gebilde ein Schiff ist – er nutzt nicht die Bildpunkte, die das Schiff ausmachen. ©Nature Communications/CC BY

Dieser Artikel erschien am 11. März in der Innovation Origins.

DIESER ARTIKEL KÖNNTE SIE AUCH INTERESSIEREN

Gratwanderungen: Künstliche Intelligenz in der Medizin

Menschliches Gehirn inspiriert Forscher bei Künstlicher Intelligenz

EXPEDITION ZUM LARSEN-C-SCHELFEIS ABGEBROCHEN

Nun ist es beschlossene Sache: Das Larsen-C-Schelfeis bewahrt vorerst sein Geheimnis. Die aktuelle Meeressituation verhindert derzeit ein Weiterkommen des AWI-Forschungseisbrechers Polarstern. Denn das dichte Meereis hat sich mittlerweile zu einem bis zu zehn Meter dicken Presseisrücken übereinandergeschoben. Dazu Polarstern-Kapitän Thomas Wunderlich: „Wir haben sieben Tage versucht, uns einen Weg durch das Eis zu brechen, mussten aber einsehen, dass die Eisbedingungen keine andere Entscheidung zuließen, als weiter im Norden bessere Meereis- und Arbeitsbedingungen zu suchen.“

Zwar hatte die Meereisausdehung in der Antarktis Ende Dezember mit 4,94 Millionen Quadratkilometern den für diesen Monat niedrigsten Wert seit Beginn der kontinuierlichen Satellitenmessungen inne. Doch konnte die Expedition tief im Süden des westlichen Weddell-Meeres nicht davon profitieren.

Das Forschungsteam war am 9. Februar zum Abbruchgebiet des Eisberges A68 aufgebrochen, um hier das bisher unter dem Schelfeis verborgene Meeresökosystem erkunden.

ALTERNATIV WIRD IM NORDWESTLICHEN WEDDELL-MEER GEFORSCHT

Nun steuert das Schiff neue Untersuchungsgebiete weiter nördlich an. „Die vorab definierten alternativen Arbeitsregionen Larsen A- und Larsen-B-Schelfeisgebiet kamen nicht in Frage, denn dort hätten wir genauso in der Mausefalle gesteckt wie im eigentlichen Zielgebiet Larsen-C“, so Dr. Boris Dorschel vom Alfred-Wegener-Institut, Helmholtz-Zentrum für Polar- und Meeresforschung (AWI). Dorschel leitet die Expedition. Nach ausführlichen Gesprächen mit allen Forschungsteams an Bord legten die Wissenschaftler fest, ihre Arbeiten auf eine Region im nordwestlichen Weddell-Meer zu konzentrieren. Entlang eines Transekts, also einer ganzen Reihe von Beprobungsstationen, wollen die Forscher nun untersuchen, wie sich unterschiedliche Umweltbedingungen auf die Ökosysteme am Meeresboden und in der Wassersäule auswirken. So nehmen sie beispielsweise die Meereisbedeckung und die biologische Produktivität in den oberen Wasserschichten unter die Lupe. Die Ergebnisse dieser Arbeiten sollen unter anderem dazu beitragen, die Reaktionen des antarktischen Ökosystems auf den Klimawandel besser zu verstehen. „Mittlerweile konnten wir etliche Probennahmegeräte in der Wassersäule und am Meeresboden einsetzen, so dass die Labore voller Wissenschaftler sind, die eifrig die Mikroalgen sowie die am Boden und in der Wassersäule lebenden Tiere untersuchen“, freut sich Expeditonsleiter Dorschel.

Zudem wird das Expeditionsteam versuchen, entstehende Kanäle im Meereis zu nutzen, um im Weddell-Meer weiter nach Osten vorzustoßen. Denn jenseits des Kontinentalschelfs fällt der Meeresboden rasch von etwa 400 Meter auf rund 3000 Meter ab. „Wenn sich ein Fenster ergibt, wollen wir Gebiete ansteuern, da dort der Meeresboden wie in vielen anderen Bereichen des Südozeans noch weitgehend unkartiert ist“, erläutert Dorschel. Neben diesen bathymetrischen Arbeiten, also der Erstellung des Tiefenprofils, sind die Ozeanographen auch daran interessiert, hier Wassermassen und Strömungsverhältnisse zu untersuchen. Denn die in diesem Meeresbereich stattfindenden Umwälzprozesse treiben die globalen Ozeanströmungen an. So werden ‒ auch wenn das Larsen-C-Schelfeisgebiet außer Reichweite bleibt ‒, durch die Expedition PS118 viele spannende Forschungsfragen beantwortet.

Foto oben: Luftaufnahme: Das Expeditionsschiff Polarstern bei einer Fahrt durch antarktisches Meereis, Weddell-Meer ©Mario Hoppmann

Dieser Artikel erschien am 8. März in der Innovation Origins

DIESER ARTIKEL KÖNNTE SIE AUCH INTERESSIEREN

Antarktis: Forscherteam erkundet Leben unter dem Eisberg A68

Neumayer-Station III: Zehn Jahre deutsche Antarktisforschung

Gletscherschmelze in Grönland, der Antarktis und am Hindukusch

NIEDERLANDE UND DEUTSCHLAND: WISSENSCHAFTSKOOPERATION ZU KÜSTEN-, MEERES- UND POLARFORSCHUNG UNTERZEICHNET

Im Rahmen eines Besuchs des niederländischen Königspaares mit seiner Majestät König Willem-Alexander und ihrer Majestät Königin Máxima unterzeichneten niederländische und deutsche Wissenschaftler eine Erklärung zur Wissenschaftskooperation im Bereich der Küsten-, Meeres- und Polarforschung. Fokus liegt dabei auf den Themen Klimawandel, Artenvielfalt und Naturschutz. Zuvor hatten niederländische und deutsche Wissenschaftler in einem Symposium diese Themen ausgiebig diskutiert. Dazu Antje Boetius, Direktorin des AWI: „Als Küstenanrainer und international wichtige Akteure in der Meeresforschung stehen beide Länder vor großen Herausforderungen, die der Klimawandel mit sich bringt – für die Wissenschaft wie für die Gesellschaft insgesamt.“ Boetius ergänzt: „So beschäftigen uns der Meeresspiegelanstieg und die Erwärmung und Versauerung der Ozeane sowie die Auswirkungen des Wandels auf das Leben im Meer. Gemeinsam sind wir besonders stark im Verständnis der Rolle des Ozeans und der Polarregionen für die Erde und den Menschen.“

SYMPOSIUM ZU UMWELT- UND KLIMATHEMEN

An dem Symposium des Alfred Wegener Instituts nahmen insgesamt über 50 Forschende von der Royal Netherlands Organisation for Scientific Research (NWO), der Universität Utrecht, dem Institute for Sea Research (NIOZ), dem MARUM Zentrum für Marine Umweltwissenschaften der Universität Bremen und dem Alfred-Wegener-Institut teil. Während der Veranstaltung diskutierten die Wissenschaftler Themenfelder wie „Wandel in Arktis und Antarktis“, „unsere Küsten“ sowie „der globale Kohlenstoffkreislauf und das Klima“.

AWI-Biogeologe und Organisator des Symposiums Jelle Bijma freut sich über das gelungene deutsch-niederländische Zusammentreffen: „Im Symposium hatten wir die Chance, ‚out-of-the-box‘ zu denken. So trugen wir beispielsweise zusammen, welche Veränderungen wir zukünftig im System Erde erwarten. Dazu gehören Themen wie: Was bedeutet es für die Meeresökosysteme, wie schnell ändert sich der Meeresspiegel und welche Teile des Klimasystems gehen unwiderruflich verloren, wenn die globale Erwärmung ungebremst voranschreitet, sodass wir bis Ende des Jahrhunderts einen Temperaturanstieg von 4-6°C haben?“

Zudem diskutierten die Wissenschaftler die Frage, welche Funktionen im Vergleich dazu erhalten werden könnten, wenn das 2°C-Ziel eingehalten wird oder wir es sogar schaffen, den Anstieg auf 1,5 °C zu begrenzen. Auch wurden die Bekämpfung von Mikroplastik in unserer Umwelt und das Überfischen der Meere sowie die wissenschaftlichen Möglichkeiten, die ein besserer Zugang zur Nordpolregion eröffnen kann, besprochen. Nicht zuletzt betrachteten die Wissenschaftler auch eventuelle politische Auswirkungen, die sich aufgrund von Klima- und Umweltveränderungen ergeben könnten.

JÄHRLICHER BESUCH DES KÖNIGSPAARES

Das niederländische Königspaar besucht übrigens jedes Jahr ein oder zwei deutsche Bundesländer. Dabei gilt das besondere Augenmerk den Wirtschaftsbeziehungen. Der Besuch in Bremen soll dazu beitragen, die Möglichkeiten für wirtschaftliche Kooperation, auch im internationalen Rahmen, zu erweitern. Die Themenfelder Raumfahrt, Windenergie sowie Polar- und Meeresforschung bieten dafür gute Anknüpfungspunkte.

Der ehemalige deutsche ESA Astronaut Thomas Reiter berichtet dem Königspaar von der Arbeit in der Raumstation ISS ©Airbus

Neben der Wissenschaftskooperation stand auch der Besuch des Airbus Defence & Space Bremen auf dem royalen Programm. Themen waren hier die Bedeutung der Raumfahrttechnologie für die Wissensökonomien beider Länder. So ging es beispielsweise um die gemeinsame Nutzung von Satellitendaten, die bei der Suche nach Lösungen für grenzüberschreitende gesellschaftliche Herausforderungen wie Klimawandel und Luftqualität helfen können. Auch besuchte das Königspaar das europäische Modul der Raumstation ISS. Hier berichtete der ehemalige deutsche Astronaut Thomas Reiter von der Arbeit in der Raumstation.

Majestät König Willem-Alexander und Ihre Majestät Königin Máxima zu Besuch im IWES; von links nach rechts: Institutsleiter Prof. Andreas Reuter, Bremerhavens Stadtverordnetenvorsteherin Brigitte Lückert, OB Melf Grantz, das niederländische Königspaar, Bremens Bürgermeister Carsten Sieling mit seiner Gattin Alexia Sieling ©Martina Buchholz

Deutsche und niederländische Unternehmen gelten übrigens als Vorreiter bei der Entwicklung von kosteneffizienten Off-Shore-Windenergiesystemen für die europäische Energiewende. Grund genug für das Königspaar, das Fraunhofer-Institut für Windenergiesysteme (IWES) in Bremerhaven zu besuchen. Denn das IWES verfügt über eine der größten Testanlagen für Rotorblätter weltweit. Zudem fand hier der deutsch-niederländische Kongress „Market Place: Offshore Wind in the Netherlands and Germany“ statt. Im Rahmen dieser Veranstaltung wurde eine Kooperationsvereinbarung zwischen dem niederländischen Wind-Network NNOW und dem deutschen Branchennetzwerk WAB e.V. unterzeichnet.

Bild oben: Unterzeichnung der Wissenschaftskooperation im Beisein von König Willem-Alexander und Königin Máxima der Niederlande, Karsten Sieling und Alexia Sieling (stehend); Zeichnende: Niek Lopes-Cardozo (Royal Netherlands Organisation for Scientific Research – NWO), Henk Brinkhuis (Institute for Sea Research – NIOZ), Anton Pijpers (Universität Utrecht), Michael Schulz (MARUM Zentrum für Marine Umweltwissenschaften der Universität Bremen) und Antje Boetius (AWI) ©Esther Horvath

Dieser Artikel erschien am 7. März in der Innovation Origins.

EVOLUTIONSBIOLOGIE UNTER NEUER PERSPEKTIVE

Anhand von farbenfrohen Hamletbarschen erforschten Wissenschaftler des GEOMAR Helmholtz-Zentrums für Ozeanforschung Kiel und des Smithsonian Tropical Research Institute in Panamaeine der grundlegenden Fragen der Evolutionsbiologie: „Wie können neue Arten im Meer entstehen?“ Dies ist besonders unter dem Aspekt interessant, dass die karibischen Riffbarsche eigentlich nahe beieinander leben und sich auch weiterhin miteinander fortpflanzen können.

Die Forschenden entdeckten bei ihren Untersuchungen, wie die natürliche Selektion auf die Weiterentwicklung von Genen im Bereich der visuellen Wahrnehmung und damit einhergehend der Ausprägung von Farbmustern wirkt. So ist es zumindest bei den Hamlets der Fall, dass die blaue Fischart meistens blaue Partner bevorzugt, während die rote Art eher auf rote Partner anspricht. Das heißt, die einzigartige Farbgebung bedingt auch die Vorliebe für die Ausprägung dieser Farbeigenschaft bei der Partnerwahl.

Dies ist einer der Gründe, warum die Forschung lange vermutete, dass sich neue Arten nur in absoluter Isolation und ohne Kreuzung entwickeln können. Sofern sich in diesem Falle beide Arten untereinander vermischten, ging man davon aus, dass hier die codierten Merkmale zwischen Farb- und Paarungsvorlieben, die sogenannte Kopplung, durch die sexuelle Rekombination – die Neuanordnung von genetischem Material in den Zellen –, zerstört wird. In Folge dessen hätten rote Individuen eine Präferenz für blaue Partner und umgekehrt.

VERWANDTE ARTEN MIT DEUTLICHEN CHARAKTERISTIKA

Ein gestreifter Hamletbarsch (Hypoplectrus puella) vor der Küste Panamas ©Kosmas Hench/GEOMAR

Doch stellten die Wissenschaftler um Oscar Puebla, Professor am GEOMAR Helmholtz-Zentrum für Ozeanforschung in Kiel, in Zusammenarbeit mit Kolleginnen und Kollegen am Smithsonian Tropical Research Institute (STRI), fest, dass bei der natürlichen Selektion miteinander verwandter Arten codierte Merkmale für Farbmuster und Paarungspräferenzen eben nicht neu kombiniert werden.

Für ihre Untersuchungen hatten die Wissenschaftler einige Hürden zu meistern: „Die erste Herausforderung unserer Studie bestand darin, eine Tiergruppe zu finden, in der sich erst vor kurzer Zeit neue Arten entwickelt haben, die aber deutliche Charakteristika aufweisen“, so Puebla. Genau so eine Gruppe bilden die Hamletbarsche. Mehrere eng verwandte Arten von ihnen leben an den Riffen der gesamten Karibik. Die einzelnen Arten sind genetisch sehr ähnlich. Ihr Hauptunterschied ist das jeweilige Farbmuster, während die Präferenz für verschiedene Farbmuster bei der Paarung die Arten getrennt hält.

IDENTIFIZIERUNG DER GENE

Für die Forschenden galt es zudem, die Gene zu identifizieren, die den Unterschied zwischen den Arten und den Paarungspräferenzen ausmachen. Hierfür sequenzierten die Wissenschaftler zunächst das gesamte Genom von 110 Riffbarschen aus Panama, Belize und Honduras. Im Anschluss untersuchten sie bei den Fischen, worin sich das Genom unterscheidet. Denn alle drei untersuchten Arten leben zusammen in denselben Riffen.

„Dieser umfassende Datensatz ermöglichte es uns, vier eng begrenzte Regionen des Genoms zu identifizieren, die bei allen Arten deutliche Unterschiede aufzeigten, während der Rest des Genoms bei allen Arten kaum Differenzierung zeigte“, erklärt Kosmas Hench, Doktorand am GEOMAR und Erstautor der Studie. Denn genau diese vier Regionen beinhalten die Gene, die die visuelle Wahrnehmung sowie die Farbmuster der Fische beeinflussen.

Obwohl sich die Arten untereinander paaren, zeigen die Daten, dass die Konstellationen der Seh- und Farbmustergene sich nicht verändern. Die entsprechenden Gene sind also gekoppelt (haben codierte Merkmale) und sind so vor sexueller Rekombination (Neuordnung von genetischem Material) geschützt. Das Besondere an dem Ergebnis ist zudem, dass sich die Gene im Fall der Hamletbarsche auf drei verschiedenen Chromosomen befinden. Bisher kannte man solche Gen-Koppelungen nur, wenn die Gen-Sätze auf einem Chromosom sehr nahe beieinander lagen. So konnte das Team zeigen, wie die natürliche Selektion zur Entstehung neuer Formen in einer sehr frühen Phase der Artenbildung beitragen kann.

WEITERE FORSCHUNGEN

Die Wissenschaftler vermuten, dass ihre Ergebnisse auch noch auf andere Arten übertragbar sind. Doch dafür bedarf es zusätzlicher Untersuchungen, weshalb als nächster Schritt weitere der bisher 19 beschriebenen Hamlet-Arten erforscht werden sollen. Damit wollen die Wissenschaftler herausfinden, ob sich das gefundene Muster allgemein durch die Familie der Hamletbarsche zieht, oder ob es einen Spezialfall der drei untersuchten Arten darstellt.

Grundsätzlich ist übrigens denkbar, dass die natürliche Selektion auch bei anderen Faktoren, die der Partnerwahl dienen, funktioniert. So ist es möglich, dass hier eventuell auch Geruch, Größe oder das Verhalten wirken. Die Studie erschien Anfang März in der Fachzeitschrift Nature Ecology and Evolution.

Bild oben: Professor Oscar Puebla bei Feldarbeiten im Lebensraum der Hamletbarsche vor Puerto Rico ©Kosmas Hench/GEOMAR

Dieser Artikel erschien am 5. März in der Innovation Origins.

ENTWICKLUNG VON SCHNELLLADESYSTEM FÜR PEDELECS

Ob ambitionierter Mountain-Biker oder gemütlicher Stadt-Cruiser: Wer einmal Pedelecs gefahren ist, mag sie nicht mehr missen. Denn zu angenehm ist das Gefühl, jederzeit auf den bequemen Antrieb zurückgreifen zu können. Wenn da nicht das Problem mit dem Laden des Akkus wäre. Derzeit dauert eine vollständige Ladung zwei bis vier Stunden. Das heißt also: man muss eine lange Pause machen, um weiterfahren zu können.

Doch dies könnten sich bald ändern: Das Karlsruher Institut für Technologie (KIT) und die auf E-Mobility spezialisierte Coboc GmbH & Co. KG arbeiten derzeit an einem Schnellladeverfahren für E-Bikes beziehungsweise Pedelecs für die Stadt. Die elektrisch betriebenen Zweiräder unterscheiden sich übrigens im Antrieb: E-Bikes fahren schon per Knopfdruck los und bei Pedelecs (Pedal Electric Cycle) startet der Antrieb durch das Treten der Pedale.

KOMPAKTER AKKU FÜR DIE STADT

Das Schnellladesystem setzt auf besonders langlebige Lithium-Ionen-Zellen und einen vergleichsweise starken Ladestrom von bis zu zehn Ampere ©Lea de Biasi/Steffen Jokisch, KIT

Bei einem City-Bike reicht meist eine kleinere Batterie mit geringerer Reichweite. Dies macht ein Stadt-Pedelec erstens günstiger als andere elektrisch betriebene Bikes und zweitens schont es die Umwelt. Doch sollten mal weitere Strecken zurückgelegt werden, wäre eine Schnellladung von Vorteil. Gerade bei einer kompletter Akku-Entladung ist das bisher noch nicht möglich. „Deswegen wollen wir ein Schnellladesystem für E-Bikes entwickeln, das kompakt und leistungsfähig ist, aber auch nutzer- und umweltfreundlich“, erklärt Nicolaus Lemmertz, Wissenschaftler am Elektrotechnischen Institut (ETI) des KIT und Leiter des Projektes.

Das neue Schnellladeverfahren soll auf Lithium-Ionen-Zellen mit hoher Lebensdauer basieren. Zudem soll es über einen vergleichsweise starken Ladestrom von bis zu zehn Ampere verfügen und an normalen 230-Volt- Steckdosen  bei einem komplett leeren Akku  in weniger als einer Stunde aufgeladen werden können. Die Zwischenladung wäre dann entsprechend kürzer.

Zudem soll das Batterie-Managementsystem eine Diagnosefunktion erhalten. Dieses soll während der Nutzung des E-Bikes die gemessenen Daten über eine Internet-of-Things-Lösung (IoT) erfassen, analysieren und in die interne Cloud des Radherstellers Coboc streamen. Die Daten geben Aufschluss über den Ladezustand der Batterie, den sogenannten State of Charge (SOC), sowie ihren Gesamtzustand im Vergleich zu einem neuen Akku, also den State of Health (SOH). Beide Kennwerte bedingen einander.

Die Ergebnisse der Datenauswertung werden dem Nutzer sowie Hersteller grafisch aufbereitet zur Verfügung gestellt. Dies ermöglicht eine kontinuierliche Optimierung des E-Bikes, eine entsprechende Anpassung des Gesamtsystems und im Sinne einer vorausschauenden Wartung auch stets aktuelle Informationen über den Batteriestatus.

VOLLINTEGRIERTER EINBAU

Der Akku soll übrigens vollintegriert im Rahmen verbaut werden. Dies hilft Gewicht und somit Kosten zu sparen. Auch ermöglicht diese Bauweise eine bessere Wärmeabfuhr. Doch der größte Vorteil ist sicher die höhere Betriebssicherheit. Denn es werden weniger Stecker und Kontaktstellen, die zu Bruch und Korrosion führen können, benötigt. Einziger Nachteil ist, dass der Austausch des Akkus durch den Nutzer nicht möglich ist.

Innerhalb des Projektverbunds übernimmt das KIT unter anderem die Auswahl und Bewertung der infrage kommenden Lithium-Ionen-Zellen. Auch ist das Institut für die Lebensdaueruntersuchung ausgewählter Zellen sowie die Entwicklung des Schnellladeverfahrens und eines Diagnosesystems, das den Lade- sowie Gesamtzustand der Batterie (SOC und SOH) umfasst, verantwortlich.

GEFÖRDERT VOM BMWI

Coboc hingegen obliegt die Anforderungsanalyse und Entwicklung des Betriebs-Managementsystems. Auch zeichnet sich das Unternehmen für die Implementierung des IoT-Systems mit dem dazugehörigen Server Back End sowie die Hardware und deren Integration im Elektrofahrrad verantwortlich. „Durch den Vertrieb von E-Bikes mit einem solchen smarten System können wir nicht nur unseren Marktanteil erhöhen, sondern auch für mehr Nachhaltigkeit sorgen“, betont Coboc-Geschäftsführer David Horsch. Das Projekt wird im Rahmen des Zentralen Innovationsprogramms Mittelstand des Bundesministeriums für Wirtschaft und Energie (BMWi)gefördert und läuft noch bis Ende September 2021.

In dieser Zeit werden an einem Prototypen erste Feldtests durchgeführt. Zwar ist noch kein genauer Markteinführungstermin bekannt, doch er wird sicherlich im Anschluss an das Projekt angestrebt.  Übrigens: Wer die Reichweite seines Akkus erhöhen möchte, der kann sich mit vorauschauendem Verhalten behelfen. Dazu gehören zum Beispiel auf ausreichend Reifendruck zu achten, möglichst wenig Gewicht zu transportieren, im gemäßigten Modus anzufahren und auch eine möglichst ebene Fahrtstrecke zu wählen. Und, gut zu wissen: Wenn der Akku nicht ständig komplett entladen wird, hält er länger.

Bild oben: Das KIT entwickelt zusammen mit dem Unternehmen Coboc ein Schnellladesystem für Pedelecs ©ChristianMetzler

Dieser Artikel erschien am 4.3.2019 in der Innovation Origins.

DIESE ARTIKEL KÖNNTEN SIE AUCH INTERESSIEREN:

Convercycle: Vom City-Bike zum Lastenrad

Siegeszug des E-Bikes bei Paketdiensten

FORSCHUNGSPROJEKT: ERNEUERBARE ENERGIE CHEMISCH SPEICHERN

Im Jahre 2050 sollen 80 Prozent des Stroms in Deutschland aus erneuerbaren Energiequellen stammen. Wobei hier Sonne, Wind und Biomasse als die wichtigsten Energielieferanten gelten. Doch sie stehen nicht gleichmäßig zur Verfügung. Denn an wind- und sonnenreichen Tagen fällt mehr Strom an, als in die Netze eingespeist werden kann. Diese fluktuierende Verfügbarkeit ist im Rahmen der Energiewende eine der größten Herausforderungen. Doch lässt sich die Überproduktion aus Windkraft- und Photovoltaikanlagen in Energieträgern wie Wasserstoff oder Kohlenwasserstoffen chemisch speichern. So könnte die elektrische Energie zu einem späteren Zeitpunkt wieder zur Verfügung stehen. Für die Umwandlung der Energieträger in Speichermoleküle wie Methan, Kohlenwasserstoffe oder Alkohole sind Katalysatoren, elektrochemische Zellen und Reaktoren notwendig. Diese müssten in dynamischen Reaktionsbedingungen eingesetzt werden. Wie sich der Einfluss wechselhafter Gegebenheiten von außen – eben durch das Schwanken von Windstärke und Sonneneinstrahlung – auf die katalytischen Reaktionssysteme auswirkt, wurde bislang kaum betrachtet. Denn die chemischen Reaktoren wurden bis jetzt meist stationär betrieben.

„Man weiß jedoch, dass sich die Struktur fester Katalysatoren und damit ihre katalytische Wirkung mit den Reaktionsbedingungen stark ändern kann. Dies ist wissenschaftlich hochspannend“, erklärt Professor Jan-Dierk Grunwaldt von den Instituten für Technische Chemie und Polymerchemie (ITCP) sowie für Katalyseforschung und -technologie (IKFT) des KIT.

RENOMMIERTE FORSCHUNGSEINRICHTUNGEN AUS GANZ DEUTSCHLAND

Mit dem Namen „Schwerpunktprogramm 2080 – Katalysatoren und Reaktoren unter dynamischen Betriebsbedingungen für die Energiespeicherung und -wandlung (SPP 2080, DynaKat)“ ist im Februar 2019 das deutschlandweite, interdisziplinäre Forschungsprogramm der Deutschen Forschungsgemeinschaft (DFG) gestartet. Die DFG fördert das auf insgesamt sechs Jahre angelegte Schwerpunktprogramm DynaKat zunächst für drei Jahre mit 8,5 Millionen Euro.

Die Koordination obliegt als projektstärkstem Partner dem Karlsruher Institut für Technologie (KIT). Zudem sind zahlreiche weitere renommierte Forschungseinrichtungen in ganz Deutschland beteiligt. Darunter das Forschungszentrum Jülich, die TU München und mehrere Max-Planck-Institute wie das Berliner Fritz-Haber-Institut. Insgesamt zwölf große Forschungskonsortien untersuchen in interdisziplinären Verbünden grundlegende und methodische Herausforderungen des dynamischen Betriebs. Die überregionalen Forschungsprojekte untergliedern sich wiederum in 34 Teilprojekte.

DYNAMISCHE BEDINGUNGEN GRUNDLEGEND VERSTEHEN UND VERBESSERN

Die rasante Entwicklung bei spektroskopischen Methoden und im Bereich der Modellierung kombiniert mit neuen Ansätzen im Material- und Reaktordesign bieten für die Forschung exzellente Voraussetzungen. Neuere Untersuchungen belegen zudem, dass sich die Struktur fester Katalysatoren – und damit auch die katalytische Wirkung mit den Reaktionsbedingungen -, stark ändern kann. Dabei besteht zum einen das Potenzial, durch dynamischen Betrieb die Ausbeute der erwünschten Reaktionsprodukte zu erhöhen und Katalysatoren in Ruhephasen zu reaktivieren. Zum anderen müssen die nanostrukturierten Katalysatoren stabilisiert werden. Für eine effiziente Nutzbarmachung dynamischer Reaktionsbedingungen bedarf es daher eines grundlegenden Verständnisses aller beteiligten Prozesse – von der atomaren Skala des Katalysators bis hin zu dreidimensionalen Konzentrations- und Temperaturverteilungen im technischen Reaktor.

„Wir wollen Veränderungen des Materials der Katalysatoren unter dynamischen Bedingungen grundlegend verstehen und verbessern“, beschreibt Dr. Erisa Saraçi, wissenschaftliche Mitarbeiterin am IKFT das Projekt. Dafür werden alle beteiligten Prozesse untersucht, von den Vorgängen auf der atomaren Ebene des Katalysators bis zur räumlichen Verteilung der Stoffkonzentrationen und Temperaturen auf Reaktorebene. Für ein grundlegendes Verständnis der Prozesse und um neue Ansätze im Material- und Reaktordesign zu entwickeln, kommen klassische etablierte Experimente ebenso zum Einsatz wie neueste spektroskopische Methoden und Möglichkeiten der Modellierung.

Der zu erwartende Erkenntnisgewinn soll künftig den effizienten Betrieb katalytischer Systeme unter dynamischen Bedingungen ermöglichen. Das grundlegende Verständnis hierfür wird am Beispiel von Reaktionen zur Energiespeicherung und -wandlung erarbeitet und schafft die Basis für zukünftige technische Anwendungen.

Schematische Darstellung und Überblick über die wissenschaftliche Arbeit im SPP 2080: Mit erneuerbaren Energien werden aus Kohlendioxid und Wasser durch Elektrolyse und katalytische Umsetzung Chemikalien und Kraftstoffe hergestellt. Grafik und ©: Arbeitsgruppe Grunwaldt, KIT

Charakteristisch für alle untersuchten Systeme ist, dass die Dynamik systematisch im Zeitbereich zwischen Sekunden und Tagen von außen aufgeprägt wird. Entweder weil die aufgeprägte Dynamik nur mit großem Aufwand vermieden werden kann (z. B. schwankendes Angebot an elektrischer Energie), oder weil durch den dynamischen Betrieb begründete Vorteile für die Raum-Zeit-Ausbeuten oder Selektivitäten der katalytischen Reaktionen erwartet werden.

OFFEN FÜR NACHWUCHSWISSENSCHAFTLER UND WEITERE FORSCHUNGEN

Die Ergebnisse sind aber auch interessant für andere Bereiche wie Abgaskatalyse,  Selektivoxidationen, Brennstoffzellen, Batterien oder Photokatalyse. Diese Anwendungen sind jedoch ebenso wie rein physikalisch-chemische Studien nicht Gegenstand des Forschungsprojekts. Denn das interdisziplinäre Forschungsvorhaben ist in der Technischen Chemie bzw. der Chemischen Reaktionstechnik lokalisiert und explizit offen für weitere Gebiete der Chemie, Physik oder Materialwissenschaften, die zur Thematik beitragen.

Das Einbeziehen des wissenschaftlichen Nachwuchses spielt im DFG-Schwerpunktprogramm DynaKat ebenfalls eine wichtige Rolle. So steht interessierten Studierenden und Promovierenden ein Blockkurs am KIT zum Thema „Technologien und Ressourcen für Erneuerbare Energien: Von Wind und Solar zu Chemischen Energieträgern“ offen.

„In der Forschung kommt man ohne Netzwerke und Teamarbeit nicht voran, da die einzelnen Teildisziplinen sehr komplex sind“, so Sebastian Weber, Doktorand am IKFT/ITCP. Gerade für den wissenschaftlichen Nachwuchs seien der Austausch und das Zusammenbringen unterschiedlicher Expertisen wertvoll, betonen Saraçi und Weber. „Es geht darum, Kompetenzen zu bündeln und das Themengebiet deutschlandweit voranzutreiben, um darin international führend zu werden“, so Programmkoordinator Grunwaldt.

Bild oben: Energie aus erneuerbaren Quellen speichern – das ist eine der Herausforderungen der Energiewende. ©Pascal Armbruster, KIT

Dieser Artikel erschien am 1.3.2019 in der Innovation Origins.