WAS IST IM VAKUUM? – FORSCHUNGSGRUPPE GEHT DEM „NICHTS“ AUF DIE SPUR

Das Vakuum ist leer, oder? Oder doch nicht? Zumindest nicht für Quantenphysiker. Denn diese gehen davon aus, dass selbst hier noch Teilchen und Anti-Teilchen fluktuieren. Bisher gibt es für diese Annahme noch keinen eindeutigen Beweis. Doch schon die deutschen Physiker Werner Heisenberg und Hans Euler vermuteten Lichtinteraktionsprozesse im vermeintlichen Nichts. Nun haben sich Forschungsgruppen der Universität Jena, des Helmholtz-Instituts Jena (HIJ), der Universität Düsseldorf und der Ludwig-Maximilians-Universität München (LMU) zum Ziel gesetzt, physikalische Prozesse im Quantenvakuum erstmals experimentell nachzuweisen.

LICHT MACHT PHÄNOMENE IM „LEEREN RAUM“ SICHTBAR

„Starke Felder bringen die Quanten zum Wackeln.“ So in etwa beschreiben die Experten ihr Forschungsziel für nicht-Physiker. Genauer gesagt wollen sie Quantenvakuumprozesse, die den Grundzustand der Natur bilden, mit Hochintensitätslasern nachweisen. „Das Besondere an unserem Team ist das enge Zusammenspiel von fundamentaler Theorie und hoher Experimentierkunst“, erläutert Dr. Felix Karbstein, Theoretiker am HIJ. Karbstein arbeitet an der genauen Vorhersage für Messgrößen, in denen die im Vakuum extrem kurz entstehenden Teilchen und ihre Anti-Teilchen ihre Spuren hinterlassen.

Prof. Dr. Holger Gies (r.) und Dr. Felix Karbstein wollen gemeinsam mit ihrer neuen Forschungsgruppe kleinste Teilchen im „leeren Raum“ aufspüren ©Jan-Peter Kasper/FSU

Die Jenaer Experimentalphysiker sowie die Kollegen an der LMU forschen derweil an einer Methodik, um den praktischen Nachweis zu erbringen. Dazu entwickeln und kombinieren sie leistungsstarke Laser mit neuartigen, präzisen Messverfahren. So sollen die flüchtigen Prozesse im Vakuum gemessen werden können. Denn bislang existierten keine Lichtquellen, die für eine experimentelle Überprüfung leistungsfähig genug waren. Die modernen Hochintensitätslaser, die bei den Versuchen zum Einsatz kommen, nähern sich inzwischen der notwendigen Laserleistung. Daher werden die Experimente nicht nur in Jena und München, sondern auch am Europäischen Röntgenlaser bei DESY in Hamburg durchgeführt.

Die moderne Physik sieht die Phänomene des Quantenvakuums, die Gies und sein Team beweisen wollen, als fundamental und exotisch zugleich an. Dazu zählen beispielsweise die multiphotonische Erzeugung von Teilchenpaaren aus dem Vakuum sowie Streuphänomene des Lichts, wie die sogenannte Quantenreflexion. Diesen schwer zu fassenden Ereignissen ist jedoch nicht nur die Jenaer Forschungsgruppe auf der Spur. „Wir befinden uns in einem internationalen Wettbewerb“, weiß Prof. Dr. Holger Gies, Quantentheoretiker und Leiter der Forschungsgruppe. Der Physiker hofft ‒ da er von den Fähigkeiten seiner experimentellen Kollegen überzeugt ist ‒, dass die Forschungsgruppe aufgrund der besonderen Nähe von Theorie und Praxis den Nachweis als erstes führen kann.

EIGENSCHAFTEN DES VAKUUMS ALS BAUSTEINE NUTZEN

Nicht nur für die Quantenphysik selbst ist der Nachweis und das Verständnis der Vakuumphänomene von Bedeutung. Die Ergebnisse könnten in Zukunft bei der Entwicklung von Geräten helfen, die die Eigenschaften des Vakuums als Bausteine nutzen. So sind beispielsweise moderne Hochleistungslaser und präzise Messmethoden auch aus der Medizin, den Lebenswissenschaften und der Materialforschung nicht mehr wegzudenken. „Bei der Erforschung des Quantenvakuums kommen wir Grundlagenforscher einer konkreten Anwendung somit vergleichsweise nahe“, so Gies. Andererseits bestehe sogar die Möglichkeit, Hinweise auf Kandidaten für die rätselhafte Dunkle Materie zu finden. Diese wiederum ist für die Strukturbildung im Universum verantwortlich. Sie könnte aber auch im Quantenvakuum Spuren hinterlassen. Doch nun gilt es erst einmal die erhofften Ergebnisse zu realisieren. Also nachzuweisen, dass es selbst im Zustand niedrigster Energie physikalische Prozesse gibt.

Das Forschungsprojekt namens „Probing the Quantum Vacuum at the High-intensity Frontier“ ist auf sechs Jahre angelegt. Wobei die erste, dreijährige Phase von der Deutschen Forschungsgemeinschaft mit rund zwei Millionen Euro und insgesamt neun Doktorandenstellen finanziert wird.

Bild oben: Annika Schmitt und Benjamin Grabiger von der Universität Jena arbeiten hier an einem Polarimeter, um die benötigten Präzisionsmessverfahren zu verbessern. ©Jan-Peter Kasper/FSU

SCHWERSTE DEPRESSIONEN DURCH TIEFE HIRNSTIMULATION GELINDERT

Eine gemeinsame Studie des Universitätsklinikums Freiburg und des Universitätsklinikums Bonnwies nun nach: Schwerste Depressionen können durch Tiefe Hirnstimulation deutlich gelindert werden. An dieser weltweit größten Studie nahmen 16 Probanden teil. Deren Beschwerden wurden schon nach kurzer Zeit deutlich verbessert.

„Die Studie ist in Patientenzahl und erzielter Wirkung weltweit einmalig. Wir konnten erstmals in einer großen Studie zeigen, dass die Tiefe Hirnstimulation eine ernsthafte Option für Patienten mit schwerster Depression ist“

…, so Studienleiter Prof. Dr. Thomas Schläpfer, Leiter der Abteilung für Interventionelle Biologische Psychiatrie an der Klinik für Psychiatrie und Psychotherapie des Universitätsklinikums Freiburg.

Bei den Patientinnen und Patienten wurde mittels hauchdünner Elektroden ein Teil des Belohnungssystems im Gehirn stimuliert, was bei allen Patienten eine deutliche Besserung der Beschwerden brachte. Im Schnitt halbierte sich die Schwere der Depression. Die Hälfte der Probanden lag sogar unterhalb des Werts, ab dem man von einer behandlungsbedürftigen Depression spricht. Zudem reagierten die meisten Patienten bereits in der ersten Woche auf die Stimulation. Besonders freut es die Wissenschaftler, dass die positiven Effekte während der einjährigen Studie anhielten. Demnach können Menschen mit schwerster, behandlungsresistenter Depression nicht nur akut, sondern auch langfristig von einer Tiefen Hirnstimulation profitieren.

ALTERNATIVE THERAPIEOPTION

Schätzungen gehen davon aus, dass zehn bis 30 Prozent aller Menschen mit wiederkehrender Depression nicht auf zugelassene Therapien ansprechen. Für einige dieser Menschen könnte die Tiefe Hirnstimulation eine Therapieoption sein. Die 16 Studienteilnehmer der FORSEE-II-Studie litten zwischen 8 und 22 Jahren an einer schwersten Depression. Im Schnitt hatten sie zuvor erfolglos 18 medikamentöse Therapien, 20 Elektrokrampftherapien und 70 Stunden Psychotherapie durchlitten.

Prof. Dr. Volker A. Coenen, Erstautor der Studie und Leiter der Abteilung Stereotaktische und Funktionelle Neurochirurgie an der Klinik für Neurochirurgie des Universitätsklinikums Freiburg, implantierte mit seinem Team den Patienten die hauchdünnen Elektroden. Sie stimulierten damit das mediale Vorderhirnbündel. Dieser Hirnbereich ist an der Regulation der Wahrnehmung von Freude und Belohnung beteiligt und damit auch für Motivation und Lebensqualität von Bedeutung.

DEUTLICHE LINDERUNG NACH KURZER ZEIT

Im monatlichen Rhythmus bewerteten die Ärzte die Wirkung der Therapie mit Hilfe der etablierten Montgomery-Asberg Depression Rating Scale (MADRS). Bereits in der ersten Woche fiel der MADRS-Wert bei zehn Probanden deutlich ab und hielt sich auf niedrigem Niveau. Im Laufe der Studie reagierten alle Probanden auf die Stimulation. Acht der 16 Patienten hatten zu Studienende einen MADRS-Wert von unter 10 Punkten. Sie galten damit als nicht depressiv.

„Unsere Patienten haben jahrelang mit schwersten Depressionen gekämpft und nichts hat Besserung gebracht. Die Tiefe Hirnstimulation führte bei den meisten innerhalb von Tagen zu einer deutlichen Linderung, die dann auch durchgehend anhielt“,

freut sich Prof. Schläpfer und er ergänzt: „Andere Therapieformen wie Medikamente oder Psychotherapie verlieren oft im Laufe der Zeit ihre Wirksamkeit. Das absolut Sensationelle an den Daten ist, dass der Effekt der Therapie anhaltend zu sein scheint, die positiven Effekte halten über Jahre an.“ Schon in einer Pilotstudie hatten die Wissenschaftler herausgefunden, dass die Stimulation des medialen Vorderhirnbündels sehr vielversprechend ist. Nun sind sie froh, wieder die gleichen deutlichen Effekte festzustellen.

HOFFNUNG AUF EUROPÄISCHE ZULASSUNG DES VERFAHRENS

Aufbauend auf den Ergebnissen der jetzt publizierten Studie begannen die Freiburger Forscher bereits im Oktober 2018 mit ihrer dritten Studie (FORESEE-III). Darin sollen 50 schwerstdepressive Patienten behandelt werden. 15 Patienten wurden bereits operiert. „Wenn die Folgestudie genauso erfolgreich ist wie die aktuelle, besteht große Hoffnung auf eine europäische Zulassung des Verfahrens“, sagt Prof. Schläpfer. Die Studie ist am Donnerstag, 14. März 2019 vorab online im Nature-Fachmagazin Neuropsychopharmacology erschienen.

DIESER ARTIKEL KÖNNTE SIE AUCH INTERESSIEREN

Tiefer Blick ins subkortikale Gehirn nur mit Oberflächen-EEG

Behandlung von Epilepsie durch nicht invasive Methoden

Hilfe bei Depression durch RTMS-Therapie

Bild oben: Mit zwei Elektroden stimulierten die Freiburger Ärzte bei schwerstdepressiven Patienten das mediale Vorderhirnbündel (blau), das an der Wahrnehmung von Freude und Belohnung beteiligt ist. © Universitätsklinikum Freiburg

CO2-AUFNAHME DER OZEANE BESTIMMT

Ein internationales Forschungsteam unter der Leitung von Prof. Dr. Nicolas Gruber, Professor für Umweltphysik der ETH-Zürich, war über ein Jahrzehnt (von 2003 bis 2013) in den Weltmeeren zur Erforschung der maritimen CO2-Aufnahme unterwegs. Mitte März 2019 veröffentlichte es nun seine Ergebnisse: Die Ozeane nahmen in der Zeit zwischen 1994 bis 2007 etwa 31 Prozent der menschengemachten Treibhausgase auf. Im ersten Moment mag der Zeitraum den Laien erstaunen: Warum gibt es keine aktuelleren Ergebnisse? Dazu der Leiter der Forschung: „Der Grund warum wir die Senke nur bis 2007 bestimmen können liegt daran, dass wir pro Jahr nur wenige Fahrten machen können, d.h. wir müssen alle Daten auf das mittlere Jahr der Messkampagne zurückführen, und das ist das Jahr 2007.“ Nichtsdestotrotz gibt es zumindest Abschätzungen der maritimen Kohlenstoffsenke auf der Basis von Oberflächendaten bis 2017. Doch um gehaltvolle Informationen zu liefern, werden die Daten von Konzentrationsmessungen im Innern mit einer früheren Studie, die ungefähr zwischen 1985 und 1997 durchgeführt wurde, verglichen.

KOHLENSTOFFSENKE IN ZWEI SCHRITTEN

Meere nehmen CO2 übrigens in zwei Schritten auf: Zuerst löst sich das CO2 im Oberflächenwasser. Dann wird es von sogenannten maritimen Umwälzpumpen verteilt. Denn Meeresströmungen und Mischungsprozesse verfrachten das gelöste CO2 von der Oberfläche bis tief in die Ozeanbecken, wo es sich über die Zeit anreichert. Die maritimen Umwälzpumpen sind also die treibende Kraft hinter der Kohlenstoffsenke im Ozean.

Die Karte zeigt die Zunahme des menschengemachten CO2 (Säule bis 3000 Meter Tiefe) in den Weltmeeren zwischen 1994 und 2007. Gebiete mit einer hohen Zunahme sind gelb eingefärbt. ©Grafik: aus Gruber et al., Science, 2019

Und genau deshalb sind auch die Weltenmeere für den atmosphärischen CO2-Haushalt nicht unbedeutend. Immerhin nahmen sie zwischen 1994 und 2007 rund 31 Prozent, also insgesamt etwa 34 Giga-Tonnen, menschengemachten Kohlenstoff aus der Atmosphäre auf.

Interessant bei diesem Ergebnis ist, dass sich der prozentuale Anteil der CO2-Aufnahme nicht von den vorherigen rund 200 Jahren seit der Industrialisierung unterscheidet. Die absolute Menge aber schon: Denn solange die atmosphärische Konzentration von CO2 ansteigt, entwickelt sich die Senkenleistung der Meere ungefähr proportional dazu. Das heißt also, je höher der CO2-Gehalt in der Luft ist, desto mehr wird er vom Meer absorbiert.

Doch das geht nicht ewig so weiter: Irgendwann wird das Meer gesättigt sein.

Noch scheint dies aber nicht der Fall: „Der globale Ozean hat im untersuchten Zeitraum weiterhin menschengemachtes CO2 aufgenommen, und zwar mit einer Rate, wie sie aufgrund des Anstiegs des atmosphärischen CO2 zu erwarten ist“, so Gruber.

Die neuen datengestützten Befunde unterstützen übrigens verschiedene frühere Schätzungen der marinen Senkenleistung anhand von Modellen. „Das ist eine wichtige Erkenntnis, die uns nun Gewissheit gibt, dass die unterschiedlichen Ansätze stimmen“, bestätigt Gruber. Die Resultate erlaubten zudem Rückschlüsse auf die CO2-Senkenleistung der Land-Ökosysteme, die generell schwieriger zu erfassen sei.

REGIONAL UNTERSCHIEDLICHE AUFNAHMERATE

Doch während die Resultate insgesamt auf eine anhaltend starke Speicherfunktion der Meere im globalen Kohlenstoffhaushalt hindeuten, stellten die Forschenden erhebliche Unterschiede in der Speicherrate verschiedener Meeresregionen fest. So nahm der Nordatlantik zwischen 1994 und 2007 rund 20 Prozent weniger CO2 auf, als er eigentlich sollte. Gruber erklärt:

„Das liegt wahrscheinlich an der schwächelnden nordatlantischen Umwälzpumpe Ende der 90er Jahre, die ihrerseits durch Klimaschwankungen verursacht wurde.“

Die niedrigere Senkenleistung im Nordatlantik ging derweil mit einer deutlich höheren Aufnahme im Südatlantik einher, so dass sich die gesamtatlantische Zunahme von menschgemachten CO2 insgesamt wie erwartet entwickelte.

Ähnliche Schwankungen dokumentierten die Forschenden auch im Südpolarmeer, im Pazifik und im Indischen Ozean. „Die Ozeansenke reagiert somit keineswegs nur auf die Zunahme des atmosphärischen CO2 – die Sensitivität bezüglich klimatischen Schwankungen zeigt uns, dass hier auch größere Rückkoppelungen mit dem Klimasystem möglich sind“, betont der Umweltwissenschaftler.

BILANZ DANK ZWEIER BESTANDSAUFNAHMEN

Voraussetzung für diese Forschungsarbeit waren aufwändige Messungen der CO2-Konzentration und anderer chemischer und physikalischer Größen in den verschiedenen Meeren. Dabei wurde nicht nur die Oberfläche, sondern auch der Meeresboden in teils bis zu sechs Kilometer Tiefe untersucht. An diesem international koordinierten Programm waren ab 2003 für mehr als ein Jahrzehnt Wissenschaftler aus sieben Nationen beteiligt. Während dieser Zeit tätigten sie über 50 Forschungsfahrten durch die Weltmeere.

Für die Analyse der Daten verwendeten die Forschenden eine statistische Methode, die Gruber und sein ehemaliger Doktorand Dominic Clement eigens entwickelt hatten. Sie erlaubt es, in der Gesamtkonzentration an gelöstem CO2 den gesuchten menschengemachten Anteil vom natürlichen CO2 zu unterscheiden. Als natürliches CO2 wird der Kohlenstoffanteil bezeichnet, der im Ozeansystem schon zu vorindustriellen Zeiten existierte.

Bereits um die Jahrtausendwende war Gruber an einer ähnlichen Studie beteiligt. Diese schätzte anhand früherer CO2-Messungen in den Meeren deren Aufnahme von menschengemachtem CO2 seit Beginn der Industrialisierung um 1800 bis 1994 auf 118 Giga-Tonnen Kohlenstoff. Diese Analyse bis 1994 wurde nun durch die aktuellen Forschungsergebnisse bis zum Jahr 2007 erweitert. Die beiden Bestandsaufnahmen von 1994 und 2007 machten es erstmals möglich, die Zunahme der ozeanischen Konzentration von menschengemachtem CO2 in dieser Periode zu bestimmen und die Senkenleistung zu überprüfen.

STEIGENDER CO2-GEHALT VERSAUERT MEERESHABITATE

Einen wesentlicher Punkt in Bezug auf die Leistung als ozeanische Kohlenstoffsenke gilt es stets im Auge zu behalten: Das im Meer gelöste CO2 macht das Wasser saurer.

„Unsere Daten zeigen, dass die Versauerung teils bis über 3000 Meter tief ins Innere der Weltmeere reicht“, gibt Gruber zu bedenken.

Das kann schwere Folgen für viele Meereslebewesen haben: So löst sich Kalk im angesäuerten Milieu spontan auf. Das wiederum gefährdet Muscheln oder Korallen, die Schalen oder Skelette aus Kalziumkarbonat bilden. Andererseits kann die veränderte Ozeanchemie physiologische Prozesse wie die Atmung von Fischen beeinträchtigen. „Nicht zuletzt um solche Vorgänge zu verstehen, ist eine genaue Dokumentation des menschlichen Einflusses in den Meeren so wichtig“, ist Gruber überzeugt. Die gesamte Studie ist im Magazin Science (vom 15. März 2019) nachzulesen.

Bild oben: Messrosette mit Probenflaschen zur Bestimmung der CO2-Konzentration im Meer ©Nicolas Gruber / ETH Zürich

DIESER ARTIKEL KÖNNTE SIE AUCH INTERESSIEREN:

Amazonaswald kann Resilienz trainieren

CO2-Aufnahme bei jungen Wäldern um 25 Prozent erhöht

STRESSHORMONE FÖRDERN DIE METASTASIERUNG VON BRUSTKREBS

Es gibt viele Faktoren, bei denen vermutet wird, dass sie zum Krebswachstum beitragen. Stress ist einer davon. Doch Stress ist subjektiv, also schwer zu messen. Bis jetzt beriefen sich Studien, die den Zusammenhang von Stress und Krebs herstellten, auf empirische Daten. Ein exakter wissenschaftlicher Beweis blieb offen. Denn eine große Herausforderung in der Erforschung wie auch in der Behandlung von metastasierendem Brustkrebs ist die Tumorheterogenität. Im Verlauf der Erkrankung wird der Tumor nämlich vielfältiger. Somit können die wachsenden Unterschiede zwischen den einzelnen Krebszellen zu einem unzureichenden Therapieerfolg führen. Unbekannt waren dabei bis dato die zu Grunde liegenden Mechanismen dieses Phänomens.

FORSCHUNG ANHAND VON MAUS-KREBSMODELL

Forschende der Universität Basel sowie des Universitätsspitals Basel deckten kürzlich die molekularen Mechanismen auf, die Brustkrebsmetastasen mit erhöhten Stresshormonen verbinden. Für ihre Studien untersuchten die Wissenschaftler rund um Prof. Mohamed Bentires-Alj die Form des sogenannten dreifach negativen Brustkrebses. Er ist eine besonders aggressive Krebsart, dessen Name sich durch die bei ihm nicht vorhandenen Rezeptoren ‒ also dem Östrogenrezeptor, Progesteronrezeptor oder HER-2-Rezeptor ‒, anhand derer die Oberfläche der Krebszellen eingeteilt wird, ableitet. Der dreifach negative Krebs ist resistent gegen Standardtherapien und bietet für die Patientinnen weniger Behandlungsmöglichkeiten.

Ihre Forschungen nahmen die Wissenschaftler an einem Maus-Krebsmodell vor. Um hier die Heterogenität zwischen Tumoren und Metastasen zu untersuchen, erforschten sie die Aktivität von Genen. Dabei stellten sie fest, dass Metastasen eine erhöhte Aktivität bei den sogenannten Glukokortikoid-Rezeptoren (GR) verzeichnen. Diese binden Stresshormone wie etwa Cortisol.

Mäuse mit Metastasen hatten höhere Konzentrationen von Stresshormonen als Mäuse ohne Metastasen. Die Studie zeigt, dass erhöhte Stresshormonlevels die GR aktivieren. Dies führt wiederum zu einer verstärkten Kolonisierung und Heterogenität der Krebszellen. Was letztendlich eine verkürzte Lebensdauer mit sich bringt.

NEUE THERAPIEN DENKBAR

Die GR binden auch synthetische Derivate von Cortisol. Dazu gehören zum Beispiel der Entzündungshemmer Dexamethason, der oft eingesetzt wird, um die Nebenwirkungen der Chemotherapie zu lindern. Die Forschungsergebnisse zeigten, dass Dexamethason die Wirksamkeit des Medikaments Paclitaxel, welches vielfach in der Chemotherapie Verwendung findet, beeinträchtigen kann.

Die Ergebnisse der Baseler Forschungsgruppe weisen darauf hin, dass bei der Verschreibung von Glukokortikoid-Hormonen an Patientinnen mit Brustkrebs Vorsicht geboten ist. Auch macht die Studie deutlich, dass die Blockierung der GR von Vorteil sein kann. Sie könnte zudem zur Entwicklung neuer Therapien für die Bekämpfung der Metastasierung von Brustkrebs führen.

„Die Tumorheterogenität ist ein großes Hindernis bei der Behandlung“

…, betont Prof. Bentires-Alj. Und er fährt fort: „Die Bedeutung von Stressmanagement kann nicht überbetont werden – insbesondere bei Patientinnen mit dreifach negativem Brustkrebs.“ Er empfiehlt betroffenen Patientinnen deshalb ein moderates Bewegungstraining sowie Entspannungstechniken. Nicht nur laut Bentires-Alj ist dies nachweislich mit einer verbesserten Lebensqualität und erhöhten Lebenserwartung verbunden.

Die Studie wurde kürzlich im International Journal of Science Nature veröffentlicht. Prof. Bentires-Alj ist übrigens zusammen mit Prof. Walter Paul Weber, Chefarzt der Abteilung für Brustchirurgie am Universitätsspital Basel, Gründer des Brustkonsortiums Basel.

Bild oben: Gezieltes Stressmanagement in Verbindung mit einem moderaten Bewegungstraining und Entspannungstechniken sind nachweislich mit einer verbesserten Lebensqualität und erhöhter Lebenserwartung der Patientinnen verbunden ©yogakalyanii by Pixabay

DIESER ARTIKEL KÖNNTE SIE AUCH INTERESSIEREN

Innovationen, die die Krebsbehandlung verändern werden:

(1) Gentherapie mit Clostridien

(2) Schnellerer Einblick durch molekulare Bildgebung

(3) Immuntherapie

ICE-ROAD-TRUCKS IM VISIER VON TANDEM-X: RASER VERURSACHEN WELLEN

Unter der strengen Beobachtung des deutschen TanDEM-X-Radarsatelliten stellten Forschende vom Canada Centre for Mapping and Earth Observation (CCMEO) fest, dass schnell fahrende Ice Road Trucks wellenförmige Hebungen und Senkungen der Eisdecke verursachen. Doch ging es bei der Studie nicht um Geschwindigkeitsmessungen, sondern die Frage, inwieweit der DLR Radarsatellit TanDEM-X zur Unterstützung des Eisstraßenmanagements einsetzbar ist.

WINTERSTRASSE TIBBITT-TO-CONTWOYTO IM FOKU

Aus Film und Fernsehen sind die wagemutigen Eis-Trucker, die mit ihren tonnenschweren LKW´s Waren über die zugefrorenen Seen Kanadas bringen, mittlerweile auch in Deutschland bekannt. Über diese nur in wenigen Wochen des Jahres existierenden Highways werden abgelegene Gemeinden und Industrien mit schwer transportierbarem Material versorgt. Das spart Zeit und Geld. Ist aber auch höchst riskant. Zudem verstärkt der Klimawandel die Schwierigkeiten der Eisstraßenbetreiber.

Aus der aus TanDEM-X-Daten hergeleiteten Hebungs- und Senkungskarte (nur über Eisflächen auf dem See) lassen die großflächigen Hebungen und Senkungen der Eisdecke auf schnell fahrende Fahrzeuge schließen, kleinere (unten im Bild) auf langsame ©DLR

Die Studie des CCMEO konzentrierte sich auf die Winterstraße Tibbitt-to-Contwoyto in den nordwestlichen Territorien Kanadas. Auf dem Radarbild wird eines der Ergebnisse sichtbar: Schnell fahrende Fahrzeuge führen zu wellenförmigen Hebungen und Senkungen der Eisdecke. Vor allem in flachen Gewässern kann dies zu gefürchteten Eisdurchbrüchen führen, also den sicheren Verkehr gefährden.

Die Abbildung wurde – unter Verwendung der Methode der differentiellen SAR-Interferometrie – aus zwei TanDEM-X-Datensätzen, die im Abstand von zehn Sekunden aufgenommen wurden, erzeugt. Durch den Zeitabstand ist es möglich, vertikale Verschiebungen der Eisbedeckung, die durch den Verkehr verursacht werden, im Zentimetermaßstab mit einer hohen Detaildichte und -genauigkeit zu erkennen. Dies wird bis jetzt von keiner anderen Technologie erreicht.

Somit ist klar: Radarsatelliten wie TanDEM-X sind nützliche Werkzeuge zur Sammlung von Informationen. Sie unterstützen also das Eisstraßenmanagement durch ihre Fähigkeit, die Eisstraßen in der Dunkelheit des Winters und unter widrigen Wetterbedingungen bildlich hochgenau zu erfassen. Zudem erlaubt es die Radartechnik die Daten wetterunabhängig zu erheben. Denn Schneefall, Regen sowie Dunkelheit spielen ‒ da sie nicht von der optischen Erkennbarkeit abhängig sind ‒, für Radaraufnahmen keine Rolle. Auch ermöglichen es die relativ langen Wellenlänge der Radarsatelliten, in das Eis hineinzuschauen. Sie können somit Aussagen über die Qualität und Beschaffenheit der Eisbedeckung machen. Eine sehr nützliche Information, um das sogenannte Moving Vehicle Problem, also das Einbrechen der Lastwägen, zu verhindern.

EXPERTISE AUS DEUTSCHLAND

Die Wissenschaftler des Instituts für Hochfrequenztechnik und Radarsysteme des Deutschen Zentrums für Luft- und Raumfahrt (DLR) sind für ihre speziellen Radartechnologien und Analyseverfahren, die eine hochgenaue Beobachtung von Permafrost ermöglichen, bekannt. Schon im Herbst 2018 kooperierten die Deutschen mit einem kanadischen Team, um den Permafrost in der Antarktis anhand neuester Radartechnologien zu beobachten. Im März 2019 startet nun die DLR-Winterkampagne PermASAR (Permafrost Airborne SAR). Diese soll im Norden Kanadas einen hochmodernen Radar-Datensatz im X-, C- und L-(Frequenz-)Band zur Erdbeobachtung liefern und das Eisstraßenmanagement damit unterstützen.

Auch hat das DLR schon eine mögliche Nachfolgemission zu TanDEM-X entworfen. So sind bei dem Tandem-L-Missionskonzept zwei Radarsatelliten vorgesehen. Sie arbeiten im L-Band (23,6 Zentimeter Wellenlänge) und erfassen dynamische Prozesse auf der Erdoberfläche global und systematisch.

Ziel von Tandem-L ist es, im Wochenrhythmus die Landmasse der Erde vollständig abzubilden. Bislang benötigt TanDEM-X ein ganzes Jahr dafür. Die Entwickler des DLR sind davon überzeugt, dass die Mission neue Maßstäbe in der Erdbeobachtung setzen wird. Sie werden dann vor allem in der Lage sein, den globalen Wandel mit einer neuen Qualität zu beobachten. Dies wiederum ermöglicht wichtige Handlungsempfehlungen. Mit der neuen Technologie könnten die dreidimensionalen Strukturen von Vegetations- und Eisgebieten erfasst sowie Deformationen großflächig mit Millimetergenauigkeit vermessen werden.

Bild oben: Nur für eine kurze Zeit gibt es in Kanadas Wintern die sogenannten „Ice Highways“ – hier der Weg von Inuvik nach Tuktoyaktuk über den Mackenzie River – ©Ronne Heming-NWT Tourism

DIESER ARTIKEL KÖNNTE SIE AUCH INTERESSIEREN

Gletscherschmelze in Grönland, der Antarktis und am Hindukusch

QUALITÄTSSICHERUNG FÜR DAS TANKEN VON WASSERSTOFF

Der Energieträger Wasserstoff gilt in Verbindung mit einer Brennstoffzelle als besonders saubere Alternative in der Mobilität der Zukunft. Doch schon kleinste Verunreinigungen des geruchs- und farblosen Gases können dem Fahrspaß ein jähes Ende bereiten. „Es kann zu einer Vergiftung der Brennstoffzelle kommen“, erklärt Sensor-Experte Andreas Schütze von der Universität des Saarlandes.

Dementsprechend gilt bei Brennstoffzellen wie bei anderen Treibstoffen auch: Stimmen Qualität und Reinheit nicht, wirkt sich das auf das Auto aus. So können Schwefelkomponenten, Ammoniak oder Kohlenwasserstoffe schon während der Produktion, auf dem Weg zur Tankstelle wie auch beim Pressen in die Tanks in den Wasserstoff gelangen. Bereits bei kleinen Verunreinigungen können die Zellmembranen Schaden nehmen. Als Folge produziert die Brennstoffzelle weniger Strom, bringt weniger Leistung und weniger Kilometer auf die Straße. Kommt es hart auf hart, bleibt das Auto sogar mit dauerhaftem Schaden stehen.

ENTWICKLUNG VON INFRAROT-MESSZELLE

Grund genug also für die Wissenschaftler der Universität des Saarlandes sowie dem Saarbrücker Zentrum für Mechatronik und Automatisierungstechnik (Zema) zusammen mit dem Fraunhofer-Institut für Solare Energiesysteme ISE und dem Unternehmen Hydac Electronic eine Infrarot-Messzelle zu entwickeln, die die Qualität und Reinheit des Wasserstoffs direkt beim Tanken überprüft. Denn nur so ist garantiert, dass die Brennstoffzelle guten Treibstoff erhält, so dass dieser dem per Wasserstoff betriebenen Auto eine lange Lebensdauer ermöglicht.

Dazu Schütze: „Die Herausforderungen hierbei liegen zum einen in der erforderlichen Genauigkeit und zum anderen in den Bedingungen, unter denen das Messsystem messen soll. Geballte 700 bis 900 bar Druck lassen die Tanknadel nach weniger als drei Minuten am Anschlag stehen.“

Das von den Forschenden entwickelte Verfahren soll deshalb auch unter diesen extremen Bedingungen verlässlich und exakt arbeiten. Den hohen Druck nutzen sie sogar dazu, um die Empfindlichkeit ihres Systems weiter zu steigern. Für Öl und Flüssigkeiten haben Andreas Schütze und sein Team solche Messzellen bereits zur Marktreife gebracht. Hier aber betreten die Wissenschaftler Neuland. „Bislang gibt es keine Erfahrungen mit Messungen bei derart hohem Druck. Normalerweise erfolgen solche Messungen bei einem Druck von allenfalls 40 oder 50 bar“, so Andreas Schütze. Die Messzelle für das Gas wird direkt in der Tankleitung untergebracht: Der Wasserstoff strömt dabei durch ein Röhrchen. „Hier durchleuchten wir das Gas mit einer Infrarot-Quelle und fangen die Strahlen auf der gegenüberliegenden Seite auf. Wenn sich das Gas chemisch verändert, ändert sich auch das empfangene Lichtspektrum. Hieraus können wir Rückschlüsse auf Beimengungen und Verunreinigungen ziehen“, erklärt Schütze.

ERSTER TEST IM HERBST

Universität des Saarlandes
Ingenieur Marco Schott zeigt den Hochdruck-Prüfstand, der auf der Hannover Messe zu sehen sein wird ©Oliver Dietze

Derzeit führen die Wissenschaftler Experimente durch und ordnen die Messwerte den verschiedenen Verunreinigungen zu. Dabei ergründen sie, welche Wellenlängen des Infrarot-Lichts sich am besten eignen. Zudem kalibrieren sie ihr System. Dies alles sind Vorarbeiten für das Sensorsystem, das diesen Herbst erstmals in der Test-Zapfsäule am ISE in Betrieb gehen soll. „Wir erforschen, ob und wie die Messwerte des Infrarot-Spektrums sich abhängig vom Druck verändern. Das System muss sehr unterschiedliche Verunreinigungen sicher erkennen, die zudem deutlich geringer sind als etwa bei Öl“, erläutert Ingenieur Marco Schott, der als Doktorand an der Wasserstoff-Messzelle arbeitet. Zu sehen ist der Hochdruck-Prüfstand vom 1. bis 5. April auf der Hannover Messe am saarländischen Forschungsstand B46 in Halle 2. Bis das neue Sensor-System auf den Markt kommt, wird Wasserstoff übrigens noch aufwändig und punktuell durch Stichproben und Analysen in Laboren untersucht.

Bild oben: An den Wasserstoff-Tankstellen des Fraunhofer ISE soll der Infrarot-Sensor zur Qualitätskontrolle des Gases getestet werden ©Fraunhofer ISE

DIESER ARTIKEL KÖNNTE SIE AUCH INTERESSIEREN

Forschungsprojekt: Erneuerbare Energie chemisch speichern

Mit Wasserstoff gegen den Strom schwimmen

Fokus auf mehr als nur elektrisches Fahren

Siemens setzt mit Brennstoffzellenpartnerschaft auf eine Null-Emissions-Strategie auf See

AMAZONASWALD KANN RESILIENZ TRAINIEREN – DOCH KLIMAWANDEL UND RODUNG ALS GEFAHR

Keine Frage: beim globalen Klimaschutz hat der Amazonaswald als größter zusammenhängender Regenwald eine bedeutende Rolle inne. Mit einer derzeitigen Fläche von etwa 7.500.000 km² bedeckt er etwa zwei Drittel Südamerikas. Dank seiner Größe gilt das Amazonas-Becken als größte Kohlenstoffsenke der Welt. Denn hier wird ungefähr so viel Kohlenstoff gespeichert, wie in rund zehn Jahren auf der ganzen Erde freigesetzt wird. Wissenschaftler des Potsdam-Institut für Klimafolgenforschung (PIK) sowie der Federal University of Santa Catarina (UFSC) haben nun noch eine weitere erstaunliche Eigenschaft entdeckt: Der Amazonaswald kann sozusagen durch wechselhafte Regenfälle trainiert werden. Das heißt, die Regionen des Waldes, in denen die Regenmengen stärker schwanken, sind widerstandsfähiger gegen heutige und zukünftige Klimastörungen.

KOMBINATION AUS ANALYSE UND BEOBACHTUNGSDATEN

„Angesichts der enormen Bedeutung des Amazonas-Regenwaldes für unser Klima und die Artenvielfalt ist es erstaunlich, wie wenig wir immer noch über seine Fähigkeit wissen, sich im Laufe der Zeit an veränderte Umweltbedingungen anzupassen“, stellt Leitautorin Catrin Ciemer vom PIK fest und ergänzt: „Wir haben einen Mechanismus entdeckt, der die Widerstandsfähigkeit des Ökosystems mitbestimmt. Dabei haben wir herausgefunden, dass Regionen des Amazonas-Regenwaldes, die stärker wechselnden Regenmengen ausgesetzt waren, offenbar mehr Widerstandskraft haben gegen Klimastörungen.“

Basierend auf Daten zum Niederschlag und zur Baumbedeckung im brasilianischen Amazonasbecken ermittelten die Wissenschaftler die Stabilität verschiedener Vegetationstypen in Abhängigkeit der Regenmengen und identifizierten auf diesem Weg kritische Schwellenwerte, jenseits derer die Vegetation von einem Wald zu einer Savanne, also einem tropischen Grasland, wechseln kann. In diesem Kontext entdeckten die Forscher nun den oben erwähnten Trainingseffekt.

„Wir konnten dieses bislang unbekannte dynamische Stabilitätsverhalten quantifizieren, indem wir moderne Techniken [mathematische Methoden] der Analyse nicht-linearer Systeme kombiniert haben mit modernsten Beobachtungsdaten [Satellitendaten]“, erklärt Jürgen Kurths, Leiter des PIK-Forschungsbereichs Komplexitätsforschung und Ko-Autor der Studie. Marina Hirota von der UFSC, ebenfalls Ko-Autorin der Untersuchung, ergänzt: „Wir entwickeln und nutzen innovative mathematische Methoden, um reale Probleme zu untersuchen, die enorme Auswirkungen auf Menschen auf dem ganzen Planeten haben. Denn klar ist: der Amazonas-Regenwald ist von großer Bedeutung für globale CO2- und Wasserkreisläufe und steht in Wechselwirkung mit einer Reihe anderer kritischer Elemente [denkbar ist z.B. das südamerikanische Monsunsystem] des Erdsystems.“

GRAVIERENDE ÄNDERUNGEN ERWARTET

So erlaube es der Ansatz zu erkennen, welche Regionen anfälliger für zukünftige Veränderungen des Niederschlags sein könnten, unterstreicht Ricarda Winkelmann, Leiterin des PIK FutureLab ‚Earth Resilience in the Anthropocene‘ und ebenfalls Ko-Autorin der Studie. Weniger ‚trainierte‘ Regionen, die nicht an häufige Änderungen der Niederschläge gewöhnt sind, werden dabei besonders betroffen sein. Die Analyse zeigt, dass in einem Business-as-usual-Szenario in Bezug auf den Ausstoß von Treibhausgasen eine große zusammenhängende Region im südlichen Amazonasgebiet Gefahr laufen könnte, vom Wald zur Savanne zu werden.

Noch ist unklar, wie viel Veränderung die Amazonasregion verkraften kann. So ist der Amazonaswald einerseits ein sehr altes Ökosystem, das sich über Millionen von Jahren entwickelte und sogar Eiszeiten überlebte. Es konnte sich also über lange Zeiträume anpassen. Aber heute ist es fraglich, ob es dem Tempo des fortschreitenden Klimawandels gewachsen ist.

Deshalb sind die Forschenden trotz der positiven Erkenntnis zur Anpassungsfähigkeit in großer Sorge um die Zukunft des Waldes. Denn dem einzigartigen System droht nun durch menschlichen Einfluss und durch den weltweiten Klimawandel ein großflächiges Absterben ‒ mit weitreichenden Folgen für seine Funktion als globale CO2-Senke. Zwar speichert eine wärmere Atmosphäre grundsätzlich mehr Feuchtigkeit, doch wird es im Amazonasbecken wahrscheinlich vermehrt Dürren geben, die die Baumsterblichkeit und das Brandrisiko erhöhen könnten.

Niklas Boers, Koautor der PIK-Studie fügt noch ein weiteres großes Problem, das der Erhaltung des Amazonas Regenwaldes entgegenwirkt, hinzu: So stellen die großflächigen Rodungen, die zur Umwandlung der Naturlandschaft in Weidelandschaft für Rinder zur Fleischerzeugung geschehen, eine ernsthafte Bedrohung für den Regenwald dar. Das bedeutet, dass die aktuelle Forstpolitik Brasiliens und anderer Länder die Frage der Widerstandsfähigkeit des Regenwaldes bedeutungslos machen könnte. „Mit oder ohne Widerstandsfähigkeit gegen Klimastörungen: Es gibt keine Möglichkeit, sich an Motorsägen anzupassen,“ fasst er die aktuelle Situation zusammen.

Die Studie wurde Ende Februar in Nature Geoscience veröffentlicht.

Bild oben: Der Amazonaswald ist resilienter als gedacht ©Pixabay

DIESER ARTIKEL KÖNNTE SIE AUCH INTERESSIEREN:

CO2-Aufnahme bei jungen Wäldern um 25 Prozent erhöht

KI UNTER DER LUPE: KLUGER HANS ODER KLEVERE ENTSCHEIDUNG?

Forschende der Technischen Universität Berlin (TU Berlin), des Fraunhofer Heinrich-Hertz-Instituts (HHI) und der Singapore University of Technology and Design untersuchten kürzlich, wie verschiedene KI-Systeme zu ihren Ergebnissen kommen. Denn bislang war es der Wissenschaft meist verborgen, ob es sich wirklich um eine intelligente Lösung oder nur um einen statistisch erfolgreichen Weg handelte. Unter dem Aspekt, dass KI nicht nur als digitaler Sprachassistent oder Übersetzer genutzt wird, sondern sie auch im Bereich der medizinischen Diagnostik sowie des autonomen Fahrens eingesetzt wird, ist ein Blick auf die Funktionsweise der Lernalgorithmen ein relevanter Faktor.

EXPLAINABLE AI

Für ihre Arbeit entwickelten die Forscher ein Verfahren, anhand dessen sie KI Systeme analysieren und quantifizieren können. „Diese sogenannte ‚explainable AI‘ [erklärbare Künstliche Intelligenz] ist einer der wichtigsten Schritte für die praktische Anwendung und Verbreitung von KI“, so Dr. Klaus-Robert Müller, Professor für Maschinelles Lernen an der TU Berlin: „Insbesondere in der medizinischen Diagnostik oder in sicherheitskritischen Systemen dürfen wir keine KI-Algorithmen mit unsicheren Problemlösungsstrategien oder sonstige KI-Schummel-Kandidaten einführen.“

Wichtigste Voraussetzung für diese spezielle, automatisierte Technologie ist eine von der TU Berlin und dem HHI entwickelte Technik namens „Layer-wise Relevance Propagation“ (LRP). Diese macht sichtbar, aufgrund welcher Kriterien KI-Systeme Entscheidungen treffen.

Als Weiterentwicklung der LRP-Technologie gilt die „Spectral Relevance Analysis“ (SpRAy). Erst mit ihr wird das breite Spektrum der erlernten Entscheidungsverhalten identifiziert und quantifiziert. Ob naive Problemlösung, Schummel-Strategie oder hochelaborierte, intelligente und strategische Entscheidung – die Wissenschaftler stellten verschiedene KI-Algorithmen auf die Probe. So konnten auch bei sehr großen Datensätzen unerwünschte Lösungen ausgemacht werden.

Dazu Dr. Wojciech Samek, Gruppenleiter am Fraunhofer HHI: „Wir waren sehr erstaunt über die große Bandbreite der gelernten Problemlösungsstrategien. Selbst moderne KI-Systeme haben nicht immer einen aus menschlicher Perspektive sinnvollen Lösungsweg gefunden, sondern nutzten bisweilen sogenannte ‚Clever-Hans-Strategien‘.“

Der Kluge Hans (Clever Hans) war ein Pferd des Schulmeisters und Mathematiklehrer Wilhelm von Osten, das angeblich rechnen und zählen konnte. In den Jahren um 1900 galt Hans als wissenschaftliche Sensation. Denn in 90 Prozent der Fälle beantwortete der feinfühlige Orlow-Traber durch das Klopfen mit einem Huf oder durch Nicken beziehungsweise Schütteln des Kopfes zum Beispiel arithmetische Aufgaben richtig. Später stellte sich heraus, dass Hans zwar nicht rechnen konnte, aber er seine richtige Antwort aus der Körperreaktion des Fragestellers ableitete.

Diese Heatmap zeigt: Der Algorithmus trifft die Entscheidung Zug oder nicht Zug anhand der Schienen-Bildpunkte und nicht anhand derer, die den Zug ausmachen.
©Nature Communications/CC BY

Lösungsstrategien, die denen des kleveren Hans entsprechen, konnten die Forscher um Klaus-Robert Müller und Wojciech Samek auch bei KI-Systemen finden. So verfolgte zum Beispiel eines, das sogar vor einigen Jahren mehrere internationale Wettbewerbe zur Klassifikation von Bildern gewonnen hatte, eine aus menschlicher Sicht naive Lösungsstrategie: Es klassifizierte Bilder vorwiegend anhand des Kontextes. Dabei wurden zum Beispiel Bilder der Kategorie „Schiff“ zugeordnet, wenn viel Wasser im Bild zu sehen war. Andere Bilder wurden als „Zug“ klassifiziert, wenn Schienen vorhanden waren. Wieder andere Bilder wurden anhand des Copyright-Schriftzuges der richtigen Kategorie zugeordnet. Die eigentliche Aufgabe, nämlich Schiffe oder Züge zu erkennen, hat dieses KI-System nicht gelöst. Doch immerhin: die Mehrzahl der Bilder konnte es im Endeffekt korrekt klassifizieren.

Auch die sogenannten „tiefen neuronalen Netzwerke“ nutzen diese Art der fehlerhaften Lösungsstrategie. Denn sie stützen ihre Klassifikations-Entscheidung zum Teil auf Artefakte, die während der Präparation von Bildern entstanden, aber mit dem eigentlichen Bildinhalt gar nichts zu tun haben.

NAIVE KI FÜR DIE PRAXIS UNBRAUCHBAR

„Solche KI-Systeme sind für den praktischen Einsatz völlig unbrauchbar. Ihr Einsatz in der medizinischen Diagnostik oder in sicherheitskritischen Bereichen birgt sogar enorme Gefahren“, warnt Klaus-Robert Müller: „Es ist durchaus denkbar, dass ungefähr die Hälfte der aktuell eingesetzten KI-Systeme implizit oder explizit solche ‚Clever Hans‘-Strategien nutzen. Es ist Zeit, das systematisch zu überprüfen, damit sichere KI-Systeme entwickelt werden können.“

Mit der neuen Technik konnten aber auch KI-Algorithmen identifiziert werden, die unerwartet „intelligente“ Strategien anwandten. Dazu gehören Systeme, die zum Beispiel in der Lage sind, die Atari-Spiele „Breakout“ – hier wird mit einem virtuellen Schläger der Ball so gelenkt, dass er die am oberen Bildschirmrand erscheinenden Bauklötze wegschießt –, und „Pinball“ (virtuelles Flipperspiel) zu spielen.

„Hier haben die KI-Systeme ganz klar das Konzept des Spiels ‚verstanden‘ und einen intelligenten Weg gefunden, zielgerichtet und risikoarm sehr viele Punkte zu sammeln. Dabei schlägt das System bisweilen Wege ein, die ein echter Spieler nicht nutzen würde“, so Wojciech Samek.

Die automatisierte Technik steht als Open Source allen Wissenschaftlern und Wissenschaftlerinnen zur Verfügung. „Wir sehen unsere Arbeit als einen wichtigen ersten Schritt, KI-Systeme in Zukunft robuster, erklärbar und sicher zu machen. Denn das ist die wesentliche Voraussetzung für den Einsatz von KI überhaupt“, so Klaus-Robert Müller.

Bild oben: Die Heatmap zeigt: Allein aufgrund der vorhandenen Wasser-Bildpunkte – also anhand des Kontextes -, vermutet der Algorithmus, dass das Gebilde ein Schiff ist – er nutzt nicht die Bildpunkte, die das Schiff ausmachen. ©Nature Communications/CC BY

Dieser Artikel erschien am 11. März in der Innovation Origins.

DIESER ARTIKEL KÖNNTE SIE AUCH INTERESSIEREN

Gratwanderungen: Künstliche Intelligenz in der Medizin

Menschliches Gehirn inspiriert Forscher bei Künstlicher Intelligenz

EXPEDITION ZUM LARSEN-C-SCHELFEIS ABGEBROCHEN

Nun ist es beschlossene Sache: Das Larsen-C-Schelfeis bewahrt vorerst sein Geheimnis. Die aktuelle Meeressituation verhindert derzeit ein Weiterkommen des AWI-Forschungseisbrechers Polarstern. Denn das dichte Meereis hat sich mittlerweile zu einem bis zu zehn Meter dicken Presseisrücken übereinandergeschoben. Dazu Polarstern-Kapitän Thomas Wunderlich: „Wir haben sieben Tage versucht, uns einen Weg durch das Eis zu brechen, mussten aber einsehen, dass die Eisbedingungen keine andere Entscheidung zuließen, als weiter im Norden bessere Meereis- und Arbeitsbedingungen zu suchen.“

Zwar hatte die Meereisausdehung in der Antarktis Ende Dezember mit 4,94 Millionen Quadratkilometern den für diesen Monat niedrigsten Wert seit Beginn der kontinuierlichen Satellitenmessungen inne. Doch konnte die Expedition tief im Süden des westlichen Weddell-Meeres nicht davon profitieren.

Das Forschungsteam war am 9. Februar zum Abbruchgebiet des Eisberges A68 aufgebrochen, um hier das bisher unter dem Schelfeis verborgene Meeresökosystem erkunden.

ALTERNATIV WIRD IM NORDWESTLICHEN WEDDELL-MEER GEFORSCHT

Nun steuert das Schiff neue Untersuchungsgebiete weiter nördlich an. „Die vorab definierten alternativen Arbeitsregionen Larsen A- und Larsen-B-Schelfeisgebiet kamen nicht in Frage, denn dort hätten wir genauso in der Mausefalle gesteckt wie im eigentlichen Zielgebiet Larsen-C“, so Dr. Boris Dorschel vom Alfred-Wegener-Institut, Helmholtz-Zentrum für Polar- und Meeresforschung (AWI). Dorschel leitet die Expedition. Nach ausführlichen Gesprächen mit allen Forschungsteams an Bord legten die Wissenschaftler fest, ihre Arbeiten auf eine Region im nordwestlichen Weddell-Meer zu konzentrieren. Entlang eines Transekts, also einer ganzen Reihe von Beprobungsstationen, wollen die Forscher nun untersuchen, wie sich unterschiedliche Umweltbedingungen auf die Ökosysteme am Meeresboden und in der Wassersäule auswirken. So nehmen sie beispielsweise die Meereisbedeckung und die biologische Produktivität in den oberen Wasserschichten unter die Lupe. Die Ergebnisse dieser Arbeiten sollen unter anderem dazu beitragen, die Reaktionen des antarktischen Ökosystems auf den Klimawandel besser zu verstehen. „Mittlerweile konnten wir etliche Probennahmegeräte in der Wassersäule und am Meeresboden einsetzen, so dass die Labore voller Wissenschaftler sind, die eifrig die Mikroalgen sowie die am Boden und in der Wassersäule lebenden Tiere untersuchen“, freut sich Expeditonsleiter Dorschel.

Zudem wird das Expeditionsteam versuchen, entstehende Kanäle im Meereis zu nutzen, um im Weddell-Meer weiter nach Osten vorzustoßen. Denn jenseits des Kontinentalschelfs fällt der Meeresboden rasch von etwa 400 Meter auf rund 3000 Meter ab. „Wenn sich ein Fenster ergibt, wollen wir Gebiete ansteuern, da dort der Meeresboden wie in vielen anderen Bereichen des Südozeans noch weitgehend unkartiert ist“, erläutert Dorschel. Neben diesen bathymetrischen Arbeiten, also der Erstellung des Tiefenprofils, sind die Ozeanographen auch daran interessiert, hier Wassermassen und Strömungsverhältnisse zu untersuchen. Denn die in diesem Meeresbereich stattfindenden Umwälzprozesse treiben die globalen Ozeanströmungen an. So werden ‒ auch wenn das Larsen-C-Schelfeisgebiet außer Reichweite bleibt ‒, durch die Expedition PS118 viele spannende Forschungsfragen beantwortet.

Foto oben: Luftaufnahme: Das Expeditionsschiff Polarstern bei einer Fahrt durch antarktisches Meereis, Weddell-Meer ©Mario Hoppmann

Dieser Artikel erschien am 8. März in der Innovation Origins

DIESER ARTIKEL KÖNNTE SIE AUCH INTERESSIEREN

Antarktis: Forscherteam erkundet Leben unter dem Eisberg A68

Neumayer-Station III: Zehn Jahre deutsche Antarktisforschung

Gletscherschmelze in Grönland, der Antarktis und am Hindukusch

NIEDERLANDE UND DEUTSCHLAND: WISSENSCHAFTSKOOPERATION ZU KÜSTEN-, MEERES- UND POLARFORSCHUNG UNTERZEICHNET

Im Rahmen eines Besuchs des niederländischen Königspaares mit seiner Majestät König Willem-Alexander und ihrer Majestät Königin Máxima unterzeichneten niederländische und deutsche Wissenschaftler eine Erklärung zur Wissenschaftskooperation im Bereich der Küsten-, Meeres- und Polarforschung. Fokus liegt dabei auf den Themen Klimawandel, Artenvielfalt und Naturschutz. Zuvor hatten niederländische und deutsche Wissenschaftler in einem Symposium diese Themen ausgiebig diskutiert. Dazu Antje Boetius, Direktorin des AWI: „Als Küstenanrainer und international wichtige Akteure in der Meeresforschung stehen beide Länder vor großen Herausforderungen, die der Klimawandel mit sich bringt – für die Wissenschaft wie für die Gesellschaft insgesamt.“ Boetius ergänzt: „So beschäftigen uns der Meeresspiegelanstieg und die Erwärmung und Versauerung der Ozeane sowie die Auswirkungen des Wandels auf das Leben im Meer. Gemeinsam sind wir besonders stark im Verständnis der Rolle des Ozeans und der Polarregionen für die Erde und den Menschen.“

SYMPOSIUM ZU UMWELT- UND KLIMATHEMEN

An dem Symposium des Alfred Wegener Instituts nahmen insgesamt über 50 Forschende von der Royal Netherlands Organisation for Scientific Research (NWO), der Universität Utrecht, dem Institute for Sea Research (NIOZ), dem MARUM Zentrum für Marine Umweltwissenschaften der Universität Bremen und dem Alfred-Wegener-Institut teil. Während der Veranstaltung diskutierten die Wissenschaftler Themenfelder wie „Wandel in Arktis und Antarktis“, „unsere Küsten“ sowie „der globale Kohlenstoffkreislauf und das Klima“.

AWI-Biogeologe und Organisator des Symposiums Jelle Bijma freut sich über das gelungene deutsch-niederländische Zusammentreffen: „Im Symposium hatten wir die Chance, ‚out-of-the-box‘ zu denken. So trugen wir beispielsweise zusammen, welche Veränderungen wir zukünftig im System Erde erwarten. Dazu gehören Themen wie: Was bedeutet es für die Meeresökosysteme, wie schnell ändert sich der Meeresspiegel und welche Teile des Klimasystems gehen unwiderruflich verloren, wenn die globale Erwärmung ungebremst voranschreitet, sodass wir bis Ende des Jahrhunderts einen Temperaturanstieg von 4-6°C haben?“

Zudem diskutierten die Wissenschaftler die Frage, welche Funktionen im Vergleich dazu erhalten werden könnten, wenn das 2°C-Ziel eingehalten wird oder wir es sogar schaffen, den Anstieg auf 1,5 °C zu begrenzen. Auch wurden die Bekämpfung von Mikroplastik in unserer Umwelt und das Überfischen der Meere sowie die wissenschaftlichen Möglichkeiten, die ein besserer Zugang zur Nordpolregion eröffnen kann, besprochen. Nicht zuletzt betrachteten die Wissenschaftler auch eventuelle politische Auswirkungen, die sich aufgrund von Klima- und Umweltveränderungen ergeben könnten.

JÄHRLICHER BESUCH DES KÖNIGSPAARES

Das niederländische Königspaar besucht übrigens jedes Jahr ein oder zwei deutsche Bundesländer. Dabei gilt das besondere Augenmerk den Wirtschaftsbeziehungen. Der Besuch in Bremen soll dazu beitragen, die Möglichkeiten für wirtschaftliche Kooperation, auch im internationalen Rahmen, zu erweitern. Die Themenfelder Raumfahrt, Windenergie sowie Polar- und Meeresforschung bieten dafür gute Anknüpfungspunkte.

Der ehemalige deutsche ESA Astronaut Thomas Reiter berichtet dem Königspaar von der Arbeit in der Raumstation ISS ©Airbus

Neben der Wissenschaftskooperation stand auch der Besuch des Airbus Defence & Space Bremen auf dem royalen Programm. Themen waren hier die Bedeutung der Raumfahrttechnologie für die Wissensökonomien beider Länder. So ging es beispielsweise um die gemeinsame Nutzung von Satellitendaten, die bei der Suche nach Lösungen für grenzüberschreitende gesellschaftliche Herausforderungen wie Klimawandel und Luftqualität helfen können. Auch besuchte das Königspaar das europäische Modul der Raumstation ISS. Hier berichtete der ehemalige deutsche Astronaut Thomas Reiter von der Arbeit in der Raumstation.

Majestät König Willem-Alexander und Ihre Majestät Königin Máxima zu Besuch im IWES; von links nach rechts: Institutsleiter Prof. Andreas Reuter, Bremerhavens Stadtverordnetenvorsteherin Brigitte Lückert, OB Melf Grantz, das niederländische Königspaar, Bremens Bürgermeister Carsten Sieling mit seiner Gattin Alexia Sieling ©Martina Buchholz

Deutsche und niederländische Unternehmen gelten übrigens als Vorreiter bei der Entwicklung von kosteneffizienten Off-Shore-Windenergiesystemen für die europäische Energiewende. Grund genug für das Königspaar, das Fraunhofer-Institut für Windenergiesysteme (IWES) in Bremerhaven zu besuchen. Denn das IWES verfügt über eine der größten Testanlagen für Rotorblätter weltweit. Zudem fand hier der deutsch-niederländische Kongress „Market Place: Offshore Wind in the Netherlands and Germany“ statt. Im Rahmen dieser Veranstaltung wurde eine Kooperationsvereinbarung zwischen dem niederländischen Wind-Network NNOW und dem deutschen Branchennetzwerk WAB e.V. unterzeichnet.

Bild oben: Unterzeichnung der Wissenschaftskooperation im Beisein von König Willem-Alexander und Königin Máxima der Niederlande, Karsten Sieling und Alexia Sieling (stehend); Zeichnende: Niek Lopes-Cardozo (Royal Netherlands Organisation for Scientific Research – NWO), Henk Brinkhuis (Institute for Sea Research – NIOZ), Anton Pijpers (Universität Utrecht), Michael Schulz (MARUM Zentrum für Marine Umweltwissenschaften der Universität Bremen) und Antje Boetius (AWI) ©Esther Horvath

Dieser Artikel erschien am 7. März in der Innovation Origins.