ERFOLGREICHER TEST VON RAKETENTRIEBWERK AUS 3D-DRUCK

Diese Woche erreichte die Europäische Weltraumorganisation ESA in punkto Raketentriebwerk einen wichtigen Meilenstein. Denn am Prüfstand P8 in Lampoldshausen absolvierte das BERTA-Triebwerk am 18.2.2018 erfolgreich seinen ersten Testlauf. BERTA (Biergoler Raumtransportantrieb) wurde ganze 560 Sekunden mit einem auf 2,45 Kilonewton ausgelegten Referenzschub getestet. Die Besonderheit: Der Raketenmotor wurde Ende 2018 vollständig im 3D-Druckverfahren gefertigt.

WETTBEWERBSFÄHIGKEIT EUROPÄISCHER TRÄGERSYSTEME

Der 3D-Druck ‒ auch additive Fertigung genannt ‒ liefert für den Triebwerksbau verschiedene Vorteile. So lassen sich die Produktionszeiten signifikant verringern. Derzeit werden zum Beispiel Brennkammern in Europa zuerst gegossen und geschmiedet. Dann werden Kühlkanäle ausgefräst, die schließlich mittels galvanischer Prozesse abgedeckt werden. Übliche Lieferzeiten betragen bis zu eineinhalb Jahre.

Mittels additiver Fertigung dagegen können vollständige Triebwerke innerhalb weniger Wochen geliefert werden. Bei BERTA wurde sowohl der Einspritzkopf ‒ er besteht aus einer korrosionsbeständigen Nickelbasislegierung ‒, sowie auch die Brennkammer aus Edelstahl durch selektives Laserschmelzen hergestellt. Durch den Einsatz eines Lasers wurde das finale Bauteil schichtweise durch Aufschmelzen des Werkstoffes in Pulverform auf einer Grundplatte aufgebracht. Im 3D-Druck-Verfahren sind komplexere Strukturen möglich, die sich in konventionellen Verfahren nicht herstellen lassen. So enthält BERTA ein komplexes Design für die Kühlkanäle, welches ein verbessertes Kühlverhalten der Brennkammer sicherstellen soll. Durch die optimierte Kühlung können Brennkammern zukünftig kompakter gebaut werden. Das spart Material ein. „Die additive Fertigung eröffnet Europa neue Wege, Triebwerke zu fertigen“, so Lysan Pfützenreuter, Projektleiterin beim DLR Raumfahrtmanagement. „Mit dem erfolgreichen Nachweis der Technologie wird ein wichtiger Schritt in Richtung einer verbesserten Wettbewerbsfähigkeit europäischer Trägersysteme gegangen.“ Somit kommt die Europäische Weltraumorganisation ESA dem Bau von neuen, wirtschaftlicheren Raketen deutlich näher.

P8 IN LAMPOLDSHAUSEN

Prüfstand P8 in Lampoldshausen ©DLR

Der P8 ist ein Forschungs- und Entwicklungsprüfstand beim DLR (Deutschen Zentrum für Luft- und Raumfahrt) in Lampoldshausen, der gemeinschaftlich vom DLR, der französischen Raumfahrtagentur CNES und dem industriellen Partner ArianeGroup genutzt wird. Die Verantwortung für den Betrieb und die Durchführung der Tests liegt bei dem Prüfstandteam des DLR. „Der Prüfstand P8 bietet umfangreiche Möglichkeiten, Demonstratoren von Komponenten über Baugruppen bis hin zu kleinen Triebwerken zu testen. Ziele der aktuellen Tests sind, das Strömungsverhalten und den Wärmeübergang bei gedruckten Oberflächen zu untersuchen. Diese neue Technologie kann derzeit europaweit nur am Prüfstand 8 in Lampoldshausen getestet werden“, erläutert Gerd Brümmer, DLR-Ingenieur und Leiter des Prüfstands P8.

MISSIONEN ÜBER ERDORBIT HINAUS

BERTA ist für den Betrieb mit lagerfähigen Treibstoffen ausgelegt. Das bedeutet, dass die Treibstoffe bei Raumtemperatur gelagert werden können. Triebwerke dieser Art sind sehr zuverlässig und können mehrfach gezündet werden. Sie eignen sich somit für längere Missionen. Damit kann dieses Triebwerk nicht nur für den erdnahen Bereich auf kleinen bis mittleren Raketen eingesetzt werden, sondern auch für Missionen über den Erdorbit hinaus. Übliche lagerfähige Treibstoffe sind jedoch hochgiftig. Für die Testläufe im Prüfstand werden daher kryogene Treibstoffe verwendet.

Entwickelt wurde das Triebwerk im Rahmen der Forschungen für zukünftige europäische Trägersysteme (Future Launcher Preparatory Programme/FLPP) der ESA. Deutschland ist seit Jahren größter Beitragszahler im FLPP-Kernprogramm. Das DLR Raumfahrtmanagement steuert die Verwendung der Mittel innerhalb von FLPP und berät die ESA bei der Durchführung einzelner Projekte.

Die Testkampagne wird noch vier Wochen andauern und die Ergebnisse werden auch in weitere Entwicklungsvorhaben der ESA einfließen. So sollen 3D-Druckverfahren für Weiterentwicklungen der Ariane-6-Triebwerke Vinci und Vulcain eingesetzt werden.

Bild oben: BERTA-Triebwerk bei der Integration ©DLR

Dieser Artikel erschien am 20.2.2019 in der Innovation Origins.

EIERSCHALEN ALS ELEKTRODE FÜR ENERGIESPEICHER

Knapp 20 Milliarden Eier werden in Deutschland pro Jahr verbraucht. Und selbstverständlich möchte jeder das Gelbe vom Ei. Dabei bieten auch die Eierschalen ein durchaus interessantes Potenzial: Sie eignen sich als effektives, nachhaltiges Speichermaterial und somit zum Bau eines kostengünstigen sowie gleichzeitig guten Lithium-Ionen-Kondensators. Die Überlegung, Bioabfall sinnvoll weiterzuverwerten, ist ein spannendes Thema. Dazu Professor Maximilian Fichtner vom Helmholtz-Institut Ulm (HIU): „Es gibt überraschenderweise immer wieder neue Beispiele, in denen Naturstoffe gute bis sehr gute Voraussetzungen mitbringen, um daraus Materialien für elektrochemische Speicher herzustellen.“

ELEKTROCHEMISCHE EIGENSCHAFTEN

So bestehen Hühnereierschalen aus einem Verbundwerkstoff mit Calciumcarbonat (CaCO3) und einer proteinreichen Fasermembran. Sie bieten – dank des hohen Anteils an CaCO3 –, somit hervorragende elektrochemische Eigenschaften, mit denen sie Lithium gut speichern können. Zu diesem Ergebnis kommt ein internationales Team, zu dem auch Wissenschaftlerinnen und Wissenschaftler des HIU gehören. Die Forschenden verwendeten Eierschalenpulver als Elektrode gegen eine metallische Lithium-Anode in einem nichtwässrigen Elektrolyten. Bei über 1000 Lade- und Entladezyklen hielt die Testzelle eine Kapazität von 92 Prozent aufrecht.

HIU
Forschende charakterisieren die Morphologie des Eierschalenmaterials mithilfe eines Rasterelektronenmikroskops @Daniel Messling, HIU/KI

Für ihre Untersuchungen verwendeten die Forschenden sowohl die verkalkte Schale als auch die innere und äußere Schalenmembran. Hierfür wuschen, trockneten und zerkleinerten sie die Schalen zu einem Pulver und erhielten das leitfähige Material. Um die Leistungsfähigkeit des Materials zu verbessern und einen breiten Einsatz zu ermöglichen, sind nun weitere Forschungen und ein detailliertes Verständnis des elektrochemischen und physikalischen Verhaltens des Materials erforderlich, heißt es aus dem Forschungsteam.

KOSTENGÜNSTIG UND GUT

Bislang kommen Eierschalenabfälle in einer Reihe von Anwendungen zum Einsatz. Sie werden in der Biokeramik, in Kosmetika oder in der Farbstoffindustrie genutzt. Auch fungierte die proteinreiche, faserige Eierschalenmembran schon als Separator in Superkondensatoren. Nun wurden die Eierschalen weltweit erstmals als Elektrode verwendet. Neben den oben genannten Einsatzbereichen könnten sie also zukünftig als nachhaltiges Speichermaterial eingesetzt werden. Die Ergebnisse stellte die Forscher-Gruppe kürzlich in der Zeitschrift Dalton Transactions der Royal Society of Chemistry vor (DOI: 10.1039/c8dt03252a) vor.

HINTERGRUND

Als Forschungsuniversität in der Helmholtz-Gemeinschaft schafft und vermittelt das KIT Wissen für Gesellschaft und Umwelt. Ziel ist es, zu den globalen Herausforderungen maßgebliche Beiträge in den Feldern Energie, Mobilität und Information zu leisten. Dazu arbeiten rund 9300 Mitarbeiterinnen und Mitarbeiter auf einer breiten disziplinären Basis in Natur-, Ingenieur-, Wirtschafts- sowie Geistes- und Sozialwissenschaften zusammen. Seine 25100 Studierenden bereitet das KIT durch ein forschungsorientiertes universitäres Studium auf verantwortungsvolle Aufgaben in Gesellschaft, Wirtschaft und Wissenschaft vor. Die Innovationstätigkeit am KIT schlägt die Brücke zwischen Erkenntnis und Anwendung zum gesellschaftlichen Nutzen, wirtschaftlichen Wohlstand und Erhalt unserer natürlichen Lebensgrundlagen.

Bild oben: Eierschalen bestehen aus porösem Calciumcarbonat, das sich sehr gut für elektrochemische Speicher eignet @Manuel Balzer, KIT

Dieser Artikel erschien am 19.2.2019 in der Innovation Origins.

DAS KÖNNTE SIE AUCH INTERESSIEREN

Designprinzipien sollen Smartphone-Akkus sicherer machen

Festoxid-Brennstoffzelle liefert erstmals 100.000 Stunden Strom

STATE OF THE ART IN DER AUSBILDUNG 4.0

Probieren geht über Studieren – das war eigentlich schon immer die Devise, wenn etwas erfolgreich umgesetzt werden soll. Heutzutage ist dies durch die Ausbildung 4.0 mit Augmented Reality (AR), Virtual Reality (VR) und Künstlicher Intelligenz (KI) bei misslungenem Versuch ganz ohne gravierende Folgen in der Berufswelt möglich. Genau das machen sich immer mehr Arbeitgeber in der Aus- sowie in der Fortbildung von Mitarbeitern zunutze. Grund genug auch für das Bundesministerium für Bildung und Forschung (BMBF) schon im Sommer 2016 die Initiative Berufsbildung 4.0 zu starten. In Kooperation mit dem Bundesinstitut für Berufsbildung (BIBB) zielt sie darauf ab, neue Maßnahmen für eine zukunftsrelevante, attraktive und wettbewerbsfähige Berufsausbildung zu gestalten. Entsprechend sind mittlerweile einige Projekte in Kooperation mit Universitäten, Instituten und IT-Unternehmen entstanden.

BEWERBUNG

Vor der Ausbildung kommt die Bewerbung. Dank des Forschungsprojektes Empat können sich Jugendliche gezielt auf die Interaktion während des Bewerbungsgesprächs vorbereiten. Denn mit Hilfe von Avataren in Form eines virtuellen, empathischen Trainingssystems wird die Bewerbungssituation geübt und das eigene Verhalten trainiert. Dabei wird – um das Verhalten des interaktiven Avatars an die sozio-emotionale Situation des Nutzers anzupassen –, eine Echtzeit-Analyse sozialer Signale mit einem emotionalen Echtzeit-Benutzermodell gekoppelt. Noch ist für die Forscher der Uni Augsburg (Fachbereich Informatik), der Universität des Saarlandes (Psychologie) sowie Unternehmen aus dem Bereich der 3D-Grafik die realitätsnahe Gestaltung des emotionalen Feedbacks durch den Avatar die größte Herausforderung.

Hochentwickelte Hardwaresensoren erfassen soziale Kommunikationssignale wie Blick-, Augen, Hand- und Körperbewegungen und simulieren emotional-soziale Interaktionsmuster. Die Ergebnisse werden zudem dazu genutzt, mögliche emotionale Zustände eines Benutzers zu berechnen. Begleitet wird das Projekt von einem Ethikbeirat aus den Fachgebieten Coaching, Jugendarbeit, Jura und Pädagogik.

Natürlich sind berufliche Gespräche auch für andere Situationen trainierbar. So werden VR-Brillen zum Beispiel für die Bankberater-Ausbildung eingesetzt. Nach Deutschland wird hier nun auch die Volksbank-Akademie in Österreich aktiv. 2018 startete dazu ein Forschungsprojekt, das im ersten Halbjahr 2019 ausgebaut wird. An die 80 angehende Kundenberater erhalten Übungseinheiten mit einer Virtual-Reality-Brille.

VIRTUELLE NOTFÄLLE

Schon im Jahre 2017 ist das Forschungsprojekt „Epicsave“ gestartet. Hier werden durch den Einsatz von VR verschiedene Szenarien in der Rettungssanitäter-Ausbildung getestet. Ziel dabei ist, „…lebensbedrohliche ‒ aber für eine hinreichende Ausbildung zu selten auftretende Notfälle, wie den allergischen Schock bei Kindern ‒, praktisch trainierbar zu machen“, heißt es auf der Webseite der Initiatoren. Zum Einsatz kommen neben der VR auch weitere digitale Tools aus den Bereichen Gaming, Eye-tracking, Virtual Agents und 3D-Interaktion. Das Projekt wird von Experten aus unterschiedlichen Fachrichtungen betreut. So untersteht die Projektleitung und medientechnische Begleitforschung zu erfahrungsbasierten Serious Games und Virtueller Realität der Hochschule Bonn-Rhein-Sieg. Für die mediendidaktische Konzeption und Evaluation der Lernmodule ist das Fraunhofer IESE verantwortlich. Und die Technische Umsetzung der Serious Games sowie der VR-Umgebung stammt von Tricat. Das Ulmer Unternehmen gilt weltweit als Vorreiter in Bezug auf virtuelle 3D Lern- und Arbeitswelten. Implementiert werden die Simulationstrainings in der freien Wohlfahrtspflege (Malteser Hilfsdienst) sowie der Akademie für Notfallmedizin. Langfristig kann Epicsave auch auf die Auszubildenden in Gesundheitsfachberufen sowie auf die fortbildungsverpflichtete Ärzteschaft übertragen werden. Zudem ist in einem dritten Schritt der Aufbau eines Bildungsportals zu gesundheitlichen Notfällen für die breite Öffentlichkeit angedacht.

Einen ähnlichen Ansatz hat auch die virtuelle Feuerwehr-Ausbildung im Landkreis Cham, die nun auch deutschlandweit eingesetzt wird. Gemeinsam mit der Universität Kassel wurde ein System entwickelt, durch das Einsatzkräfte per 3D-Brille in virtuelle Einsatzsituationen versetzt werden. Der große Vorteil: Ausbilder können das Verhalten beobachten, analysieren und auch gleich korrigieren.

ZUKUNFTSWERKSTATT

Mit Social Virtual Reality wird die reale Welt um eine digitale erweitert. In der App hinterlegt sind die Konstruktionsdaten einer Heidelberg-Maschine der Modellreihe SX 74, die in den Lehrwerkstätten der Schulen am häufigsten vertreten ist ©Heidelberger Druckmaschinen

Mit Social Virtual Reality wird die reale Welt um eine digitale erweitert. In der App hinterlegt sind die Konstruktionsdaten einer Heidelberg-Maschine der Modellreihe SX 74, die in den Lehrwerkstätten der Schulen am häufigsten vertreten ist ©Heidelberger Druckmaschinen

Mit dem Ziel in Bezug auf dynamische Veränderungen nachhaltig handlungsfähige Mitarbeiter zu entwickeln und gleichzeitig eine eher traditionelle Branche für Digital Natives interessant zu gestalten entstand die Zukunftswerkstatt der Heidelberger Druckmaschinen AG. In dieser lernen Auszubildende von Beginn an die Digitalisierungsstrategie des Unternehmens kennen. Die Mechatroniker-Azubis können zum Beispiel per Virtual Reality (VR) das Innenleben einer Druckmaschine näher betrachten. Und lernen dabei virtuell Montage-, Wartungs- und Reparaturarbeiten zu simulieren. „Hier haben wir ein Beispiel für einen gelungenen Transfer von einem Förderprojekt in eine Anwendung für ein Industrieunternehmen“, beschreibt Dr. Lutz Goertz, E-Learning Forscher und Leiter der Bildungsforschung beim mmb Institut. Denn die begehbare Druckmaschine wurde zuvor im BMBF-Projekt „Social Virtual Learning“ entwickelt und erprobt.

DIGITALE ASSISTENZ

Auch das BMW-Werk in Landshut setzt mittlerweile auf digitale Assistenzsysteme in der Ausbildung. Eine VR-Brille trainiert die Azubis insbesondere im Bereich der Fertigung. So lernen sie zum Beispiel zunächst virtuell das Lackieren eines Bauteils mit der Lackierpistole oder das Bohren eines Werkstücks. Laut BMW kommt die Gaming-affine Lernatmosphäre nicht nur bei den jüngeren Mitarbeitern gut an. Die VR-Brille gibt übrigens erstens ein reales Abbild des Arbeitsplatzes wieder, und sie leitet zudem zur richtigen Ausführung an. Am Ende des Trainings wird das Ergebnis ausgewertet. So dass gleichzeitig auch Verbesserungspotenziale aufgezeigt werden. Schon seit 2012 kommt in dem Dingolfinger Werk des bayerischen Autobauers die MRK-Technologie (‚Mensch-Roboter-Kollaboration‘) in der Ausbildung zum Einsatz. Hier sammeln angehende Elektroniker, Mechatroniker und Fachinformatiker erste Erfahrungen im Programmieren von MRK-Robotern für die Fertigung. Die Roboter sind flexibel einsetzbar. Sie bewegen sich direkt neben den Menschen und übernehmen häufig monotone Arbeitsschritte, die hohe Zuverlässigkeit oder gleichbleibende Kraft und Ausdauer benötigen.

FLUGSCHÜLER IN VIRTUELLER WELT

Seit 2017 wird bei der European Flight Academy das Lufthansa Aviation Training (LAT) eingesetzt. Nun wurde das Trainingsmodul „Visual Flight Rules (VFR)“ als bestes eLearning-Tool 2019 in der Kategorie Virtual Reality gekrönt. Die Anwendung ermöglicht Flugschülern, die Luftraumstruktur und das Erkennen von Landmarken aus der Luft vor ihrem ersten Überlandflug in einer VR-Umgebung interaktiv zu erleben. Nach virtuellem Briefing mit 360°-Filmaufnahmen mit 3D-animierten Objekten erleben die Schüler eine immersive orts- und zeitunabhängige Erfahrung des Luftraums und seiner Struktur. Im Anschluss fliegen sie virtuell um den Trainingsflugplatz von Goodyear/USA. Dabei müssen sie Landmarken erkennen und anvisieren. Das Projekt wurde zusammen mit Psychologen der Technischen Universität Berlin entwickelt und kann ein stolzes Ergebnis vorweisen: Die Flugschüler zeigten in realen Flugmissionen eine rund 15 Prozent bessere Gesamtleistung bei einer gleichzeitigen Senkung des Stresslevels.

MIXED REALITY AN DER UNI

Dank der Kombination aus Augmented Reality und tatsächlichen Gegebenheiten können Studenten des Bauingenieurwesens der Universität Weimar sowie der Universität Ulm räumliche Informationen realitätsnah in drei Dimensionen abbilden. Gleichzeitig erhalten sie Hintergrundinformationen über vorhandene Objekte, so dass eine Interaktion möglich wird. Anwendungsbeispiele wäre das Bauen von Straßen, Brücken oder Gebäuden mit zusätzlichen, computergenerierten Informationen wie Formeln und Erläuterungen. Hinzu kommen verborgene Einflussgrößen wie Bodenstruktur, CO2-Ausstoß oder Thermodynamik, die dank Mixed Reality (MR) sicht- und erlebbar werden und somit eine entsprechende Planung möglich machen.

DIDAKTIK

Dies ist nur ein kleiner Ausschnitt davon, wohin die Reise in Richtung Ausbildung 4.0 geht. Einen stets aktuellen Überblick über das Thema „Lernen in virtuellen Welten“ gibt das Online Magazin Immersive Learning.

E-Learning-Forscher Goertz sieht auch Grenzen in Bezug auf digitale Lernmodule: „Der Einsatz von VR-Brillen darf kein Selbstzweck sein. Die neuen Tools müssen dem Erreichen von Lernzielen dienen“, skizziert er verschiedene didaktische Konzepte. „So lässt sich das Virtual Reality Learning besonders gut einsetzen für das Verstehen komplexer Prozesse, für das Einüben von Verhaltensweisen, für das Bewegungstraining und den Erwerb von Softskills wie z.B. Kommunikationskompetenzen.“

Sünne Eichler, Beraterin für Bildungsmanagement prognostiziert – dank stets weiter optimierter Rechnerleistungen, verbesserter Grafik und sinkender Hardwarekosten –, eine zunehmende Bedeutung von VR in Lernsituationen: „Wir verschaffen damit dem Lerner ein Lernerlebnis dicht an der Realität – Probehandeln und Selbstwirksamkeit ohne Risiko. Und mit Hilfe der KI können wir spezifisch zugeschnittene Lernangebote machen“, so Sünne Eichler, „das bedeutet individuelles ‚Lernen on demand‘ statt Gießkanne. Mit Hilfe der KI können wir dem Auszubildenden in einem Arbeitsprozess, z.B. beim Bedienen einer Maschine, über Chatbots eine schnelle Antwort auf seine spezifische Fragestellung geben. Er bekommt passgenaues Wissen und die Maschine lernt gleich mit, wo typische Fehlerquellen in der Bedienung liegen.“

Bild oben: Die VR-Brille gibt ein reales Abbild des Arbeitsplatzes wieder. Zudem leitet sie zur richtigen Ausführung an. Sie ermöglicht so bereits frühzeitig und losgelöst vom realen Arbeitsplatz, neue Tätigkeiten zu trainieren ©BMW

Dieser Artikel erschien am 15.2. 2019 in der Innovation Origins.

Gratwanderungen: Künstliche Intelligenz in der Medizin

Die Entschlüsselung des menschlichen Erbguts gibt noch immer Rätsel auf. Ein entscheidendes Hilfsmittel könnte dabei Künstliche Intelligenz sein. Mit ihr scheinen neue therapeutische Ansätze für schwerwiegende Krankheiten möglich. Aber eben auch nichtmedizinische „Verbesserungen“ des Erbguts. Seit diesem Jahr erforschen Wissenschaftler des Karlsruher Instituts für Technologie (KIT) welche Anwendungen in der Medizin realistisch sind. Aber auch welche ethischen Fragen aufkommen werden.

„Die moderne Genomforschung will verstehen und vorhersagen, wie genetische Unterschiede zwischen Menschen komplexe Merkmale, wie zum Beispiel Dispositionen für häufige Krankheiten, bestimmen“, so Harald König, Institut für Technikfolgenabschätzung und Systemanalyse (ITAS) des KIT. Zwar schreiten die Möglichkeiten der Analyse des Erbguts rasch voran. Doch bleibt das Wissen darüber, wie unser Erbgut solche Merkmale bestimmt, bislang meist auf Korrelationen beschränkt. Eine entscheidende Weiterentwicklung verspricht nun der Einsatz von fortgeschrittenen Formen Maschinellen Lernens: „Insbesondere das sogenannte Deep Learning könnte es ermöglichen, menschliche Genome nicht nur wie bisher zu ‚lesen‘, sondern die komplexen biophysikalischen Zusammenhänge und Mechanismen zu verstehen, die dafür sorgen, aus genetischen Anlagen körperliche Merkmale hervorzubringen“, so König.

THERAPIEN GEGEN KREBS ODER DEMENZ

Die neuen Ansätze machen sich die Kombination von Künstlicher Intelligenz und rasch fortschreitenden Techniken der Genomanalyse (einschließlich Einzelzellanalysen) sowie automatisierte Laborplattformen zunutze. Letztere können sehr große Mengen von Daten zu Genomveränderungen und verschiedenen zellulären Prozessen wie dem Ablesen von Genen oder dem Auftreten verschiedener Proteinformen unter verschiedenen Bedingungen liefern. „Das Ergebnis könnte ein enormer Wissenssprung – von Korrelationen hin zu ursächlichen Zusammenhängen – sein, der ganz neue Anwendungsmöglichkeiten verspricht“, so König. Mit solchen Ansätzen verbinde sich beispielsweise die Hoffnung auf neue, ungleich effektivere Therapieansätze für Krebs, Herz-Kreislauf-Erkrankungen oder Demenz. Diese „precision medicine“ könnte maßgeschneidert für verschiedene Gruppen von Patienten, Krankheitsvarianten oder -stadien eingesetzt werden.

Das Forschungsteam, an dem neben der Technikfolgenabschätzung des KIT auch das Fraunhofer-Institut für System- und Innovationsforschung (ISI) beteiligt ist, will analysieren, welche Anwendungen in der Praxis kurz- bis mittelfristig realistisch sind. Gleichzeitig liegt der Fokus auf den vielfältigen gesellschaftlichen und politischen Implikationen, mit denen das neue Wissen verbunden ist. So könnte die Medizin der Zukunft für eine alternde Gesellschaft enormen makroökonomischen und sozialen Nutzen haben. Zudem könnten manche der Ansätze, wie gen- und zellbasierte Therapien, jedoch auch mit sehr hohen Kosten einhergehen. Somit werden Fragen nach der Finanzierung von Forschung und Entwicklung sowie der Zugänglichkeit für Patienten aufgeworfen.

PRÄVENTIVE EINGRIFFE IN DIE MENSCHLICHE KEIMBAHN

Das Wissen darüber, welche genetischen Informationen wie „umgeschrieben“ werden müssten, um bestimmte Effekte zu erzielen, wirft zusammen mit jüngsten Verfahren zur Genom-Editierung, wie dem CRISPR-Cas-System, auch ethische Fragen auf. So könnte zumindest international der Trend dahingehen, über seltene Erbkrankheiten hinaus auch häufige Leiden wie Brustkrebs oder Diabetes durch eine „präventive Korrektur“ entsprechender Risikomutationen in der Keimbahn menschlicher Embryonen zu verhindern. „Eine Entwicklung, die im Extremfall dazu führen könnte, dass es künftig eine wachsende Akzeptanz dafür gibt, das menschliche Genom mit nicht-medizinischen Eingriffen zu ‚verbessern‘ “, befürchtet König.

Außerdem müsse sich die Gesellschaft damit auseinandersetzen, wie die Eigentumsrechte von genetischen Daten geregelt und ihre Sicherheit gewährleistet werden kann. Künftig könnte es beispielsweise möglich sein, anhand von Genomsequenzen direkt auf den Phänotyp, also beispielsweise das Aussehen von Personen zu schließen. „Dieses Wissen“, so König, „wäre nicht nur für Strafverfolgungsbehörden äußerst wertvoll.“

OPTIONEN FÜR POLITISCHE ENTSCHEIDUNGSTRÄGER

Aufbauend auf ihrer Technikfolgenabschätzung wollen die Forschenden in den kommenden beiden Jahren Optionen für die Forschungs- und Innovationspolitik erarbeiten. Politischen Entscheidungsträgern wollen sie zudem verschiedene Handlungsmöglichkeiten anbieten. So sollen Wege für einen verantwortungsvollen Umgang mit dieser durch KI und Genomik getriebenen Technologie eröffnet werden.

Das Projekt „Deepen Genomics – Chancen und Herausforderungen der Konvergenz von künstlicher Intelligenz, moderner Humangenomik und Genom-Editierung” ist Teil der Innovations- und Technikanalyse (ITA) des Bundesministeriums für Bildung und Forschung (BMBF). Die aktuellen Forschungsprojekte des Programms werden am 14. und 15. Februar beim ITA-Forum 2019 in Berlin vorgestellt.

Weitere Informationen zu dem Projekt gibt es hier.

Bild oben: Krankheiten behandeln oder das Erbgut „verbessern“? Was KI hier beitragen kann und
welche ethischen Fragen das aufwirft, untersuchen Forschende des KIT © Pixabay

Dieser Artikel erschien am 14.2.2019 in der Innovation Origins.

Reisen, ABER NACHHALTIG – Geht das überhaupt?

Wir alle wissen: Autos, Flugzeuge und sogar die Bahn belasten die Umwelt. Sollten umweltbewusste Outdoorsportler deshalb besser daheimbleiben? Mitnichten! Einziger Appell: Augen auf bei der Reiseplanung.

Text: Almut Otto; Fotos: DAV Summit Club, DAV/Josef Essl, Friederike Kaiser, Almut Otto, Eike Otto, Burghard Rauschelbach, GIZ/BKK

Zu Hause bleiben? Sich selbst einschließen?“ Burghard Rauschelbach, Berater für Tourismus und Destinationsentwicklung, wirkt fast etwas entsetzt, als wir ihn nach einer nachhaltigen Alternative für das Reisen befragen: „Egal aus welchem Grund – das wäre schrecklich. Es ist für mich keine Frage: Reisen muss nachhaltig sein. Oder sagen wir es etwas konkreter: Umweltfreundlich, verantwortungsvoll gegenüber Natur, Umwelt und Menschen.“ Einen sehr großen Anteil in Bezug auf eine negative CO2-Bilanz kann beim Reisen die Anfahrt ausmachen. Deshalb gibt es für umweltbewusste Touristen eine Faustformel: Bei Reisen unter 700 Kilometern Entfernung ist es besser, auf ein Landtransportmittel umzusteigen. Bus oder Bahn sind dabei am umweltfreundlichsten. Wobei laut dem Tremod-Emission Model des Umweltbundesamtes die C02-Bilanz in einem mit vier Personen besetzten Auto durchaus vertretbar ist. Bei Flugreisen von 700 bis 2.000 Kilometern wird ein Mindestaufenthalt von acht Tagen und bei einer Flugreise über 2.000 Kilometer ein Aufenthalt vor Ort von mehr als 14 Tagen empfohlen.

Ingo Nicolay, Geschäftsführer des DAV Summit Clubs, zu der Frage, wie der Reisespezialist das Thema Nachhaltigkeit in die Praxis umsetzt: „Nachhaltigkeit ist nicht moralinsaurer Verzicht, sondern intelligentes Überdenken gewohnter, manchmal vielleicht auch lieb gewonnener Traditionen. Ein konkretes Beispiel: Beim ersten Blick gewinnt immer das Auto vor der Anreise mit der Bahn. Hier kommt unser Einsatz. Wir lenken und leiten Mobilität. So gibt es schon heute über 50 Kurse und Touren, die ich in vielen Fällen schneller, auf jeden Fall bequemer, mit der Bahn erreiche. Und unsere Kunden machen mit. Im Tierser Tal waren kürzlich von neun Kunden sieben mit der Bahn angereist. Und das ist erst ein Anfang.“

KLIMASPENDEN FÜR DIE UMWELT

Fliegen: Eine der umweltschädlichsten Arten zu reisen

Flugreisen stehen bei Umweltschützern besonders in der Kritik, denn hier wirken sich gleich mehrere Faktoren auf das Klima aus. Wen es trotzdem in die weite Ferne zieht, der kann zumindest durch eine Spende noch etwas für die Umwelt tun. Doch Vorsicht, nicht alle Angebote sind seriös. Bei Klimaspenden also am besten auf Aktionen nach dem CDM Gold Standard achten. Diese folgen den strengen Richtlinien des UNKlimasekretariats. Mitglieder des DAV Summit Clubs können auch pauschal ihren Mitgliederrabatt von 30,– Euro auf Reisen oder einen anderen freiwilligen Betrag für das My Climate Biogas Projekt in Nepal spenden. Das Schöne daran: Man weiß genau, wo das Geld eingesetzt wird.

Heliskiing

Zwar erstellt Burghard Rauschelbach, Berater für Tourismus und Destinationsentwicklung, keinen Freibrief für Heliskiing, doch zeigt seine Antwort in Bezug auf mögliche Infrastrukturen bis hin zum Heliskiing, das Dilemma, in dem sich Touristiker befinden: „Wer den Alpentourismus der letzten Jahrzehnte beobachtet, der stellt fest, dass die wilden, unberührten Gebiete nach Anzahl und Fläche rapide abgenommen haben. Wo braucht man als Bergsportler oder Wanderer eine weitere Erschließung? Das ist sehr sorgfältig abzuwägen. In den Alpen, aber auch in den Mittelgebirgen muss inzwischen der Grundsatz gelten: Kein Ausbau ohne Rückbau an anderer Stelle. Selbstverständlich muss man sich einschränken. ‚Einschränken’, das klingt nach Verlust. Es ist genau umgekehrt: Wir wissen, was eine neue Liftanlage oder ein Mountainbike-Trail bedeuten kann – nämlich Vernichtung ökologischer Funktionen, Verlust an Naturgenuss. Sie nennen Heliskiing, das ist sozusagen das Gegenteil von nachhaltigem Bergtourismus. Ich brauche wohl nicht zu erläutern, warum. Aber nun das kleine Gedankenspiel zur Destinationsentwicklung: Was ist schlechter, Heliskiing mit wenig Individualtouristen, zeitlich beschränkt und ohne bauliche Eingriffe oder: Skianlage mit Massentourismus und dauerhaften Veränderungen? Manchmal steht man als Planer vor solchen Fragestellungen.“

NACHHALTIGE ANGEBOTE MÜSSEN AUCH GEKAUFT WERDEN

Die Anforderungen an ein nachhaltiges Tourismusangebot sind sehr komplex. Alleinige Klimakompensation reicht da nicht. „Zunächst einmal muss das Produkt stimmen!“, erklärt Eike Otto, Berater Sustainable Tourism, „Nachhaltiger Tourismus funktioniert nur, wenn er auch gekauft wird.“ Ohne den Kunden gelingt Nachhaltigkeit also nicht. Erst wenn touristische Nachfrage generiert wird, kann Tourismus auch zum Schutz von Pflanzen, Tieren und deren Lebensräumen beitragen. Man bedenke, dass dabei das Thema Naturschutz von der touristischen Infrastruktur bis hin zur Speisekarte im Restaurant reicht. Doch auch Umweltschutz – darunter Luftreinhaltung, Abfallvermeidung, Wasserverbrauch und Abwasserklärung – ist in Bezug auf Nachhaltigkeit ein wichtiges Thema. Ebenso zeigt die lokale Wertschöpfung, also was vom Fremdenverkehr vor Ort bei der Bevölkerung an Einnahmen ankommt, ob Tourismus nachhaltig ist oder nicht. Dazu gehören nicht nur die Ausgaben der Urlauber, sondern Leistungen entlang der gesamten Wertschöpfungskette, durch die das touristische Produkt überhaupt erst möglich wird. Und neben den Einnahmen der touristischen Unternehmen kommt noch der indirekte Wertschöpfungseffekt, wie zum Beispiel Bäcker oder Apotheke, hinzu. Mittlerweile werden heute auch Arbeitsbedingungen und die Sicherheit am Arbeitsplatz als wichtige Kriterien für nachhaltigen Tourismus angesehen. Wer bei seiner Urlaubsreise in puncto Nachhaltigkeit auf Nummer sicher gehen möchte, der kann sich an einer Vielzahl von Gütesiegeln, wie zum Beispiel Green Globe oder Viabono, orientieren. Zertifizierte, nachhaltige touristische Angebote bieten neben dem Summit Club unter anderem die Alpine Pearls und das Forum Anders Reisen.

Eike Otto, Tourismusberater, sustainable-tourism.com, setzt – neben der Verantwortung des Reiseveranstalters, planerischen Aspekten etc. – auch auf die Macht des umweltbewussten Kunden vor Ort: „Die Regeln, die man von zu Hause kennt, sollte man auch anderswo und vor allem in fernen Ländern verinnerlichen, zum Beispiel Nutzung des vorgegebenen Wegenetzes, Einhaltung von Abständen zu Wildtieren, Lärmvermeidung usw. Wer nach dem Motto ‚was nicht verboten ist, ist erlaubt’ geht, handelt verantwortungslos. Ich erlebe aber immer wieder, dass viele Urlauber sensibler in puncto Nachhaltigkeit sind, als dies bei so mancher Destination der Fall ist. Daher empfehle ich, auch deutlich auf Missstände an seinem Urlaubsort aufmerksam zu machen. Nichts hat mehr Gewicht als die Meinung des Kunden!“

Dieser Artikel erschien in der Mountains4u 5/2014.

GLETSCHERSCHMELZE IN GRÖNLAND, DER ANTARKTIS UND AM HINDUKUSCH

Gerade erst kündigte ein internationales Team an Wissenschaftlern, darunter das Deutsche Luft- und Raumfahrt Institut (DLR), eine dramatische Entwicklung am Thwaites-Gletscher in der Westantarktis an, da kommt kaum eine Woche später die nächste Veröffentlichung, diesmal vom Alfred Wegener Institut (AWI) durch Dr. Martin Rückamp und Co-Autoren: Am Petermann-Gletscher im Nordwesten Grönlands wird in nicht mehr allzu langer Zeit ein riesiger Eisberg abbrechen. Und auch vom Hindukusch gab es letzte Woche Alarm durch das Internationale Zentrum für Integrierte Gebirgsentwicklung (ICIMOD): Mindestens ein Drittel der Gletscher von Hindukusch und Himalaja werden bis zum Ende dieses Jahrhunderts verschwunden sein. Ein weiteres Forscherteam unter deutscher Leitung ist gerade auf Expedition zum 2017 abgebrochenen Eisberg A68 am Larson Schelfeis C in der östlichen Antarktis-Halbinsel unterwegs.

Während bei der Expedition das einzigartige und bisher verborgene Meeresökosystem erkundet wird, geben die aktuellen Forschungsergebnisse ziemlich zu denken. Denn oft wird der Rückgang der Gletscher als Indikator für die Klimaerwärmung gesehen. Er ist diesbezüglich in etwa vergleichbar wie Pulsschlag und Blutdruck für den Gesundheitszustandes eines Menschen.

Doch sollte man hier nicht vorschnell – ohne wissenschaftlich fundierte Untersuchung – einen direkt kausalen Zusammenhang zum Klimawandel herstellen. Deshalb fassen Rückamp und seine Co-Autoren, sie hatten beispielsweise keine Ursachenforschung in puncto Klimawandel betrieben, die Situation etwas vorsichtiger wie folgt zusammen: „Die Gletscher reagieren direkt auf Temperaturänderungen – ein Handeln, das die globale Erwärmung begrenzt, wirkt sich direkt auf Gletscher aus.“ Rückamp setzt zudem hinterher: „Ziele auf dem Papier tun das nicht.“

THWAITES-GLETSCHER LÄSST OZEANE UM 65 CM STEIGEN

DLR
TanDEMX Höhenmodell: Brüchiges Schelfeis am Thwaites Gletscher ©DLR

Bis dato machte das unaufhaltsame Abfließen des Thwaites-Gletschers in den Amundsen See rund vier Prozent des globalen Meeresspiegelanstiegs aus. Doch allein die verbleibenden Massen des immer schneller schmelzenden Eises könnte unsere Ozeane um 65 cm ansteigen lassen. Am Boden des Gletschers klafft ein 350 Meter großer Hohlraum. Und dieser frisst sich mit dem von unten eindringenden Meerwasser weiter in das Eis hinein. Zwar hatten die Experten schon vor Jahren den Verdacht, dass Thwaites nicht fest mit seinem Untergrund verbunden ist, doch ein solch besorgniserregendes Ergebnis hatten sie nicht erwartet. Insgesamt sind bereits 14 Milliarden Tonnen Eis ausgewaschen worden. Und das vorwiegend in den letzten drei Jahren. Dies geht aus Satellitendaten der amerikanischen, deutschen und italienischen Forschungspartner hervor.

Möglich wurden die aktuellen Forschungsergebnisse des DLR unter anderem durch die beiden deutschen Radarsatelliten TanDEM-X und TerraSAR-X. Denn diese sind in der Lage flächendeckend hochgenaue und dreidimensionale Messungen mit hoher Auflösung vorzunehmen. So konnte anhand der TanDEM-X-Höhenmodelle die Schmelzrate bestimmt werden. Auch offenbaren sie die besondere Dynamik des Gletschers: Die Hebungen und Senkungen der Eisoberfläche wurden genau vermessen und ließen damit wichtige Rückschlüsse auf die darunterliegenden Schmelzprozesse zu. Mit Aufnahmen der italienischen Cosmo-Skymed Satelliten konnte auch die Wanderung der „Aufsetzlinie“ des Gletschers – diese markiert den Übergang, an dem die Eismasse kein Festland mehr unter sich hat, also auf dem Meer schwimmt –, im Zeitverlauf genau beobachtet werden. So kamen die Wissenschaftler zu der neuen Erkenntnis, dass sich zwar die Gletscheroberfläche hebt, die Eisdicke aber insgesamt abnimmt. Die Wechselwirkungen zwischen Eismasse und eindringendem Meerwasser haben weitreichendere Folgen als bisher angenommen. Um die Auswirkungen der Gletscherschmelze auf den globalen Meeresspiegel genauer vorhersagen zu können, sind diese und weitere Erkenntnisse daher essenziell. Die Ergebnisse der von der NASA geleiteten Studie sind aktuell im „Science Advances“-Journal erschienen.

RIESIGER EISBERG ERWARTET: RISSE AM PETERMANN-GLETSCHER

AWI
Petermann-Gletscher (Grönland) nahe des Zentrums des fließenden Gletschers etwa 26 Kilometer entfernt von der Kalbungsfront ©Andreas Muenchow, University of Delaware

Auch aus dem äußersten Nordwesten Grönlands wird vermeldet: Forscher des AWI messen ein höheres Fließtempo der schwimmenden Eiszunge des Petermann-Gletschers. Diese schiebt sich derzeit über eine Strecke von etwa 70 Kilometern in den Petermann-Fjord. Zudem kündigen Risse etwa zwölf Kilometer oberhalb der bisherigen Gletscherkante – das Einzugsgebiet des Petermann-Gletschers umfasst vier Prozent des Grönländischen Eisschildes –, an, dass sich in naher Zukunft wieder ein Eisberg vom Gletscher lösen könnte. Laut AWI-Glaziologen hat sich seit einem Eisberg-Abbruch im Jahr 2012 das Fließtempo des Gletschers um durchschnittlich 10 Prozent erhöht, sodass in der Folgezeit neue Risse entstanden. Eigentlich ein durchaus natürlicher Vorgang. Modellsimulationen der Forscher zeigen jedoch auch: Sollten diese Eismassen abbrechen, wird sich der Petermann-Gletscher vermutlich weiter beschleunigen und mehr Eis ins Meer transportieren. Was wiederum entsprechende Folgen für den globalen Meeresspiegel haben wird.

Als die Wissenschaftler im Winter 2016 durch die Analyse von Satellitendaten erkannten, dass der Gletscher mit einer Geschwindigkeit von durchschnittlich 1135 Metern pro Jahr floss, also etwa 10% schneller als im Winter 2011, erforschten sie die direkte Ursache. Sie simulierten den beobachteten Eistransport in einem Computer-Eismodell und wiesen nach, dass der Abbruch eines großen Eisberges im August 2012 die Beschleunigung des Gletschers in Gang gesetzt hatte. „Die Eismassen des Gletschers reiben auf ihrem Weg ins Meer rechts und links an Felswänden, welche den Fjord einrahmen“, so AWI-Eismodellierer und Erstautor der Studie, Martin Rückamp, „bricht nun am Ende der Gletscherzunge ein großer Eisberg ab, schrumpft die Länge der Eiszunge insgesamt und damit auch die Strecke, auf der die Eismassen die Felsen berühren. Deren Bremswirkung sinkt und der Gletscher beginnt, schneller zu fließen.“

Eine ähnliche Beschleunigung sagt das Computermodell auch für den Fall voraus, dass es zu einem erneuten Eisberg-Abbruch kommen sollte. „Wir können nicht vorhersagen, wann der Petermann-Gletscher wieder kalben wird und ob ein Abbruch tatsächlich bis zu den von uns entdeckten Rissen in der Gletscherzunge reichen wird“, so Rückamp. „Anzunehmen ist aber, dass die Gletscherzunge im Falle eines weiteren Abbruchs wieder deutlich schrumpfen und die Bremswirkung der Felsen noch weiter abnehmen wird“. Die Studie ist im „Journal of Geophysical Research: Earth Surface“ nachzulesen.

OBERFLÄCHENSCHMELZE UND WARME MEERESSTRÖMUNGEN

Der Grönländische Eisschild und die dazugehörigen Gletscher haben seit dem Jahr 2002 im Durchschnitt jährlich 286 Milliarden Tonnen Eis verloren. Diese Massenverluste sind vor allem auf die Zunahme der sommerlichen Oberflächenschmelze zurückzuführen. Das Kalben von Eisbergen hat ebenfalls zugenommen. Grönlands Gletscher verlieren heutzutage ein Viertel mehr Eis durch Eisberg-Abbrüche als im Vergleichszeitraum von 1960 bis 1990. Als mögliche Ursachen werden u.a. wärmere Meeresströmungen diskutiert, welche die schwimmenden Gletscherzungen von unten schmelzen, sowie Schmelzwasser, welches durch Spalten und Risse bis ins Gletscherbett sickert und dort wie ein Schmiermittel das Gleiten der Eisströme beschleunigt. Derzeit tragen die Eismassenverluste Grönlands jährlich etwa 0,7 Millimeter zum globalen Meeresspiegelanstieg bei. Dieser beträgt aktuell 3,3 Millimeter pro Jahr.

Inwieweit der beschleunigte Eistransport des Petermann-Gletschers auf verschiedene Konsequenzen der globalen Erderwärmung zurückzuführen ist, haben die Wissenschaftler bislang noch nicht tiefgreifend untersucht. „Wir wissen jetzt, dass das Fließtempo des Gletschers infolge von Eisberg-Abbrüchen steigt. Außerdem beobachten wir, dass die Häufigkeit solcher Abbrüche am Petermann-Gletscher zunimmt. Ob dafür jedoch die wärmer werdende Atmosphäre über Grönland oder aber wärmeres Meerwasser verantwortlich ist, haben wir anhand der Satellitendaten nicht untersuchen können“, so Niklas Neckel. Für die Wissenschaftler ist die Beschleunigung des Petermann-Gletschers dennoch ein Signal. Im Gegensatz zu den Gletschern im Südosten und Südwesten Grönlands haben die Gletscher im hohen Norden der Insel bislang kaum Veränderungen gezeigt. Das scheint sich nun zu ändern.

GROSSER GLETSCHERSCHWUND AM HIMALAYA UND HINDUKUSC

Als „Dritter Pol“ der Erde werden der Himalaya und die umliegenden Gebirge bezeichnet. Denn abgesehen vom Nord- und Südpol hat keine Region der Welt mehr Eis und Schnee. Von hier kamen letzte Woche ebenfalls Hiobsbotschaften: Auch wenn das ambitionierteste Ziel des Pariser Abkommens erreicht werde, werden die Gletscher dieser Region mindestens um ein Drittel schmelzen. Schafft man es nicht, rechnen die Forscher von ICIMOD mit einem Schwund von zwei Dritteln. Die Gletscher sind eine unverzichtbare Wasserquelle für rund 1,9 Milliarden Bewohner der Region – in den Bergen wie auch entlang der Flüsse. „Die globale Erderwärmung ist dabei, die eisigen, mit Gletschern bedeckten Gipfel des HKH (Hindukusch-Himalaya), die sich über acht Länder erstrecken, innerhalb von etwas weniger als einem Jahrhundert in kahle Felsen zu verwandeln“, so der leitende Herausgeber des Berichts, Philippus Wester.

Die Studie wurde nach den Maßgaben des Weltklimarats durchgeführt. Insgesamt wurde sie über fünf Jahre entwickelt und enthält Erkenntnisse von mehr als 350 Forschern, Experten aus 22 Ländern und 185 Organisationen. Mit 210 Autoren, 20 Rezensionsredakteuren und 125 externen Rezensenten bietet sie einen beispiellosen Einblick in die einzigartige Umgebung, die Menschen sowie die Tierwelt der Region rund um die bedeckten Gipfel von HKH (Hindukusch-Himlaya). Dem ICIMOD gehören die Regierungen der acht Länder aus den Gebieten der Himalaya- und Hindukusch-Gebirge an: Afghanistan, Bangladesch, Bhutan, China, Indien, Myanmar, Nepal und Pakistan.

40 JAHRE WELTKLIMAKONFERENZ

Seit 40 Jahren gibt es nun schon eine weltweite Klimakonferenz: Die erste fand vom 12.-23.2.1979 in Genf statt. Zum Jubiläum gab der Jülicher Klimaforscher Prof. Andreas Wahner ein Interview. Wahner ist Leiter des Instituts für Energie- und Klimaforschung IEK-8-Troposphäre am Forschungszentrum Jülich. Sein Schlusssatz klingt ziemlich alarmierend: „Die Hoffnung auf eine Begrenzung des Temperaturzuwachses auf 1,5 bis 2 Grad zum Ende des Jahrhunderts ist immer weniger haltbar. Wir müssen uns vermutlich auf mehr einstellen, was gravierende Konsequenzen haben und uns weltweit wirtschaftlich deutlich teurer zu stehen kommen wird, als wenn wir in der Vergangenheit oder auch heute mit Entschiedenheit gehandelt hätten.“

Bild oben: Petermann-Gletscher, Grönland: Südwestlicher Rand der sogenannten Scherzone des fließenden Gletschers, etwa 10 Kilometer von der Kalbungsfront entfernt ©Andreas Muenchow, University of Delaware

DAS KÖNNTE SIE AUCH INTERESSIEREN:

Labrador Sea freshening at 8.5 ka BP caused by Hudson Bay Ice Saddle collapse

Fast retreat of Zachariæ Isstrøm, northeast Greenland

A Review of Recent Changes in Major Marine-Terminating Outlet Glaciers in Northern Greenland

Auswirkung von Klimawandel auf den Auftrieb von Tiefenwasser

Dieser Artikel erschien am 12.2.2019 in der Innovation Origins.

ARBEITSWELTEN DER ZUKUNFT: UNTERNEHMEN DENKEN UM

Wer an Arbeitswelten der Zukunft denkt, hat zunächst das Zusammenwachsen von Mensch und Maschine, die KI, im Kopf. Doch auch Coworking-Spaces, kreative Aufenthaltsräume und Flexibilität prägen das Bild moderner Arbeitsplätze. Unternehmen passen sich zudem den Trends zur Work-Life-Balance an. Sie rekrutieren neue Mitarbeiter über Benefits wie frisches Obst, Tisch-Kicker, Yoga-Stunden sowie firmeneigene Kitas. Bei der sogenannten „New Work“ steht also einerseits die Digitalisierung andererseits aber auch der Mensch im Mittelpunkt. Kein Wunder also, dass Unternehmen derzeit Arbeitsplätze sowie Arbeitsgewohnheiten komplett umgestalten: Statt Einzelbüros stehen derzeit kollektive Schreibtische mit Rollcontainern hoch im Kurs. Gleichzeitig sollen Rückzugs-Zonen die Konzentration fördern und Lounge-ähnliche Besprechungszimmer zum Brainstorming anregen. Die so geschaffenen, neuen Bürowelten sollen nicht nur das Potenzial der Mitarbeiter maximal fördern, sondern sie sind für die Unternehmen meist auch noch wirtschaftlich äußerst effizient.

UMGESTALTUNG VON TRADITIONSUNTERNEHMEN

Arbeitswelten von Morgen
Mobile Lösungen ermöglichen den Mitarbeitern der Witt-Gruppe das Arbeiten dort, wo sie am effektivsten sind – es muss nicht der Schreibtisch sein… ©Witt-Gruppe

Derzeit baut die Witt-Gruppe aus Weiden in der Oberpfalz die Arbeitswelten um. Im beruflichen Alltag sind agile Arbeitsweisen wie Scrum und Kanban schon längst verwurzelt. Nun geht der zur Otto-Gruppe gehörende Versandhandel in einem neuen Projekt auch den Umbau der Büros an. „Wenn wir weiterhin gute Ergebnisse erzielen möchten, müssen neue Arten der Zusammenarbeit gefunden werden,“ erklärt Kerstin Harms-Sudarma, Bereichsleiterin Facility Management, den Ansatz, „Es ist also wichtig, dass sich das Arbeitsumfeld an diese neuen Bedingungen anpasst.“ Für die Mitarbeiter von Witt bedeutet das, dass Bereichsleiter keine eigenen Büros mehr haben und feste Arbeitsplätze aufgelöst werden. So soll mehr Platz entstehen und eine leichtere Zusammenarbeit zwischen Fachabteilungen und Mitarbeitern verschiedenster Disziplinen ermöglicht werden. Hinzu kommen neue Arten von Führungsrollen sowie das Konzept des Desk-Sharings. Denn bei einer internen Erhebung stellte die Witt-Gruppe fest, dass täglich etwa jeder fünfte Arbeitsplatz aufgrund von Geschäftsreisen, Urlaub oder Krankheit frei bleibt.

„Durch das Aufbrechen der Strukturen und die interdisziplinäre Zusammenarbeit geht der Einfluss der Führungskräfte ein Stück weit verloren,“ so Susan Kröber, Bereichsleiterin Human Resources, „…zudem erfordern Home-Office und die Zusammenarbeit in abteilungsübergreifenden Teams ein höheres Maß an Vertrauen und es müssen Zielvereinbarungen getroffen werden.“ Zehn Prozent der Bereichsleiter der Witt-Gruppe haben sich bereits auf das Experiment eingelassen und ihr eigenes Büro aufgegeben.

Natürlich ändert sich auch die technische Ausstattung: „Der herkömmliche Desktop-PC wird von mobilen Geräten wie Laptop und Tablet abgelöst,“ erklärt Thomas Schertel, Bereichsleiter IT, „das Telefon wandelt sich in ein Headset. Drucken wird per Follow-Me Printing Funktion für alle Mitarbeiter von überall aus möglich.“

UMWELTPSYCHOLOGISCHE EFFEKTE DURCH DIGITALISIERUNG

Doch die Entwicklung könnte noch viel weiter gehen. So ist zumindest die Vision von Dr. Stefan Rief. Er ist Mitglied des Direktoriums des Fraunhofer-Instituts für Arbeitswirtschaft und Organisation (IAO) sowie Leiter des Forschungsbereichs für Organisationsentwicklung und Arbeitsgestaltung. Sein Spezialgebiet ist die Erforschung und Entwicklung neuer, produktivitätsfördernder Arbeitsumgebungen. Der Schwerpunkt liegt dabei auf Büro-, Labor- und Lernwelten. Rief bestätigt, dass unsere Arbeitsumgebung unter den beiden Aspekten Arbeitsort und -raum Auswirkung auf unser Wohlbefinden hat. Auch sieht er das Büro der Zukunft in einer gewissen Vielfältigkeit ‒ von kleinen Zellen als Rückszugsort bis hin zu offenen Bereichen, die das Socialising fördern. Ebenso empfiehlt er, hellere und dunklere Zonen zu ermöglichen. Doch am spannendsten findet Rief die Möglichkeiten, die die Digitalisierung bietet. Hier bezieht er sich insbesondere auf die Installation von individuellen, umweltpsychologischen Effekten. Dazu gehören die Einstellung von Temperaturen sowie Beleuchtungen und auch die Nutzung von Gerüchen, die zur persönlichen Leistungsfähigkeit oder auch Kreativität beitragen. Wichtig für ihn ist dabei, darauf zu achten, dass die Konzepte wirklich individuell angepasst sind und nicht als allgemeingültig gesehen werden. Sein Credo für die Arbeitswelt von Morgen: „One doesn´t fit all.“

Bild oben: In den Kreativräumen darf – dank White-Board – auch schon mal an die Wand gemalt werden ©Witt-Gruppe

DIESE ARTIKEL KÖNNTEN SIE AUCH INTERESSIEREN:

INNOVATIONSCAMPUS PRÄGT NEUE LEBENS- UND ARBEITSWELTEN

B-PART: PILOTPROJEKT ZUR GESTALTUNG DER URBANEN ZUKUNFT

PHILIPS TO STAY AT HIGH TECH CAMPUS EINDHOVEN

Dieser Artikel erschien am 10.2.2019 in der Innovation Origins.

KI: NICHT NUR FACEBOOK SOLLTE REGULIERT WERDEN

Die aktuelle Kartellamts-Entscheidung bezüglich der Datensammlung durch Facebook macht nochmals bewusst, wie leichtfertig viele mit ihren privaten Daten umgehen. Und das nicht nur durch soziale Medien wie Facebook. Denn allein die Nutzung des Internets, von Smartphones und Smart Home-Funktionen machen uns gläsern. Kaum einer denkt darüber nach, wenn er Siri um einen Eintrag bittet, und das vielleicht auch noch, während gerade eine andere Anwendung läuft. Sagen wir zum Beispiel während der Streaming-Dienst Netflix Filme – basierend auf früheren Einstellungen – präsentiert. Oder, wenn er per App das Thermostat im Wohnzimmer höherstellt, da er gerade auf dem Heimweg ist. Von vielen weiteren Home-Anwendungen ganz zu schweigen. Im Gesundheitswesen wird die KI heute zur Erkennung von Tumoren auf CT-Scans eingesetzt. In einigen Ländern kann die virtuelle Krankenschwester Molly zu Rate gezogen werden. Und im Finanzsektor führen Kreditkartenunternehmen mit ihrer Hilfe Betrugsprüfungen durch. Banken verwenden Algorithmen, um festzustellen, ob jemand kreditwürdig ist und vieles mehr. Kurzum: KI ist überall. Und: KI benötigt Daten.

Doch was passiert mit all diesen Infos? Wer könnte sie wann wie nutzen? Welche Kontrollinstanzen gibt es neben dem deutschen Kartellamt noch?

DIE EUROPÄISCHE UNION

Im Dezember 2018 befürwortete Brad Smit, Präsident von Microsoft und Leiter der Rechtsabteilung, in einem Blogbeitrag Regeln und Gesetze für die Gesichterkennungs-Technologie. Denn laut dem Microsoft-Vorstandsvorsitzenden birgt diese Technologie allerlei Gefahren. Dazu zählt vieles, von der Vorverurteilung durch Algorithmen bis hin zur Verletzung der Privatsphäre. Ganz zu schweigen von Diktaturen, die jeden Bürger im Auge behalten können. Laut Smit ist es an der Zeit, dass sich die Regierungen mit den neuen Technologien auseinandersetzen. Nun werden die ersten Schritte getan.

In der Europäische Union gibt es eine Gruppe von 52 Experten – Menschen aus den verschiedensten Bereichen –, die Empfehlungen für Vorschriften zur künstlichen Intelligenz geben. Zufall oder nicht: Seit Dezember 2018 arbeiten die EU-Experten daran, diesbezüglich Leitlinien zu verfassen. In einer kürzlich vorgestellten, ersten Version (eine endgültige Fassung soll im März erscheinen) gehen sie dabei auf verschiedene Themen ein. So beschreiben sie das Dilemma, dass die KI einerseits sehr viele Vorteile bietet, aber gleichzeitig unzählige Gefahren birgt. Entsprechend empfehlen sie einen menschenzentrierten Ansatz zur Regelung der KI. Der Hintergrund: KI bietet Menschen nur Vorteile, wenn diese sie zuversichtlich und umfassend nutzen können sowie der Technik vertrauen. Den Rahmen für eine vertrauenswürdige KI setzt zunächst eine ethische Zweckbestimmung. Aus dieser sollen sich die Regelungen für die Verwirklichung der vertrauenswürdigen KI ableiten. Zudem sollen die Anforderungen auf ein operatives Fundament mit Beispielfällen gestellt werden. Die EU-Leitlinien sollen nicht statisch sein, sondern eher einen Ausgangspunkt für die Diskussion über „vertrauenswürdige KI made in Europe“ bilden. Mit den ethischen Richtlinien, die gleichzeitig eine Wettbewerbsfähigkeit garantieren sollen, möchte sich Europa als Vorreiter einer hochmodernen, sicheren und ethischen KI positionieren sowie gleichzeitig weltweit zur Diskussion anregen.

ISO-NORM FÜR KI

Einen weiteren Ansatz gibt es über die International Standardisation Organisation (ISO): „Es ist sehr wichtig, dass wir alle die gleiche Sprache sprechen“, so Jana Lingenfelder, Technical Relations Executive bei IBM. Neben ihrer Arbeit für IBM arbeitet sie an einem KI-Standard für die ISO. Dieser soll Unternehmen und Designern Definitionen sowie Grundregeln liefern, die als Basis für ihre Arbeit dienen soll. Denn KI geht über nationale Grenzen hinaus.

Der deutsche Rechtsanwalt Jan Schallaböck unterstützt die ISO dabei, eine Norm für Technologieunternehmen zu entwickeln. Er konzentriert sich in seiner Tätigkeit hauptsächlich auf den Datenschutz. So spricht er Empfehlungen aus, zu welchem frühestmöglichen Zeitpunkt eines Produkts oder einer Dienstleistung Unternehmen sich mit der Privatsphäre von Nutzers befassen sollten. Schallaböck stimmt mit Lingenfelder überein. Gleichzeitig sieht er aber auch Probleme bei der Einhaltung der Regeln: „Die genaue Beobachtung der künstlichen Intelligenz braucht Zeit, viele Regierungen oder andere Aufsichtsbehörden haben diese Möglichkeit nicht.“ Zudem sieht Schallaböck noch viele offene Fragen, zum Beispiel: „…inwieweit sind sie [Behörden] in der Lage einzuschätzen, wie ein Algorithmus eine Entscheidung trifft? Für viele Experten ist das eine tolle Aufgabe. Ganz zu schweigen von Verantwortung und Haftung. Liegt dies in der Verantwortung der Nutzer? Von den Plattformen? Oder den Menschen, die KI entwickeln? Und wie stellt man sicher, dass ein Algorithmus eine ethische Entscheidung trifft?“. Es gibt also noch viele Punkte zu verstehen und zu beachten, bevor Regelungen bezüglich KI greifen können.

KI: ETHISCH ODER NUMERISCH?

Wie soll ein selbstfahrendes Fahrzeug nach ethischen Grundsätzen entscheiden? @Waymo Steve Mahan

Es gibt aber noch ganz andere Kriterien zu bedenken. Zum Beispiel: Wie soll ein selbstfahrendes Fahrzeug bei einer Kollision entscheiden, ob es einen Radfahrer oder einen Fußgänger treffen soll? Solche Dinge müssen in Systeme eingebaut werden. Laut Christian Wagner, Assistenz-Professor für Informatik an der Universität Nottingham, gibt es hier ein häufiges Missverständnis. Künstliche Intelligenz kann keine ethischen Entscheidungen treffen. Wagner ist übrigens auch Direktor von LUCID  (Lab for uncertainty in data and decision making). An dem Informatik Institut der Nottinghamer Uni wird an einem besseren Verständnis, an der Erfassung und an Hintergründen unsicherer Daten geforscht. Laut Wagner wird oft von einer „starken“ KI gesprochen, wenn die Technologie, genau wie der Mensch, über Recht und Unrecht urteilen kann. „Aber davon sind wir weit entfernt. Zunächst einmal müssen wir sicherstellen, dass die Systeme stabil sind. Ein selbstfahrender Wagen sollte nicht plötzlich unerwartete Dinge tun. So läuft das mit Zahlen und Wahrscheinlichkeits-Berechnungen.“

Wagner hält es zwar für richtig, Normen und Richtlinien festzulegen, aber er bezweifelt gleichzeitig, dass ein solches Modell beibehalten werden kann. Denn die Technologie entwickelt sich rasant. Jedes Mal ein neues Modell zu entwerfen erscheint viel zu umständlich. Auch Schallaböck hält dies für ein schwieriges Thema: „Normen wie die ISO-Marken sind immer gut, aber muss man dann für jede Anwendung von KI eine neue Norm schaffen? Diese Verfahren sind zeitaufwändig und sehr teuer.“

Und natürlich stellt sich die Frage, wer wann die Aufsicht hat. Und, wer verantwortlich ist. Wie Lingenfelder schon betonte, geht die KI über lokale Grenzen hinaus. Sie hat internationale Auswirkungen auf allen Ebenen der Gesellschaft. Alle drei zitierten Experten können noch keine klare Antwort auf diese Fragen geben. Vielleicht soll ein EU-Gremium eingerichtet werden, das die Einhaltung der Vorschriften überwacht? Schallaböck: „Wir haben jetzt die GDPR [General Data Protection Regulation], aber das ist bei weitem nicht genug. Noch haben wir keine Antwort auf die Gefahren der KI. Sie ist eine Gefahr nicht nur für die Demokratie, sondern auch für die Rechte des Einzelnen.“

Bild oben: Datensammlung durch KI @Pixabay

DIESER ARTIKEL KÖNNTE SIE AUCH INTERESSIEREN

DIE DSGVO IM EINSATZ – WIE IHRE DATEN GESCHÜTZT WERDEN

ZIELGERICHTETE WERBUNG BEI FACEBOOK

Dieser Artikel erschien am 9.2.2019 in Kooperation mit Milan Lentes in der Innovation Origins .

FESTOXID-BRENNSTOFFZELLE LIEFERT ERSTMALS 100.000 STUNDEN STROM

Mit einer Betriebszeit von über elf Jahren knackte die Hochtemperatur-Brennstoffzelle aus dem Forschungszentrum Jülich weltweit alle Rekorde – und das bei einer Temperatur von 700 Grad. Die Jülicher Entwicklung hätte sogar noch länger durchgehalten. Doch die Wissenschaftler leiteten vor wenigen Tagen schrittweise das Ende ihres Langzeitversuchs ein. Nun stehen weitere Untersuchungen bevor. Denn die hohe Betriebstemperatur stellt große Anforderungen an die verbauten Materialien.

Durch den erfolgreichen Test unter Leitung von Prof. Ludger Blum vom Jülicher Institut für Energie- und Klimaforschung (IEK-3) zeigten die Wissenschaftler, dass die Jülicher Brennstoffzelle der Anwendungsreife ein großes Stückchen nähergekommen ist. Keramische Hochtemperatur-Brennstoffzellen gelten als höchst-effizient. Zudem sind sie umweltschonend, emissions- und wartungsarm.

Mögliche Anwendungsgebiete der Zelle sind die dezentrale Strom- und Wärmeversorgung im Haushalt, in größeren Wohngebieten, in der Industrie sowie Nutzung als System für Züge oder Schiffe. Fünf bis zehn Jahre beziehungsweise umgerechnet 40.000 bis 80.000 Stunden müssen Hochtemperatur-Brennstoffzellen laufen, bis der Einsatz wirtschaftlich wird.

ZELLINNERES WIRD ERFORSCHT

Die Jülicher „Solid Oxide Fuel Cell“ (SOFC), zu deutsch Festoxid-Brennstoffzelle, hielt deutlich länger durch. Seit dem 6. August 2007 lieferte der aus zwei Zellen bestehende Zellstapel über 93.000 Stunden kontinuierlich Strom, insgesamt ca. 4.600 kWh. Zum Vergleich: Das entspricht in etwa der Strommenge, die ein Einfamilien-Haushalt in einem Jahr verbraucht.

Bis auf die Farbe äußerlich kaum gealtert: SOFC-Stack vor dem Start des Versuchs im Jahr 2007 (links) und im Jahr 2019 nach 100.000 Stunden im Dauerbetrieb (rechts) ©Forschungszentrum Jülich

Mit dem Abschalten der SOFC kommen neue Aufgaben auf die Forscher zu. Äußerlich haben sich die metallischen Bauteile im Laufe der Jahre zwar erkennbar verändert: Die metallisch-silbrig glänzende Oberfläche ist deutlich dunkler, fast schwarz, geworden. Doch abgesehen von dieser unvermeidbaren oberflächlichen Oxidation sind von außen keine weiteren negativen Veränderungen festzustellen.

„Wir sind schon ganz gespannt, wie es im Innern aussieht“, so Dr. Norbert Menzler vom Institut für Energie- und Klimaforschung (IEK-1). Menzler ist zuständig für die Entwicklung der keramischen Zellen. „In welchem Zustand sich die Zelle befindet, ist im laufenden Betrieb kaum ersichtlich. Bislang hat weltweit noch niemand eine Zelle nach 100.000 Betriebsstunden bei so hohen Temperaturen untersuchen können.“ Mit unterschiedlichen Methoden werden die Forscher in der nächsten Zeit genau analysieren, wie sich die jahrelange extreme thermische Belastung auf die keramischen Komponenten, Glaslot-Dichtungen und metallischen Verbindungsstücke – die sogenannten Interkonnektoren –, auswirkte. Die Erkenntnisse fließen in die Entwicklung neuer Materialien und Designansätze ein, um die Alterungsbeständigkeit weiter zu verbessern.

REVERSIBLES MODELL IM TEST

Aktuell testen die Wissenschaftler um Luder Blum eine reversibel betreibbare Version der SOFC. Diese liefert nicht nur Strom, sondern kann in einem umgekehrten Betriebsmodus auch Wasserstoff und Sauerstoff durch Wasserelektrolyse erzeugen. Auch diese Weiterentwicklung hat schon sehr gute Ergebnisse erzielt. Sie ist die erste Hochtemperatur-Brennstoffzelle, die im Wasserstoffbetrieb mit 62 Prozent einen Wirkungsgrad von über 60 Prozent erreicht.

HINTERGRUND

Seit 25 Jahren arbeiten die Wissenschaftler des FZ Jülich an der SOFC. Mittlerweile erhielten sie für ihre Entwicklung 95 Patente. An der Forschung zur SOFC sind verschiedene Bereiche des Instituts für Energie- und Klimaforschung (IEK-1, IEK-2, IEK-3, IEK-9) sowie das Zentralinstitut für Engineering, Elektronik und Analytik (ZEA-1) beteiligt. Auch der oben beschriebene Rekord-Stapel besteht größtenteils aus selbstentwickelten Komponenten. Dazu zählen etwa die keramischen Zellen, die Kontaktschichten und eine spezielle Glaskeramik, die aufgrund der hohen Temperaturen zur Abdichtung eingesetzt wird. Das Material für die Zwischenplatten, die auch als Interkonnektoren bezeichnet werden, mit denen sich die Zellen zu einem „Stack“ (englisch für „Stapel) zusammensetzen lassen, stammt von der österreichischen Firma Plansee SE in Reutte.

Bild oben: Jülicher Hochtemperatur-Brennstoffzellen nach 100.000 Stunden im Dauerbetrieb bei 700 Grad ©Forschungszentrum Jülich / Regine Panknin

Dieser Artikel erschien am 8.2.2019 in der Innovation Origins.

ANTARKTIS: FORSCHERTEAM ERKUNDET LEBEN UNTER EISBERG A68

Am 9. Februar startet unter der Leitung des Alfred-Wegener-Instituts (AWI) ein internationales Forscherteam eine Expedition zum abgelegenen Larsen-C-Schelfeis. Das Ziel: Die Forscher möchten das bisher unter dem Schelfeis verborgene Meeresökosystem erkunden. Im Juli 2017 kalbte ein riesiger Eisberg mit einer Größe von der siebenfachen Fläche Berlins vom antarktischen Larsen-Schelfeis ab. Durch den Abbruch des Eisberges namens A68 wurde eine Fläche von etwa 5.800 Quadratkilometern von der hunderte Meter dicken Schelfeisschicht befreit. Eine Welt, über die die Menschheit nichts weiß, da sie bisher unter dem dicken Eis im Verborgenen lag. Nun planen die Forscher nochmals – zwei Expeditionen mussten frühzeitig abgebrochen werden –, per Schiff von Punta Arenas (Chile) in die Region östlich der antarktischen Halbinsel zu fahren, um dort Proben vom Meeresboden zu nehmen. Insgesamt neun Wochen werden sie mit dem Eisbrecher Polarstern unterwegs sein. Per Satellitenaufnahmen soll die schwierige Navigation durch das Meereis unterstützt werden.

Forscherteam
Teilausschnitt der Abbruchkante des Larsen-B-Schelfeises an der Antarktischen Halbinsel/Polarstern-Expedition ANTXXIII/8, Weddellmeer 2006/07 ©Gauthier Chapelle

EILIGE MISSION

Die Mission eilt: Das wahrscheinlich seit mehreren tausend Jahren vom Eis bedeckte Ökosystem könnte sich mit dem jetzt einfallenden Licht rasch verändern. „Die Expedition zum Larsen-C-Schelfeis ist eine einmalige Gelegenheit für die internationale Forschungsgemeinschaft, um in dieser vom Klimawandel betroffenen Region interdisziplinäre Forschung durchzuführen“, so der wissenschaftliche Fahrtleiter der Expedition, Dr. Boris Dorschel. Da Larsen C weit im Süden liegt, ist selbst in Zeiten minimaler Meereisbedeckung in der Antarktis noch viel Eis vorhanden. Nichtdestotrotz sollte die Expedition zum jetzigen Zeitpunkt stattfinden. So können die Forscher noch Einblicke in die erst kürzlich vom Schelfeis befreite Welt erhoffen und das ein oder andere Geheimnis des Eisschelfs und des Eisbergs A68 lüften. Unter anderem sollen auch die Strukturen am Meeresboden erforscht werden. Für die Forschungszwecke sollen zudem hochauflösende Satellitendaten sowie der Bordhelikopter der Polarstern genutzt werden.

Polarstern
Das Forschungsschiff Polarstern während einer Eisstation im Weddellmeer ©Mario Hoppmann

DRAMATISCHER ÖKOLOGISCHER WANDEL

„Das Kalben von A68 ist eine einmalige Gelegenheit, Meereslebewesen zu untersuchen, die einem dramatischen ökologischen Wandel ausgesetzt sind“, so der Meeresbiologe Dr. Huw Griffiths vom British Antarctic Survey (BAS). Er leitet eines der Projekte zur Erforschung der Biologie am Meeresboden. Da das Gebiet Jahrtausende ohne Sonnenlicht war, gehen die Forscher davon aus, dass sich hier eine Artengemeinschaft entwickelt hat, die sich speziell an ein Leben mit sehr wenig verfügbarer Nahrung angepasste. Griffiths ergänzt: „Der Abbruch dieses riesigen Eisbergs wirkt so, also nehme man plötzlich die Decke von einer Höhle. Erstmals seit tausenden von Jahren können durch das einfallende Sonnenlicht an der Wasseroberfläche Mikroalgen wachsen, was das gesamte Nahrungsnetz verändert, so dass sich andere Arten ansiedeln.“

Seesterne ©Griffiths, Huw J.

Das Expeditionsteam wird Tiere, Mikroorganismen, Plankton, Meeressedimente und Wasserproben untersuchen. Dabei kommen verschiedenste Geräte zum Einsatz wie Unterwasser-Videokameras sowie ein Schlitten, der am Meeresboden kleine Tiere sammelt. Der Meeresboden wird zudem mithilfe von Sonarsystemen detailliert vermessen.

HINTERGRUND

Das Alfred-Wegener-Institut, Helmholtz-Zentrum für Polar- und Meeresforschung (AWI), forscht in der Arktis, Antarktis und den Ozeanen der gemäßigten sowie hohen Breiten. Es koordiniert die Polarforschung in Deutschland und stellt wichtige Infrastruktur wie den Forschungseisbrecher Polarstern und Stationen in der Arktis und Antarktis für die internationale Wissenschaft zur Verfügung. Das Alfred-Wegener-Institut ist eines der 19 Forschungszentren der Helmholtz-Gemeinschaft. Sie ist die größte Wissenschaftsorganisation Deutschlands.

Bild oben: Das deutsche Forschungsschiff Polarstern während einer Eisstation im Weddellmeer©Mario Hoppmann

DAS KÖNNTE SIE AUCH INTERESSIEREN:

NEUE FORSCHUNGSPROJEKTE: AUSWIRKUNG VON KLIMAWANDEL AUF DEN AUFTRIEB VON TIEFENWASSER

Dieser Artikel erschien am 7.2.2019 in der Innovation Origins.