Archiv der Kategorie: Science&Future

FESTKÖRPERBATTERIE MIT HOHER ENERGIEDICHTE DANK LITHIUM-ANODE

Wissenschaftler des Forschungszentrums Jülich und der Westfälischen Wilhelms-Universität Münster entwickelten eine neue Festkörperbatterie. Das Besondere: Sie verfügt über eine Anode aus reinem Lithium. Das Alkalimetall gilt als ideales Elektrodenmaterial, da sich mit ihm die höchsten Energiedichten erreichen lassen. Doch da das Metall sehr reaktiv ist, wurde es bisher nicht als Anode verwendet. Die Forschenden tricksten diese Eigenschaft jedoch durch den Einsatz von zwei zusätzlichen Lagen aus einem neuartigen Polymer aus. Diese schützen den keramischen Elektrolyten der Batterie und verhindern somit, dass sich das Metall auf zerstörerische Weise ablagert. In Labortests waren über Hunderte von Ladezyklen möglich, ohne dass die Zellen deutlich an Kapazität verloren.

BEDEUTENDE ZUKUNFT ERWARTET

Feststoffbatterien gelten übrigens als eine bedeutende Entwicklung für die Zukunft. Ihr besonderer Vorteil: Festkörperakkus enthalten keine Flüssigkeiten, die auslaufen oder in Brand geraten können. Aus dem Grund sind sie deutlich sicherer, zuverlässiger und langlebiger als aktuelle Lithium-Ionen-Batterien mit flüssigem Elektrolyt. Gleichzeitig besitzen Festkörperbatterien das Potenzial, mehr Energie auf demselben Raum bei geringerem Gewicht zu speichern. Entsprechend wird erwartet, dass diese Technologie verschiedenen Bereichen zum Durchbruch verhelfen könnte. Mögliche Einsatzszenarien sind die Elektromobilität, aber auch Nischenanwendungen in der Medizin- sowie Raumfahrttechnik sind denkbar.

„Ziel war es, unser Konzept für eine Festkörperbatterie so zu erweitern, dass der stabile Betrieb mit einer Lithium-Anode möglich wird, und das haben wir geschafft“, freut sich Dr. Hermann Tempel vom Jülicher Institut für Energie- und Klimaforschung (IEK-9) über die aktuellen Ergebnisse. Lithium als Anode gilt als Material der Wahl, wenn es darum geht, möglichst hohe Energiedichten zu erzielen. Denn das leichteste Metall ist gleichzeitig auch das elektronegativste aller chemischen Elemente.

Die neue Festkörperbatterie kommt bezogen auf beide Elektroden auf eine Energiedichte von 460 Wh/kg. Im Vergleich mit aktuellen Lithium-Ionen-Batterien ist das ein sehr guter Wert. Hinzu kommen weitere Vorteile, die die Bauweise mit sich bringt. So sind Festkörperbatterien deutlich weniger temperaturempfindlich als herkömmliche Lithium-Ionen-Batterien mit Flüssigelektrolyt. Daher benötigen sie keine Vorrichtungen für das Temperaturmanagement, wie sie bislang in Elektroautos verbaut werden, was zusätzlich Gewicht einsparen dürfte.

POLYMERFOLIE ALS SCHUTZSCHICHT

Aufbau einer Festkörperbatterie mit Hybridelektrolyt ©S. Yu et al., J. Mater. Chem. A, 2019, Advance Article, DOI: 10.1039/C8TA11259B with slight modification (CC BY 3.0)

Möglich wurde die Verwendung einer Anode aus reinem Lithium durch den Einbau einer Polymerfolie zwischen Anode und Elektrolyt. Reines Lithium neigt dazu, beim Laden unkontrollierte Auswüchse auszubilden. Diese sogenannten Dendriten können die Zelle kurzschließen oder sie mechanisch zerstören. In der Anode heutiger Lithium-Ionen-Akkus werden Lithium-Atome daher in einem Speichermedium, meist Graphit, eingelagert. Das Gewicht der Elektrode und der gesamten Batterie erhöht sich dadurch um ein Vielfaches.

„Das Polymer funktioniert wie eine Schutzschicht, die die Verwendung einer Lithium-Anode überhaupt erst möglich macht“, erklärt Tempel. „Sie verhindert, dass der keramische Elektrolyt in direkten Kontakt mit dem metallischen Lithium an der Anode kommt. So werden schädliche Prozesse wie die Dendritenbildung und chemische Veränderungen des keramischen Elektrolyten unterbunden, die die Funktion der Batterie beeinträchtigen.“ Erste Tests im Labor verliefen bereits sehr erfolgreich. Über 500 Lade- und Entladezyklen hinweg ließen sich kaum Performanceeinbußen feststellen.

„Das Besondere an der Zelle ist, dass sie trotz der moderat leitenden Polymere funktioniert; in mancher Hinsicht sogar besser als ohne“, konstatiert Professor Hans-Dieter Wiemhöfer vom Helmholtz-Institut Münster (HI MS), der das spezielle Polymer, das zu der Klasse der Polyphosphazene zählt, entwickelt hat. Wiemhöfer koordiniert das BMBF-Verbundprojekt MEET-HiEnD II, aus dem die neue Batterie hervorgegangen ist.

Die Polymerschicht wird bei der Herstellung flüssig aufgetragen. Sie dringt dabei tief in den porösen keramischen Elektrolyten ein. Das verbessert den Kontakt zwischen dem festen Elektrolyt und der festen Elektrode – bei Festkörperakkus ein häufiges Problem. Mit diesem Verfahren wird kein stabiles und entsprechend schweres Gehäuse benötigt, das die verschiedenen Komponenten mechanisch zusammenpresst und dadurch für eine gute Verbindung sorgt. Das spart ebenfalls Gewicht und trägt dazu bei, die Energiedichte zu erhöhen.

DOPPELTE ENERGIEDICHTE ABER LÄNGERE LADEZEIT

Als zusätzliche Barriere zwischen den einzelnen Komponenten wirken sich die Polymerschichten jedoch auch nachteilig auf die Performance der Batterie aus, insbesondere auf den Stromfluss. Im letzten Jahr hatten Jülicher Wissenschaftler eine gut funktionierende, schnellladefähige Festkörperbatterie vorgestellt, die innerhalb einer halben Stunde ge- und entladen werden kann. Mittels Lithium-Anode und Hybridelektrolyt ist es ihnen nun zwar gelungen, die theoretische Energiedichte zu verdoppeln. Die Ladezeit verlängerte sich dadurch jedoch auf zwei Stunden. Für Festkörperbatterien ist das immer noch ein guter Wert.

Auch andere Aspekte zeigen: Die Batterie ist noch in einem frühen Entwicklungsstadium und nur begrenzt reif für die Praxis. So muss die Zelle im Betrieb momentan auf einer Mindesttemperatur von 50 Grad Celsius gehalten werden, damit der hybride Elektrolyt für Ladungsträger durchlässig bleibt. „Für niedrigpreisige Anwendungen ist das Herstellungsverfahren bis jetzt auch noch zu aufwendig. Die funktionierende Zelle zeigt aber, dass es der Hybridelektrolyt ermöglicht, typische Probleme an den Grenzflächen von Festkörperbatterien zu umgehen“, erklärt Professor Rüdiger-A. Eichel, Institutsleiter am Forschungszentrum Jülich (IEK-9). Für Nischenanwendungen, bei denen Kosten eine nicht so große Rolle spielen, ist die inhärent sichere Batterie mit der hohen Energiedichte möglicherweise jetzt schon interessant. „Aber auch für kostenkritische Anwendungen wie die Elektromobilität birgt der Ansatz großes Potenzial.“

Die Arbeit entstand im BMBF-Verbundprojekt MEET-HiEnD II, in dem die Westfälische Wilhelms-Universität Münster, das Forschungszentrum Jülich und die RWTH Aachen zusammenarbeiten. Die Originalpublikation wurde in der Ausgabe 8/2019 im Journal of Materials Chemistry Averöffentlicht.

Bild oben: Die Komponenten der Lithium-Festkörperbatterie mit Hybridelektrolyt noch im Laborstadium ©Forschungszentrum Jülich / T.Schlößer

Dieser Artikel erschien am 27.2.2019 in der Innovation Origins.

DAS KÖNNTE SIE AUCH INTERESSIEREN

Europa setzt bei der Batterieproduktion auf Nachhaltigkeit

Eierschalen als Elektrode für Energiespeicher

Designprinzipien sollen Smartphoneakkus sicherer machen

FORSCHUNGSPROJEKT: MARKTREIFE FÜR LASERBASIERTE OBERFLÄCHENBEARBEITUNG

Unter dem Namen LAMPAS (High throughput Laser structuring with Multiscale Periodic feature sizes for Advanced Surface Functionalities) forscht derzeit ein internationales Expertenteam der TU Dresden an laserbasierter Oberflächenbearbeitung. Das Ziel: Das vielversprechende, neue Verfahren soll zur Marktreife gebracht werden. Zudem wollen die Wissenschaftler der Fakultät Maschinenwesen einen Weltrekord in der Fertigungsgeschwindigkeit aufstellen. „Wir sind sicher, dass die Ergebnisse wegweisend für verschiedene Industrien sein werden und freuen uns daher sehr, dass wir europaweit die führenden Partner für das Forschungsvorhaben gewinnen konnten“, so Professor Andrés Fabian Lasagni, Koordinator des Forschungsprojektes und Inhaber der Professur für Laserbasierte Methoden der großflächigen Oberflächenstrukturierung. Mögliche Anwendungsbereiche sehen die Forschenden in der Medizintechnik, Automobilindustrie sowie Energieforschung.

VORBILD LOTOSEFFEKT

Lotoseffekt des Schmetterlingsflügels als Vorbild für die Forschungsarbeiten ©Pixabay

Inspiriert wurden die Wissenschaftler von der Natur. Der selbstreinigende Lotoseffekt, den man auch vom Schmetterlingsflügel her kennt, basiert auf einer mikro- beziehungsweise nanostrukturierten Oberfläche. Entsprechend möchten die Laserexperten durch großflächige, filigrane Gravuren per Laser die Funktionalisierung von unterschiedlichen Oberflächen erreichen und somit eine echte Alternative zu bisherigen Verbundwerkstoffen oder zur Beschichtung von Oberflächen schaffen. Industrielle Anwendungsfelder könnten beispielsweise die Erstellung von antibakteriellen oder leichtreinigenden Oberflächen oder auch eine Anti-Fingerprint-Beschichtung sein.

Das Forscherteam plant, in den nächsten drei Jahren ein laserinterferenzbasiertes Verfahren zu entwickeln, das kostengünstig großflächige Mikro- und Nanostrukturen auf verschiedene Oberflächen bringen kann. Die Herausforderung des Projekts besteht in der Größe der Mikrostrukturen. Sie sind kleiner als ein menschliches Haar. Damit das Verfahren auch für den breiten Markt nutzbar ist, gilt es gleichzeitig die Fertigungsgeschwindigkeit solcher Strukturen zu erhöhen. Dafür wird im Rahmen des Projektes eine neue Laserstrahlquelle entwickelt, die eine Ausgangsleistung von 1.5 Kilowatt besitzt und ultrakurze Laserpulse erzeugt.

EU FORSCHUNGSPROJEKT „HORIZON2020“

Das Forscherteam um den Laseringenieur Lasagni zählte beim EU-Forschungswettbewerb „Horizon2020“ in der Kategorie Informations- und Kommunikationstechnologien (ICT-04-2018, Förderkennzeichen 825132) zu den besten Teilnehmern. Deshalb wird das Projekt im Rahmen des Horizon 2020-Programms mit mehr als 5,1 Mio. Euro von der Europäischen Union (EU) gefördert. In den nächsten drei Jahren forschen die Wissenschaftler der TU Dresden zusammen mit internationalen Partnern aus Industrie und Forschung, u.a. Bosch, Trumpf, Bosch-Siemens-Hausgeräte (BSH), Next Scan Technology, Near Infrared Technologies (NIT), Lasea und European Photonics Industry Consortium (EPIC) an dem Projekt.

Bild oben: Die Mikrostrukturen – hier ein Beispiel einer mit einem Laser bearbeiteten Metalloberfläche für selbstreinigende Oberflächen –  sind eine große Herausforderung. Der Abstand der einzelnen Strukturelemente (Abstand „Berg“ zu „Berg“) beträgt 10 Mikrometer. Zum Vergleich: Ein menschliches Haar hat einen Durchmesser von 50-80 Mikrometern ©TU Dresden

Dieser Artikel erschien am 25.2.2019 in der Innovation Origins.

FORSCHUNG: 3D-TECHNOLOGIEN ZUM DRUCK VON NANO- BIS MAKROSTRUKTUREN

m Exzellenzcluster „3D Matter Made to Order” (3DMM2O) wollen Forschende des Karlsruher Instituts für Technologie (KIT) und der Universität Heidelberg der additiven Fertigung völlig neue Impulse geben: Ziel ist die Entwicklung von 3D-Technologien, die einen flexiblen, digitalen Druck ermöglichen. Zudem sollen mit neuartigen Tischgeräten das Erstellen von Strukturen von der molekularen bis hin zur makroskopischen Ebene umgesetzt werden. Denn mit additiven Verfahren ist inzwischen fast jede beliebige Struktur umsetzbar. Diese könnten zum Beispiel im Nanobereich ‒ je nach verwendeter „Tinte“ ‒, unterschiedlichste Funktionen erfüllen. Beispiele wären hier hybride, optische Chips oder auch Biogerüste für Zellgewebe.

„Der 3D-Druck bietet gerade im Mikro- und Nanobereich enorme Möglichkeiten. Die Herausforderungen, um diese zu erschließen, sind jedoch ebenso gewaltig“, so Martin Wegener, Professor am Institut für Angewandte Physik und Direktor am Institut für Nanotechnologie des KIT sowie Sprecher des Exzellenzclusters 3DMM2O. Gefragt sind vor allem Technologien und Verfahren, die auf der Basis digitaler Konstruktionsdaten bereits kleinste Strukturen schnell und qualitativ hochwertig umsetzen können. „Hier setzen wir mit unserem Cluster an. Wir wollen die 3D-Fertigung und Materialverarbeitung vom Molekül bis zur Makrostruktur vollständig digitalisieren und neue Fertigungstechnologien für konkrete Anwendungsfelder entwickeln.“

„Ohne neuartige Tinten und Photolacke aus der Chemie heraus wird dies nicht gehen. Anwendungen in der Biologie erfordern beispielsweise Materialien, die gleichsam auf Knopfdruck wieder abbaubar sind unter physiologischen Bedingungen, wie auch elektrisch leitfähige Materialien, die in 3D mit Nanometerpräzision verdruckbar sind“, ergänzt Uwe Bunz, Professor für Organische Chemie an der Universität Heidelberg, Mitglied des dortigen Centre for Advanced Materials CAM und ebenfalls Sprecher von 3DMM2O.

ZUSAMMENARBEIT VON DREI FORSCHUNGSBEREICHEN

Die additiven Prozesse und Technologien, die Anwendungen in den Bereichen Material- und Lebenswissenschaften ermöglichen, sollen zukünftig feiner, schneller und vielfältiger sein. Um dies zu erreichen setzen die Forschenden aus Natur- und Ingenieurwissenschaften in drei ineinandergreifenden Forschungsfeldern an. So entstehen im Feld „Technologien“ neuartige Werkzeuge. Diese sollen Strukturen bis zu zehn Nanometer fertigen. Auch wird mit ihnen ein schnellerer, präziserer Druck mit unterschiedlichen Tinten und Photolacken angepeilt. Diese wiederum werden von den Wissenschaftlern aus dem Bereich „Molekulare Materialien” entwickelt. Die so maßgeschneiderten, künstlichen Materialien sollen ein breites Spektrum an Eigenschaften aufweisen und sich kombinieren lassen. Das Forschungsfeld „Applikationen“ bringt die Forschung schließlich in die Anwendung. Hier liegt der Fokus auf den Bereichen Optik und Photonik, Material- sowie Lebenswissenschaften. So können beispielsweise die gedruckten 3D-Strukturen die Leistung optischer Chips für die Informationsverarbeitung verbessern oder in künstlichen Retinae zum Einsatz kommen.

„Unser Ansatz besteht darin, digitale Informationen in maßgeschneiderte, funktionale Materialien, Geräte und Systeme zu übersetzen“, so Wegener. Langfristiges Ziel von 3DMM2O ist es, eine Art Tischgerät zu bauen, das keine besonderen räumlichen Voraussetzungen, wie etwa eine große Produktionshalle, Vakuum oder bestimmte Temperaturen, erfordert. „Wir wollen bisher unzugängliche wissenschaftliche Anwendungen quasi für zu Hause erschließen und den 3D-Druck auf Knopfdruck ermöglichen“, erklärt Wegener.

HINTERGRUND

3DMM2O konnte sich 2018 in der Förderlinie „Exzellenzcluster“ der Deutschen Forschungsgemeinschaft (DFG) durchsetzen. Insgesamt stehen für diese Förderlinie jährlich rund 385 Millionen Euro zur Verfügung. Die Carl-Zeiss-Stiftung fördert das Cluster zusätzlich über sechs Jahre hinweg mit acht Millionen Euro. Diese Mittel fließen in ein Doktoranden-Stipendienprogramm, eine neue Professur am CAM, ein neues Nutzerlabor am KIT und in eine begleitende „Vision Assessment“-Studie, welche die gesellschaftlichen und ethischen Implikationen der Visionen von 3DMM2O erforschen soll.

HEIKA GRADUIERTENSCHULE „FUNCTIONAL MATERIALS“

Ein zentrales Strukturelement des Clusters ist die HEiKA (Heidelberg Karlsruhe Strategic Partnership) Graduiertenschule mit dem Forschungsbereich „Functional Materials“. Diese umfasst alle gemeinsamen bilateralen Aktivitäten des KIT und der Universität Heidelberg. Die Graduiertenschule bindet Masterstudierende, Doktorandinnen und Doktoranden in das stark interdisziplinäre Forschungsgebiet ein. Hierbei spielt ein breites Modulprogramm eine wichtige Rolle. Die Carl-Zeiss-Stiftung fördert jährlich bis zu vier Masterstudierende, die eine Promotion im Forschungsumfeld von 3DMM2O anstreben. Zusätzlich unterstützt die Stiftung bis zu 20 Doktorandinnen und Doktoranden bei ihrer Dissertation in den Themenbereichen des Clusters.

MATERIALMIX UND BEWEGLICHE MIKROSTRUKTUREN

Die Forschenden des KIT und der Carl Zeiss AG entwickelten gemeinsam ein System, mit dem sie mehrfarbig fluoreszierende Sicherheitsmerkmale dreidimensional additiv herstellen können. Damit lassen sich beispielsweise Geldscheine, Pässe und Markenprodukte vor Fälschung schützen. Grundlage ist die 3D-Laserlithografie, bei der ein Laserstrahl computergesteuert einen flüssigen Fotolack durchfährt und das Material nur am Fokuspunkt des Laserstrahls aushärtet. Die Wissenschaftler bauten dafür eine selbst entwickelte, mikrofluidische Kammer in das Lithografiegerät. Mit dieser können sie nun verschiedenste Materialien verdrucken. So setzt ein einziges Gerät dreidimensionale Mikro- und Nanostrukturen aus mehreren Materialien in einem Prozessschritt um.

Das direkte Laserschreiben ermöglicht bereits jetzt routinemäßig präzise Strukturen auf der Mikroskala. Für Anwendungen in der Biomedizin wäre es jedoch vorteilhaft, wenn die gedruckten Objekte nicht starr sind, sondern bewegliche Systeme wären, die nach dem 3D-Druck schaltbar sind. Forschende des KIT konnten nun dreidimensionale Strukturen aus Hydrogelen erstellen, die durch den Einfluss von Temperatur oder Licht ihre Form stark verändern. Diese sind in wässriger Umgebung funktionsfähig und damit ideal für Anwendungen in Biologie und Biomedizin.

Bild oben: Der 3D-Druck ermöglicht viele große und sehr kleine Anwendungen: Mit spezieller Tinte können etwa Biogerüste für Zellgewebe entstehen ©Martin Bastmeyer, KIT

Dieser Artikel erschien am 22.2.2019 in der Innovation Origins.

DAS KÖNNTE SIE AUCH INTERESSIEREN:

Erfolgreicher Test von Raketentriebwerk aus 3D-Druck

ERFOLGREICHER TEST VON RAKETENTRIEBWERK AUS 3D-DRUCK

Diese Woche erreichte die Europäische Weltraumorganisation ESA in punkto Raketentriebwerk einen wichtigen Meilenstein. Denn am Prüfstand P8 in Lampoldshausen absolvierte das BERTA-Triebwerk am 18.2.2018 erfolgreich seinen ersten Testlauf. BERTA (Biergoler Raumtransportantrieb) wurde ganze 560 Sekunden mit einem auf 2,45 Kilonewton ausgelegten Referenzschub getestet. Die Besonderheit: Der Raketenmotor wurde Ende 2018 vollständig im 3D-Druckverfahren gefertigt.

WETTBEWERBSFÄHIGKEIT EUROPÄISCHER TRÄGERSYSTEME

Der 3D-Druck ‒ auch additive Fertigung genannt ‒ liefert für den Triebwerksbau verschiedene Vorteile. So lassen sich die Produktionszeiten signifikant verringern. Derzeit werden zum Beispiel Brennkammern in Europa zuerst gegossen und geschmiedet. Dann werden Kühlkanäle ausgefräst, die schließlich mittels galvanischer Prozesse abgedeckt werden. Übliche Lieferzeiten betragen bis zu eineinhalb Jahre.

Mittels additiver Fertigung dagegen können vollständige Triebwerke innerhalb weniger Wochen geliefert werden. Bei BERTA wurde sowohl der Einspritzkopf ‒ er besteht aus einer korrosionsbeständigen Nickelbasislegierung ‒, sowie auch die Brennkammer aus Edelstahl durch selektives Laserschmelzen hergestellt. Durch den Einsatz eines Lasers wurde das finale Bauteil schichtweise durch Aufschmelzen des Werkstoffes in Pulverform auf einer Grundplatte aufgebracht. Im 3D-Druck-Verfahren sind komplexere Strukturen möglich, die sich in konventionellen Verfahren nicht herstellen lassen. So enthält BERTA ein komplexes Design für die Kühlkanäle, welches ein verbessertes Kühlverhalten der Brennkammer sicherstellen soll. Durch die optimierte Kühlung können Brennkammern zukünftig kompakter gebaut werden. Das spart Material ein. „Die additive Fertigung eröffnet Europa neue Wege, Triebwerke zu fertigen“, so Lysan Pfützenreuter, Projektleiterin beim DLR Raumfahrtmanagement. „Mit dem erfolgreichen Nachweis der Technologie wird ein wichtiger Schritt in Richtung einer verbesserten Wettbewerbsfähigkeit europäischer Trägersysteme gegangen.“ Somit kommt die Europäische Weltraumorganisation ESA dem Bau von neuen, wirtschaftlicheren Raketen deutlich näher.

P8 IN LAMPOLDSHAUSEN

Prüfstand P8 in Lampoldshausen ©DLR

Der P8 ist ein Forschungs- und Entwicklungsprüfstand beim DLR (Deutschen Zentrum für Luft- und Raumfahrt) in Lampoldshausen, der gemeinschaftlich vom DLR, der französischen Raumfahrtagentur CNES und dem industriellen Partner ArianeGroup genutzt wird. Die Verantwortung für den Betrieb und die Durchführung der Tests liegt bei dem Prüfstandteam des DLR. „Der Prüfstand P8 bietet umfangreiche Möglichkeiten, Demonstratoren von Komponenten über Baugruppen bis hin zu kleinen Triebwerken zu testen. Ziele der aktuellen Tests sind, das Strömungsverhalten und den Wärmeübergang bei gedruckten Oberflächen zu untersuchen. Diese neue Technologie kann derzeit europaweit nur am Prüfstand 8 in Lampoldshausen getestet werden“, erläutert Gerd Brümmer, DLR-Ingenieur und Leiter des Prüfstands P8.

MISSIONEN ÜBER ERDORBIT HINAUS

BERTA ist für den Betrieb mit lagerfähigen Treibstoffen ausgelegt. Das bedeutet, dass die Treibstoffe bei Raumtemperatur gelagert werden können. Triebwerke dieser Art sind sehr zuverlässig und können mehrfach gezündet werden. Sie eignen sich somit für längere Missionen. Damit kann dieses Triebwerk nicht nur für den erdnahen Bereich auf kleinen bis mittleren Raketen eingesetzt werden, sondern auch für Missionen über den Erdorbit hinaus. Übliche lagerfähige Treibstoffe sind jedoch hochgiftig. Für die Testläufe im Prüfstand werden daher kryogene Treibstoffe verwendet.

Entwickelt wurde das Triebwerk im Rahmen der Forschungen für zukünftige europäische Trägersysteme (Future Launcher Preparatory Programme/FLPP) der ESA. Deutschland ist seit Jahren größter Beitragszahler im FLPP-Kernprogramm. Das DLR Raumfahrtmanagement steuert die Verwendung der Mittel innerhalb von FLPP und berät die ESA bei der Durchführung einzelner Projekte.

Die Testkampagne wird noch vier Wochen andauern und die Ergebnisse werden auch in weitere Entwicklungsvorhaben der ESA einfließen. So sollen 3D-Druckverfahren für Weiterentwicklungen der Ariane-6-Triebwerke Vinci und Vulcain eingesetzt werden.

Bild oben: BERTA-Triebwerk bei der Integration ©DLR

Dieser Artikel erschien am 20.2.2019 in der Innovation Origins.

STATE OF THE ART IN DER AUSBILDUNG 4.0

Probieren geht über Studieren – das war eigentlich schon immer die Devise, wenn etwas erfolgreich umgesetzt werden soll. Heutzutage ist dies durch die Ausbildung 4.0 mit Augmented Reality (AR), Virtual Reality (VR) und Künstlicher Intelligenz (KI) bei misslungenem Versuch ganz ohne gravierende Folgen in der Berufswelt möglich. Genau das machen sich immer mehr Arbeitgeber in der Aus- sowie in der Fortbildung von Mitarbeitern zunutze. Grund genug auch für das Bundesministerium für Bildung und Forschung (BMBF) schon im Sommer 2016 die Initiative Berufsbildung 4.0 zu starten. In Kooperation mit dem Bundesinstitut für Berufsbildung (BIBB) zielt sie darauf ab, neue Maßnahmen für eine zukunftsrelevante, attraktive und wettbewerbsfähige Berufsausbildung zu gestalten. Entsprechend sind mittlerweile einige Projekte in Kooperation mit Universitäten, Instituten und IT-Unternehmen entstanden.

BEWERBUNG

Vor der Ausbildung kommt die Bewerbung. Dank des Forschungsprojektes Empat können sich Jugendliche gezielt auf die Interaktion während des Bewerbungsgesprächs vorbereiten. Denn mit Hilfe von Avataren in Form eines virtuellen, empathischen Trainingssystems wird die Bewerbungssituation geübt und das eigene Verhalten trainiert. Dabei wird – um das Verhalten des interaktiven Avatars an die sozio-emotionale Situation des Nutzers anzupassen –, eine Echtzeit-Analyse sozialer Signale mit einem emotionalen Echtzeit-Benutzermodell gekoppelt. Noch ist für die Forscher der Uni Augsburg (Fachbereich Informatik), der Universität des Saarlandes (Psychologie) sowie Unternehmen aus dem Bereich der 3D-Grafik die realitätsnahe Gestaltung des emotionalen Feedbacks durch den Avatar die größte Herausforderung.

Hochentwickelte Hardwaresensoren erfassen soziale Kommunikationssignale wie Blick-, Augen, Hand- und Körperbewegungen und simulieren emotional-soziale Interaktionsmuster. Die Ergebnisse werden zudem dazu genutzt, mögliche emotionale Zustände eines Benutzers zu berechnen. Begleitet wird das Projekt von einem Ethikbeirat aus den Fachgebieten Coaching, Jugendarbeit, Jura und Pädagogik.

Natürlich sind berufliche Gespräche auch für andere Situationen trainierbar. So werden VR-Brillen zum Beispiel für die Bankberater-Ausbildung eingesetzt. Nach Deutschland wird hier nun auch die Volksbank-Akademie in Österreich aktiv. 2018 startete dazu ein Forschungsprojekt, das im ersten Halbjahr 2019 ausgebaut wird. An die 80 angehende Kundenberater erhalten Übungseinheiten mit einer Virtual-Reality-Brille.

VIRTUELLE NOTFÄLLE

Schon im Jahre 2017 ist das Forschungsprojekt „Epicsave“ gestartet. Hier werden durch den Einsatz von VR verschiedene Szenarien in der Rettungssanitäter-Ausbildung getestet. Ziel dabei ist, „…lebensbedrohliche ‒ aber für eine hinreichende Ausbildung zu selten auftretende Notfälle, wie den allergischen Schock bei Kindern ‒, praktisch trainierbar zu machen“, heißt es auf der Webseite der Initiatoren. Zum Einsatz kommen neben der VR auch weitere digitale Tools aus den Bereichen Gaming, Eye-tracking, Virtual Agents und 3D-Interaktion. Das Projekt wird von Experten aus unterschiedlichen Fachrichtungen betreut. So untersteht die Projektleitung und medientechnische Begleitforschung zu erfahrungsbasierten Serious Games und Virtueller Realität der Hochschule Bonn-Rhein-Sieg. Für die mediendidaktische Konzeption und Evaluation der Lernmodule ist das Fraunhofer IESE verantwortlich. Und die Technische Umsetzung der Serious Games sowie der VR-Umgebung stammt von Tricat. Das Ulmer Unternehmen gilt weltweit als Vorreiter in Bezug auf virtuelle 3D Lern- und Arbeitswelten. Implementiert werden die Simulationstrainings in der freien Wohlfahrtspflege (Malteser Hilfsdienst) sowie der Akademie für Notfallmedizin. Langfristig kann Epicsave auch auf die Auszubildenden in Gesundheitsfachberufen sowie auf die fortbildungsverpflichtete Ärzteschaft übertragen werden. Zudem ist in einem dritten Schritt der Aufbau eines Bildungsportals zu gesundheitlichen Notfällen für die breite Öffentlichkeit angedacht.

Einen ähnlichen Ansatz hat auch die virtuelle Feuerwehr-Ausbildung im Landkreis Cham, die nun auch deutschlandweit eingesetzt wird. Gemeinsam mit der Universität Kassel wurde ein System entwickelt, durch das Einsatzkräfte per 3D-Brille in virtuelle Einsatzsituationen versetzt werden. Der große Vorteil: Ausbilder können das Verhalten beobachten, analysieren und auch gleich korrigieren.

ZUKUNFTSWERKSTATT

Mit Social Virtual Reality wird die reale Welt um eine digitale erweitert. In der App hinterlegt sind die Konstruktionsdaten einer Heidelberg-Maschine der Modellreihe SX 74, die in den Lehrwerkstätten der Schulen am häufigsten vertreten ist ©Heidelberger Druckmaschinen

Mit Social Virtual Reality wird die reale Welt um eine digitale erweitert. In der App hinterlegt sind die Konstruktionsdaten einer Heidelberg-Maschine der Modellreihe SX 74, die in den Lehrwerkstätten der Schulen am häufigsten vertreten ist ©Heidelberger Druckmaschinen

Mit dem Ziel in Bezug auf dynamische Veränderungen nachhaltig handlungsfähige Mitarbeiter zu entwickeln und gleichzeitig eine eher traditionelle Branche für Digital Natives interessant zu gestalten entstand die Zukunftswerkstatt der Heidelberger Druckmaschinen AG. In dieser lernen Auszubildende von Beginn an die Digitalisierungsstrategie des Unternehmens kennen. Die Mechatroniker-Azubis können zum Beispiel per Virtual Reality (VR) das Innenleben einer Druckmaschine näher betrachten. Und lernen dabei virtuell Montage-, Wartungs- und Reparaturarbeiten zu simulieren. „Hier haben wir ein Beispiel für einen gelungenen Transfer von einem Förderprojekt in eine Anwendung für ein Industrieunternehmen“, beschreibt Dr. Lutz Goertz, E-Learning Forscher und Leiter der Bildungsforschung beim mmb Institut. Denn die begehbare Druckmaschine wurde zuvor im BMBF-Projekt „Social Virtual Learning“ entwickelt und erprobt.

DIGITALE ASSISTENZ

Auch das BMW-Werk in Landshut setzt mittlerweile auf digitale Assistenzsysteme in der Ausbildung. Eine VR-Brille trainiert die Azubis insbesondere im Bereich der Fertigung. So lernen sie zum Beispiel zunächst virtuell das Lackieren eines Bauteils mit der Lackierpistole oder das Bohren eines Werkstücks. Laut BMW kommt die Gaming-affine Lernatmosphäre nicht nur bei den jüngeren Mitarbeitern gut an. Die VR-Brille gibt übrigens erstens ein reales Abbild des Arbeitsplatzes wieder, und sie leitet zudem zur richtigen Ausführung an. Am Ende des Trainings wird das Ergebnis ausgewertet. So dass gleichzeitig auch Verbesserungspotenziale aufgezeigt werden. Schon seit 2012 kommt in dem Dingolfinger Werk des bayerischen Autobauers die MRK-Technologie (‚Mensch-Roboter-Kollaboration‘) in der Ausbildung zum Einsatz. Hier sammeln angehende Elektroniker, Mechatroniker und Fachinformatiker erste Erfahrungen im Programmieren von MRK-Robotern für die Fertigung. Die Roboter sind flexibel einsetzbar. Sie bewegen sich direkt neben den Menschen und übernehmen häufig monotone Arbeitsschritte, die hohe Zuverlässigkeit oder gleichbleibende Kraft und Ausdauer benötigen.

FLUGSCHÜLER IN VIRTUELLER WELT

Seit 2017 wird bei der European Flight Academy das Lufthansa Aviation Training (LAT) eingesetzt. Nun wurde das Trainingsmodul „Visual Flight Rules (VFR)“ als bestes eLearning-Tool 2019 in der Kategorie Virtual Reality gekrönt. Die Anwendung ermöglicht Flugschülern, die Luftraumstruktur und das Erkennen von Landmarken aus der Luft vor ihrem ersten Überlandflug in einer VR-Umgebung interaktiv zu erleben. Nach virtuellem Briefing mit 360°-Filmaufnahmen mit 3D-animierten Objekten erleben die Schüler eine immersive orts- und zeitunabhängige Erfahrung des Luftraums und seiner Struktur. Im Anschluss fliegen sie virtuell um den Trainingsflugplatz von Goodyear/USA. Dabei müssen sie Landmarken erkennen und anvisieren. Das Projekt wurde zusammen mit Psychologen der Technischen Universität Berlin entwickelt und kann ein stolzes Ergebnis vorweisen: Die Flugschüler zeigten in realen Flugmissionen eine rund 15 Prozent bessere Gesamtleistung bei einer gleichzeitigen Senkung des Stresslevels.

MIXED REALITY AN DER UNI

Dank der Kombination aus Augmented Reality und tatsächlichen Gegebenheiten können Studenten des Bauingenieurwesens der Universität Weimar sowie der Universität Ulm räumliche Informationen realitätsnah in drei Dimensionen abbilden. Gleichzeitig erhalten sie Hintergrundinformationen über vorhandene Objekte, so dass eine Interaktion möglich wird. Anwendungsbeispiele wäre das Bauen von Straßen, Brücken oder Gebäuden mit zusätzlichen, computergenerierten Informationen wie Formeln und Erläuterungen. Hinzu kommen verborgene Einflussgrößen wie Bodenstruktur, CO2-Ausstoß oder Thermodynamik, die dank Mixed Reality (MR) sicht- und erlebbar werden und somit eine entsprechende Planung möglich machen.

DIDAKTIK

Dies ist nur ein kleiner Ausschnitt davon, wohin die Reise in Richtung Ausbildung 4.0 geht. Einen stets aktuellen Überblick über das Thema „Lernen in virtuellen Welten“ gibt das Online Magazin Immersive Learning.

E-Learning-Forscher Goertz sieht auch Grenzen in Bezug auf digitale Lernmodule: „Der Einsatz von VR-Brillen darf kein Selbstzweck sein. Die neuen Tools müssen dem Erreichen von Lernzielen dienen“, skizziert er verschiedene didaktische Konzepte. „So lässt sich das Virtual Reality Learning besonders gut einsetzen für das Verstehen komplexer Prozesse, für das Einüben von Verhaltensweisen, für das Bewegungstraining und den Erwerb von Softskills wie z.B. Kommunikationskompetenzen.“

Sünne Eichler, Beraterin für Bildungsmanagement prognostiziert – dank stets weiter optimierter Rechnerleistungen, verbesserter Grafik und sinkender Hardwarekosten –, eine zunehmende Bedeutung von VR in Lernsituationen: „Wir verschaffen damit dem Lerner ein Lernerlebnis dicht an der Realität – Probehandeln und Selbstwirksamkeit ohne Risiko. Und mit Hilfe der KI können wir spezifisch zugeschnittene Lernangebote machen“, so Sünne Eichler, „das bedeutet individuelles ‚Lernen on demand‘ statt Gießkanne. Mit Hilfe der KI können wir dem Auszubildenden in einem Arbeitsprozess, z.B. beim Bedienen einer Maschine, über Chatbots eine schnelle Antwort auf seine spezifische Fragestellung geben. Er bekommt passgenaues Wissen und die Maschine lernt gleich mit, wo typische Fehlerquellen in der Bedienung liegen.“

Bild oben: Die VR-Brille gibt ein reales Abbild des Arbeitsplatzes wieder. Zudem leitet sie zur richtigen Ausführung an. Sie ermöglicht so bereits frühzeitig und losgelöst vom realen Arbeitsplatz, neue Tätigkeiten zu trainieren ©BMW

Dieser Artikel erschien am 15.2. 2019 in der Innovation Origins.

GLETSCHERSCHMELZE IN GRÖNLAND, DER ANTARKTIS UND AM HINDUKUSCH

Gerade erst kündigte ein internationales Team an Wissenschaftlern, darunter das Deutsche Luft- und Raumfahrt Institut (DLR), eine dramatische Entwicklung am Thwaites-Gletscher in der Westantarktis an, da kommt kaum eine Woche später die nächste Veröffentlichung, diesmal vom Alfred Wegener Institut (AWI) durch Dr. Martin Rückamp und Co-Autoren: Am Petermann-Gletscher im Nordwesten Grönlands wird in nicht mehr allzu langer Zeit ein riesiger Eisberg abbrechen. Und auch vom Hindukusch gab es letzte Woche Alarm durch das Internationale Zentrum für Integrierte Gebirgsentwicklung (ICIMOD): Mindestens ein Drittel der Gletscher von Hindukusch und Himalaja werden bis zum Ende dieses Jahrhunderts verschwunden sein. Ein weiteres Forscherteam unter deutscher Leitung ist gerade auf Expedition zum 2017 abgebrochenen Eisberg A68 am Larson Schelfeis C in der östlichen Antarktis-Halbinsel unterwegs.

Während bei der Expedition das einzigartige und bisher verborgene Meeresökosystem erkundet wird, geben die aktuellen Forschungsergebnisse ziemlich zu denken. Denn oft wird der Rückgang der Gletscher als Indikator für die Klimaerwärmung gesehen. Er ist diesbezüglich in etwa vergleichbar wie Pulsschlag und Blutdruck für den Gesundheitszustandes eines Menschen.

Doch sollte man hier nicht vorschnell – ohne wissenschaftlich fundierte Untersuchung – einen direkt kausalen Zusammenhang zum Klimawandel herstellen. Deshalb fassen Rückamp und seine Co-Autoren, sie hatten beispielsweise keine Ursachenforschung in puncto Klimawandel betrieben, die Situation etwas vorsichtiger wie folgt zusammen: „Die Gletscher reagieren direkt auf Temperaturänderungen – ein Handeln, das die globale Erwärmung begrenzt, wirkt sich direkt auf Gletscher aus.“ Rückamp setzt zudem hinterher: „Ziele auf dem Papier tun das nicht.“

THWAITES-GLETSCHER LÄSST OZEANE UM 65 CM STEIGEN

DLR
TanDEMX Höhenmodell: Brüchiges Schelfeis am Thwaites Gletscher ©DLR

Bis dato machte das unaufhaltsame Abfließen des Thwaites-Gletschers in den Amundsen See rund vier Prozent des globalen Meeresspiegelanstiegs aus. Doch allein die verbleibenden Massen des immer schneller schmelzenden Eises könnte unsere Ozeane um 65 cm ansteigen lassen. Am Boden des Gletschers klafft ein 350 Meter großer Hohlraum. Und dieser frisst sich mit dem von unten eindringenden Meerwasser weiter in das Eis hinein. Zwar hatten die Experten schon vor Jahren den Verdacht, dass Thwaites nicht fest mit seinem Untergrund verbunden ist, doch ein solch besorgniserregendes Ergebnis hatten sie nicht erwartet. Insgesamt sind bereits 14 Milliarden Tonnen Eis ausgewaschen worden. Und das vorwiegend in den letzten drei Jahren. Dies geht aus Satellitendaten der amerikanischen, deutschen und italienischen Forschungspartner hervor.

Möglich wurden die aktuellen Forschungsergebnisse des DLR unter anderem durch die beiden deutschen Radarsatelliten TanDEM-X und TerraSAR-X. Denn diese sind in der Lage flächendeckend hochgenaue und dreidimensionale Messungen mit hoher Auflösung vorzunehmen. So konnte anhand der TanDEM-X-Höhenmodelle die Schmelzrate bestimmt werden. Auch offenbaren sie die besondere Dynamik des Gletschers: Die Hebungen und Senkungen der Eisoberfläche wurden genau vermessen und ließen damit wichtige Rückschlüsse auf die darunterliegenden Schmelzprozesse zu. Mit Aufnahmen der italienischen Cosmo-Skymed Satelliten konnte auch die Wanderung der „Aufsetzlinie“ des Gletschers – diese markiert den Übergang, an dem die Eismasse kein Festland mehr unter sich hat, also auf dem Meer schwimmt –, im Zeitverlauf genau beobachtet werden. So kamen die Wissenschaftler zu der neuen Erkenntnis, dass sich zwar die Gletscheroberfläche hebt, die Eisdicke aber insgesamt abnimmt. Die Wechselwirkungen zwischen Eismasse und eindringendem Meerwasser haben weitreichendere Folgen als bisher angenommen. Um die Auswirkungen der Gletscherschmelze auf den globalen Meeresspiegel genauer vorhersagen zu können, sind diese und weitere Erkenntnisse daher essenziell. Die Ergebnisse der von der NASA geleiteten Studie sind aktuell im „Science Advances“-Journal erschienen.

RIESIGER EISBERG ERWARTET: RISSE AM PETERMANN-GLETSCHER

AWI
Petermann-Gletscher (Grönland) nahe des Zentrums des fließenden Gletschers etwa 26 Kilometer entfernt von der Kalbungsfront ©Andreas Muenchow, University of Delaware

Auch aus dem äußersten Nordwesten Grönlands wird vermeldet: Forscher des AWI messen ein höheres Fließtempo der schwimmenden Eiszunge des Petermann-Gletschers. Diese schiebt sich derzeit über eine Strecke von etwa 70 Kilometern in den Petermann-Fjord. Zudem kündigen Risse etwa zwölf Kilometer oberhalb der bisherigen Gletscherkante – das Einzugsgebiet des Petermann-Gletschers umfasst vier Prozent des Grönländischen Eisschildes –, an, dass sich in naher Zukunft wieder ein Eisberg vom Gletscher lösen könnte. Laut AWI-Glaziologen hat sich seit einem Eisberg-Abbruch im Jahr 2012 das Fließtempo des Gletschers um durchschnittlich 10 Prozent erhöht, sodass in der Folgezeit neue Risse entstanden. Eigentlich ein durchaus natürlicher Vorgang. Modellsimulationen der Forscher zeigen jedoch auch: Sollten diese Eismassen abbrechen, wird sich der Petermann-Gletscher vermutlich weiter beschleunigen und mehr Eis ins Meer transportieren. Was wiederum entsprechende Folgen für den globalen Meeresspiegel haben wird.

Als die Wissenschaftler im Winter 2016 durch die Analyse von Satellitendaten erkannten, dass der Gletscher mit einer Geschwindigkeit von durchschnittlich 1135 Metern pro Jahr floss, also etwa 10% schneller als im Winter 2011, erforschten sie die direkte Ursache. Sie simulierten den beobachteten Eistransport in einem Computer-Eismodell und wiesen nach, dass der Abbruch eines großen Eisberges im August 2012 die Beschleunigung des Gletschers in Gang gesetzt hatte. „Die Eismassen des Gletschers reiben auf ihrem Weg ins Meer rechts und links an Felswänden, welche den Fjord einrahmen“, so AWI-Eismodellierer und Erstautor der Studie, Martin Rückamp, „bricht nun am Ende der Gletscherzunge ein großer Eisberg ab, schrumpft die Länge der Eiszunge insgesamt und damit auch die Strecke, auf der die Eismassen die Felsen berühren. Deren Bremswirkung sinkt und der Gletscher beginnt, schneller zu fließen.“

Eine ähnliche Beschleunigung sagt das Computermodell auch für den Fall voraus, dass es zu einem erneuten Eisberg-Abbruch kommen sollte. „Wir können nicht vorhersagen, wann der Petermann-Gletscher wieder kalben wird und ob ein Abbruch tatsächlich bis zu den von uns entdeckten Rissen in der Gletscherzunge reichen wird“, so Rückamp. „Anzunehmen ist aber, dass die Gletscherzunge im Falle eines weiteren Abbruchs wieder deutlich schrumpfen und die Bremswirkung der Felsen noch weiter abnehmen wird“. Die Studie ist im „Journal of Geophysical Research: Earth Surface“ nachzulesen.

OBERFLÄCHENSCHMELZE UND WARME MEERESSTRÖMUNGEN

Der Grönländische Eisschild und die dazugehörigen Gletscher haben seit dem Jahr 2002 im Durchschnitt jährlich 286 Milliarden Tonnen Eis verloren. Diese Massenverluste sind vor allem auf die Zunahme der sommerlichen Oberflächenschmelze zurückzuführen. Das Kalben von Eisbergen hat ebenfalls zugenommen. Grönlands Gletscher verlieren heutzutage ein Viertel mehr Eis durch Eisberg-Abbrüche als im Vergleichszeitraum von 1960 bis 1990. Als mögliche Ursachen werden u.a. wärmere Meeresströmungen diskutiert, welche die schwimmenden Gletscherzungen von unten schmelzen, sowie Schmelzwasser, welches durch Spalten und Risse bis ins Gletscherbett sickert und dort wie ein Schmiermittel das Gleiten der Eisströme beschleunigt. Derzeit tragen die Eismassenverluste Grönlands jährlich etwa 0,7 Millimeter zum globalen Meeresspiegelanstieg bei. Dieser beträgt aktuell 3,3 Millimeter pro Jahr.

Inwieweit der beschleunigte Eistransport des Petermann-Gletschers auf verschiedene Konsequenzen der globalen Erderwärmung zurückzuführen ist, haben die Wissenschaftler bislang noch nicht tiefgreifend untersucht. „Wir wissen jetzt, dass das Fließtempo des Gletschers infolge von Eisberg-Abbrüchen steigt. Außerdem beobachten wir, dass die Häufigkeit solcher Abbrüche am Petermann-Gletscher zunimmt. Ob dafür jedoch die wärmer werdende Atmosphäre über Grönland oder aber wärmeres Meerwasser verantwortlich ist, haben wir anhand der Satellitendaten nicht untersuchen können“, so Niklas Neckel. Für die Wissenschaftler ist die Beschleunigung des Petermann-Gletschers dennoch ein Signal. Im Gegensatz zu den Gletschern im Südosten und Südwesten Grönlands haben die Gletscher im hohen Norden der Insel bislang kaum Veränderungen gezeigt. Das scheint sich nun zu ändern.

GROSSER GLETSCHERSCHWUND AM HIMALAYA UND HINDUKUSC

Als „Dritter Pol“ der Erde werden der Himalaya und die umliegenden Gebirge bezeichnet. Denn abgesehen vom Nord- und Südpol hat keine Region der Welt mehr Eis und Schnee. Von hier kamen letzte Woche ebenfalls Hiobsbotschaften: Auch wenn das ambitionierteste Ziel des Pariser Abkommens erreicht werde, werden die Gletscher dieser Region mindestens um ein Drittel schmelzen. Schafft man es nicht, rechnen die Forscher von ICIMOD mit einem Schwund von zwei Dritteln. Die Gletscher sind eine unverzichtbare Wasserquelle für rund 1,9 Milliarden Bewohner der Region – in den Bergen wie auch entlang der Flüsse. „Die globale Erderwärmung ist dabei, die eisigen, mit Gletschern bedeckten Gipfel des HKH (Hindukusch-Himalaya), die sich über acht Länder erstrecken, innerhalb von etwas weniger als einem Jahrhundert in kahle Felsen zu verwandeln“, so der leitende Herausgeber des Berichts, Philippus Wester.

Die Studie wurde nach den Maßgaben des Weltklimarats durchgeführt. Insgesamt wurde sie über fünf Jahre entwickelt und enthält Erkenntnisse von mehr als 350 Forschern, Experten aus 22 Ländern und 185 Organisationen. Mit 210 Autoren, 20 Rezensionsredakteuren und 125 externen Rezensenten bietet sie einen beispiellosen Einblick in die einzigartige Umgebung, die Menschen sowie die Tierwelt der Region rund um die bedeckten Gipfel von HKH (Hindukusch-Himlaya). Dem ICIMOD gehören die Regierungen der acht Länder aus den Gebieten der Himalaya- und Hindukusch-Gebirge an: Afghanistan, Bangladesch, Bhutan, China, Indien, Myanmar, Nepal und Pakistan.

40 JAHRE WELTKLIMAKONFERENZ

Seit 40 Jahren gibt es nun schon eine weltweite Klimakonferenz: Die erste fand vom 12.-23.2.1979 in Genf statt. Zum Jubiläum gab der Jülicher Klimaforscher Prof. Andreas Wahner ein Interview. Wahner ist Leiter des Instituts für Energie- und Klimaforschung IEK-8-Troposphäre am Forschungszentrum Jülich. Sein Schlusssatz klingt ziemlich alarmierend: „Die Hoffnung auf eine Begrenzung des Temperaturzuwachses auf 1,5 bis 2 Grad zum Ende des Jahrhunderts ist immer weniger haltbar. Wir müssen uns vermutlich auf mehr einstellen, was gravierende Konsequenzen haben und uns weltweit wirtschaftlich deutlich teurer zu stehen kommen wird, als wenn wir in der Vergangenheit oder auch heute mit Entschiedenheit gehandelt hätten.“

Bild oben: Petermann-Gletscher, Grönland: Südwestlicher Rand der sogenannten Scherzone des fließenden Gletschers, etwa 10 Kilometer von der Kalbungsfront entfernt ©Andreas Muenchow, University of Delaware

DAS KÖNNTE SIE AUCH INTERESSIEREN:

Labrador Sea freshening at 8.5 ka BP caused by Hudson Bay Ice Saddle collapse

Fast retreat of Zachariæ Isstrøm, northeast Greenland

A Review of Recent Changes in Major Marine-Terminating Outlet Glaciers in Northern Greenland

Auswirkung von Klimawandel auf den Auftrieb von Tiefenwasser

Dieser Artikel erschien am 12.2.2019 in der Innovation Origins.

ARBEITSWELTEN DER ZUKUNFT: UNTERNEHMEN DENKEN UM

Wer an Arbeitswelten der Zukunft denkt, hat zunächst das Zusammenwachsen von Mensch und Maschine, die KI, im Kopf. Doch auch Coworking-Spaces, kreative Aufenthaltsräume und Flexibilität prägen das Bild moderner Arbeitsplätze. Unternehmen passen sich zudem den Trends zur Work-Life-Balance an. Sie rekrutieren neue Mitarbeiter über Benefits wie frisches Obst, Tisch-Kicker, Yoga-Stunden sowie firmeneigene Kitas. Bei der sogenannten „New Work“ steht also einerseits die Digitalisierung andererseits aber auch der Mensch im Mittelpunkt. Kein Wunder also, dass Unternehmen derzeit Arbeitsplätze sowie Arbeitsgewohnheiten komplett umgestalten: Statt Einzelbüros stehen derzeit kollektive Schreibtische mit Rollcontainern hoch im Kurs. Gleichzeitig sollen Rückzugs-Zonen die Konzentration fördern und Lounge-ähnliche Besprechungszimmer zum Brainstorming anregen. Die so geschaffenen, neuen Bürowelten sollen nicht nur das Potenzial der Mitarbeiter maximal fördern, sondern sie sind für die Unternehmen meist auch noch wirtschaftlich äußerst effizient.

UMGESTALTUNG VON TRADITIONSUNTERNEHMEN

Arbeitswelten von Morgen
Mobile Lösungen ermöglichen den Mitarbeitern der Witt-Gruppe das Arbeiten dort, wo sie am effektivsten sind – es muss nicht der Schreibtisch sein… ©Witt-Gruppe

Derzeit baut die Witt-Gruppe aus Weiden in der Oberpfalz die Arbeitswelten um. Im beruflichen Alltag sind agile Arbeitsweisen wie Scrum und Kanban schon längst verwurzelt. Nun geht der zur Otto-Gruppe gehörende Versandhandel in einem neuen Projekt auch den Umbau der Büros an. „Wenn wir weiterhin gute Ergebnisse erzielen möchten, müssen neue Arten der Zusammenarbeit gefunden werden,“ erklärt Kerstin Harms-Sudarma, Bereichsleiterin Facility Management, den Ansatz, „Es ist also wichtig, dass sich das Arbeitsumfeld an diese neuen Bedingungen anpasst.“ Für die Mitarbeiter von Witt bedeutet das, dass Bereichsleiter keine eigenen Büros mehr haben und feste Arbeitsplätze aufgelöst werden. So soll mehr Platz entstehen und eine leichtere Zusammenarbeit zwischen Fachabteilungen und Mitarbeitern verschiedenster Disziplinen ermöglicht werden. Hinzu kommen neue Arten von Führungsrollen sowie das Konzept des Desk-Sharings. Denn bei einer internen Erhebung stellte die Witt-Gruppe fest, dass täglich etwa jeder fünfte Arbeitsplatz aufgrund von Geschäftsreisen, Urlaub oder Krankheit frei bleibt.

„Durch das Aufbrechen der Strukturen und die interdisziplinäre Zusammenarbeit geht der Einfluss der Führungskräfte ein Stück weit verloren,“ so Susan Kröber, Bereichsleiterin Human Resources, „…zudem erfordern Home-Office und die Zusammenarbeit in abteilungsübergreifenden Teams ein höheres Maß an Vertrauen und es müssen Zielvereinbarungen getroffen werden.“ Zehn Prozent der Bereichsleiter der Witt-Gruppe haben sich bereits auf das Experiment eingelassen und ihr eigenes Büro aufgegeben.

Natürlich ändert sich auch die technische Ausstattung: „Der herkömmliche Desktop-PC wird von mobilen Geräten wie Laptop und Tablet abgelöst,“ erklärt Thomas Schertel, Bereichsleiter IT, „das Telefon wandelt sich in ein Headset. Drucken wird per Follow-Me Printing Funktion für alle Mitarbeiter von überall aus möglich.“

UMWELTPSYCHOLOGISCHE EFFEKTE DURCH DIGITALISIERUNG

Doch die Entwicklung könnte noch viel weiter gehen. So ist zumindest die Vision von Dr. Stefan Rief. Er ist Mitglied des Direktoriums des Fraunhofer-Instituts für Arbeitswirtschaft und Organisation (IAO) sowie Leiter des Forschungsbereichs für Organisationsentwicklung und Arbeitsgestaltung. Sein Spezialgebiet ist die Erforschung und Entwicklung neuer, produktivitätsfördernder Arbeitsumgebungen. Der Schwerpunkt liegt dabei auf Büro-, Labor- und Lernwelten. Rief bestätigt, dass unsere Arbeitsumgebung unter den beiden Aspekten Arbeitsort und -raum Auswirkung auf unser Wohlbefinden hat. Auch sieht er das Büro der Zukunft in einer gewissen Vielfältigkeit ‒ von kleinen Zellen als Rückszugsort bis hin zu offenen Bereichen, die das Socialising fördern. Ebenso empfiehlt er, hellere und dunklere Zonen zu ermöglichen. Doch am spannendsten findet Rief die Möglichkeiten, die die Digitalisierung bietet. Hier bezieht er sich insbesondere auf die Installation von individuellen, umweltpsychologischen Effekten. Dazu gehören die Einstellung von Temperaturen sowie Beleuchtungen und auch die Nutzung von Gerüchen, die zur persönlichen Leistungsfähigkeit oder auch Kreativität beitragen. Wichtig für ihn ist dabei, darauf zu achten, dass die Konzepte wirklich individuell angepasst sind und nicht als allgemeingültig gesehen werden. Sein Credo für die Arbeitswelt von Morgen: „One doesn´t fit all.“

Bild oben: In den Kreativräumen darf – dank White-Board – auch schon mal an die Wand gemalt werden ©Witt-Gruppe

DIESE ARTIKEL KÖNNTEN SIE AUCH INTERESSIEREN:

INNOVATIONSCAMPUS PRÄGT NEUE LEBENS- UND ARBEITSWELTEN

B-PART: PILOTPROJEKT ZUR GESTALTUNG DER URBANEN ZUKUNFT

PHILIPS TO STAY AT HIGH TECH CAMPUS EINDHOVEN

Dieser Artikel erschien am 10.2.2019 in der Innovation Origins.

KI: NICHT NUR FACEBOOK SOLLTE REGULIERT WERDEN

Die aktuelle Kartellamts-Entscheidung bezüglich der Datensammlung durch Facebook macht nochmals bewusst, wie leichtfertig viele mit ihren privaten Daten umgehen. Und das nicht nur durch soziale Medien wie Facebook. Denn allein die Nutzung des Internets, von Smartphones und Smart Home-Funktionen machen uns gläsern. Kaum einer denkt darüber nach, wenn er Siri um einen Eintrag bittet, und das vielleicht auch noch, während gerade eine andere Anwendung läuft. Sagen wir zum Beispiel während der Streaming-Dienst Netflix Filme – basierend auf früheren Einstellungen – präsentiert. Oder, wenn er per App das Thermostat im Wohnzimmer höherstellt, da er gerade auf dem Heimweg ist. Von vielen weiteren Home-Anwendungen ganz zu schweigen. Im Gesundheitswesen wird die KI heute zur Erkennung von Tumoren auf CT-Scans eingesetzt. In einigen Ländern kann die virtuelle Krankenschwester Molly zu Rate gezogen werden. Und im Finanzsektor führen Kreditkartenunternehmen mit ihrer Hilfe Betrugsprüfungen durch. Banken verwenden Algorithmen, um festzustellen, ob jemand kreditwürdig ist und vieles mehr. Kurzum: KI ist überall. Und: KI benötigt Daten.

Doch was passiert mit all diesen Infos? Wer könnte sie wann wie nutzen? Welche Kontrollinstanzen gibt es neben dem deutschen Kartellamt noch?

DIE EUROPÄISCHE UNION

Im Dezember 2018 befürwortete Brad Smit, Präsident von Microsoft und Leiter der Rechtsabteilung, in einem Blogbeitrag Regeln und Gesetze für die Gesichterkennungs-Technologie. Denn laut dem Microsoft-Vorstandsvorsitzenden birgt diese Technologie allerlei Gefahren. Dazu zählt vieles, von der Vorverurteilung durch Algorithmen bis hin zur Verletzung der Privatsphäre. Ganz zu schweigen von Diktaturen, die jeden Bürger im Auge behalten können. Laut Smit ist es an der Zeit, dass sich die Regierungen mit den neuen Technologien auseinandersetzen. Nun werden die ersten Schritte getan.

In der Europäische Union gibt es eine Gruppe von 52 Experten – Menschen aus den verschiedensten Bereichen –, die Empfehlungen für Vorschriften zur künstlichen Intelligenz geben. Zufall oder nicht: Seit Dezember 2018 arbeiten die EU-Experten daran, diesbezüglich Leitlinien zu verfassen. In einer kürzlich vorgestellten, ersten Version (eine endgültige Fassung soll im März erscheinen) gehen sie dabei auf verschiedene Themen ein. So beschreiben sie das Dilemma, dass die KI einerseits sehr viele Vorteile bietet, aber gleichzeitig unzählige Gefahren birgt. Entsprechend empfehlen sie einen menschenzentrierten Ansatz zur Regelung der KI. Der Hintergrund: KI bietet Menschen nur Vorteile, wenn diese sie zuversichtlich und umfassend nutzen können sowie der Technik vertrauen. Den Rahmen für eine vertrauenswürdige KI setzt zunächst eine ethische Zweckbestimmung. Aus dieser sollen sich die Regelungen für die Verwirklichung der vertrauenswürdigen KI ableiten. Zudem sollen die Anforderungen auf ein operatives Fundament mit Beispielfällen gestellt werden. Die EU-Leitlinien sollen nicht statisch sein, sondern eher einen Ausgangspunkt für die Diskussion über „vertrauenswürdige KI made in Europe“ bilden. Mit den ethischen Richtlinien, die gleichzeitig eine Wettbewerbsfähigkeit garantieren sollen, möchte sich Europa als Vorreiter einer hochmodernen, sicheren und ethischen KI positionieren sowie gleichzeitig weltweit zur Diskussion anregen.

ISO-NORM FÜR KI

Einen weiteren Ansatz gibt es über die International Standardisation Organisation (ISO): „Es ist sehr wichtig, dass wir alle die gleiche Sprache sprechen“, so Jana Lingenfelder, Technical Relations Executive bei IBM. Neben ihrer Arbeit für IBM arbeitet sie an einem KI-Standard für die ISO. Dieser soll Unternehmen und Designern Definitionen sowie Grundregeln liefern, die als Basis für ihre Arbeit dienen soll. Denn KI geht über nationale Grenzen hinaus.

Der deutsche Rechtsanwalt Jan Schallaböck unterstützt die ISO dabei, eine Norm für Technologieunternehmen zu entwickeln. Er konzentriert sich in seiner Tätigkeit hauptsächlich auf den Datenschutz. So spricht er Empfehlungen aus, zu welchem frühestmöglichen Zeitpunkt eines Produkts oder einer Dienstleistung Unternehmen sich mit der Privatsphäre von Nutzers befassen sollten. Schallaböck stimmt mit Lingenfelder überein. Gleichzeitig sieht er aber auch Probleme bei der Einhaltung der Regeln: „Die genaue Beobachtung der künstlichen Intelligenz braucht Zeit, viele Regierungen oder andere Aufsichtsbehörden haben diese Möglichkeit nicht.“ Zudem sieht Schallaböck noch viele offene Fragen, zum Beispiel: „…inwieweit sind sie [Behörden] in der Lage einzuschätzen, wie ein Algorithmus eine Entscheidung trifft? Für viele Experten ist das eine tolle Aufgabe. Ganz zu schweigen von Verantwortung und Haftung. Liegt dies in der Verantwortung der Nutzer? Von den Plattformen? Oder den Menschen, die KI entwickeln? Und wie stellt man sicher, dass ein Algorithmus eine ethische Entscheidung trifft?“. Es gibt also noch viele Punkte zu verstehen und zu beachten, bevor Regelungen bezüglich KI greifen können.

KI: ETHISCH ODER NUMERISCH?

Wie soll ein selbstfahrendes Fahrzeug nach ethischen Grundsätzen entscheiden? @Waymo Steve Mahan

Es gibt aber noch ganz andere Kriterien zu bedenken. Zum Beispiel: Wie soll ein selbstfahrendes Fahrzeug bei einer Kollision entscheiden, ob es einen Radfahrer oder einen Fußgänger treffen soll? Solche Dinge müssen in Systeme eingebaut werden. Laut Christian Wagner, Assistenz-Professor für Informatik an der Universität Nottingham, gibt es hier ein häufiges Missverständnis. Künstliche Intelligenz kann keine ethischen Entscheidungen treffen. Wagner ist übrigens auch Direktor von LUCID  (Lab for uncertainty in data and decision making). An dem Informatik Institut der Nottinghamer Uni wird an einem besseren Verständnis, an der Erfassung und an Hintergründen unsicherer Daten geforscht. Laut Wagner wird oft von einer „starken“ KI gesprochen, wenn die Technologie, genau wie der Mensch, über Recht und Unrecht urteilen kann. „Aber davon sind wir weit entfernt. Zunächst einmal müssen wir sicherstellen, dass die Systeme stabil sind. Ein selbstfahrender Wagen sollte nicht plötzlich unerwartete Dinge tun. So läuft das mit Zahlen und Wahrscheinlichkeits-Berechnungen.“

Wagner hält es zwar für richtig, Normen und Richtlinien festzulegen, aber er bezweifelt gleichzeitig, dass ein solches Modell beibehalten werden kann. Denn die Technologie entwickelt sich rasant. Jedes Mal ein neues Modell zu entwerfen erscheint viel zu umständlich. Auch Schallaböck hält dies für ein schwieriges Thema: „Normen wie die ISO-Marken sind immer gut, aber muss man dann für jede Anwendung von KI eine neue Norm schaffen? Diese Verfahren sind zeitaufwändig und sehr teuer.“

Und natürlich stellt sich die Frage, wer wann die Aufsicht hat. Und, wer verantwortlich ist. Wie Lingenfelder schon betonte, geht die KI über lokale Grenzen hinaus. Sie hat internationale Auswirkungen auf allen Ebenen der Gesellschaft. Alle drei zitierten Experten können noch keine klare Antwort auf diese Fragen geben. Vielleicht soll ein EU-Gremium eingerichtet werden, das die Einhaltung der Vorschriften überwacht? Schallaböck: „Wir haben jetzt die GDPR [General Data Protection Regulation], aber das ist bei weitem nicht genug. Noch haben wir keine Antwort auf die Gefahren der KI. Sie ist eine Gefahr nicht nur für die Demokratie, sondern auch für die Rechte des Einzelnen.“

Bild oben: Datensammlung durch KI @Pixabay

DIESER ARTIKEL KÖNNTE SIE AUCH INTERESSIEREN

DIE DSGVO IM EINSATZ – WIE IHRE DATEN GESCHÜTZT WERDEN

ZIELGERICHTETE WERBUNG BEI FACEBOOK

Dieser Artikel erschien am 9.2.2019 in Kooperation mit Milan Lentes in der Innovation Origins .

FESTOXID-BRENNSTOFFZELLE LIEFERT ERSTMALS 100.000 STUNDEN STROM

Mit einer Betriebszeit von über elf Jahren knackte die Hochtemperatur-Brennstoffzelle aus dem Forschungszentrum Jülich weltweit alle Rekorde – und das bei einer Temperatur von 700 Grad. Die Jülicher Entwicklung hätte sogar noch länger durchgehalten. Doch die Wissenschaftler leiteten vor wenigen Tagen schrittweise das Ende ihres Langzeitversuchs ein. Nun stehen weitere Untersuchungen bevor. Denn die hohe Betriebstemperatur stellt große Anforderungen an die verbauten Materialien.

Durch den erfolgreichen Test unter Leitung von Prof. Ludger Blum vom Jülicher Institut für Energie- und Klimaforschung (IEK-3) zeigten die Wissenschaftler, dass die Jülicher Brennstoffzelle der Anwendungsreife ein großes Stückchen nähergekommen ist. Keramische Hochtemperatur-Brennstoffzellen gelten als höchst-effizient. Zudem sind sie umweltschonend, emissions- und wartungsarm.

Mögliche Anwendungsgebiete der Zelle sind die dezentrale Strom- und Wärmeversorgung im Haushalt, in größeren Wohngebieten, in der Industrie sowie Nutzung als System für Züge oder Schiffe. Fünf bis zehn Jahre beziehungsweise umgerechnet 40.000 bis 80.000 Stunden müssen Hochtemperatur-Brennstoffzellen laufen, bis der Einsatz wirtschaftlich wird.

ZELLINNERES WIRD ERFORSCHT

Die Jülicher „Solid Oxide Fuel Cell“ (SOFC), zu deutsch Festoxid-Brennstoffzelle, hielt deutlich länger durch. Seit dem 6. August 2007 lieferte der aus zwei Zellen bestehende Zellstapel über 93.000 Stunden kontinuierlich Strom, insgesamt ca. 4.600 kWh. Zum Vergleich: Das entspricht in etwa der Strommenge, die ein Einfamilien-Haushalt in einem Jahr verbraucht.

Bis auf die Farbe äußerlich kaum gealtert: SOFC-Stack vor dem Start des Versuchs im Jahr 2007 (links) und im Jahr 2019 nach 100.000 Stunden im Dauerbetrieb (rechts) ©Forschungszentrum Jülich

Mit dem Abschalten der SOFC kommen neue Aufgaben auf die Forscher zu. Äußerlich haben sich die metallischen Bauteile im Laufe der Jahre zwar erkennbar verändert: Die metallisch-silbrig glänzende Oberfläche ist deutlich dunkler, fast schwarz, geworden. Doch abgesehen von dieser unvermeidbaren oberflächlichen Oxidation sind von außen keine weiteren negativen Veränderungen festzustellen.

„Wir sind schon ganz gespannt, wie es im Innern aussieht“, so Dr. Norbert Menzler vom Institut für Energie- und Klimaforschung (IEK-1). Menzler ist zuständig für die Entwicklung der keramischen Zellen. „In welchem Zustand sich die Zelle befindet, ist im laufenden Betrieb kaum ersichtlich. Bislang hat weltweit noch niemand eine Zelle nach 100.000 Betriebsstunden bei so hohen Temperaturen untersuchen können.“ Mit unterschiedlichen Methoden werden die Forscher in der nächsten Zeit genau analysieren, wie sich die jahrelange extreme thermische Belastung auf die keramischen Komponenten, Glaslot-Dichtungen und metallischen Verbindungsstücke – die sogenannten Interkonnektoren –, auswirkte. Die Erkenntnisse fließen in die Entwicklung neuer Materialien und Designansätze ein, um die Alterungsbeständigkeit weiter zu verbessern.

REVERSIBLES MODELL IM TEST

Aktuell testen die Wissenschaftler um Luder Blum eine reversibel betreibbare Version der SOFC. Diese liefert nicht nur Strom, sondern kann in einem umgekehrten Betriebsmodus auch Wasserstoff und Sauerstoff durch Wasserelektrolyse erzeugen. Auch diese Weiterentwicklung hat schon sehr gute Ergebnisse erzielt. Sie ist die erste Hochtemperatur-Brennstoffzelle, die im Wasserstoffbetrieb mit 62 Prozent einen Wirkungsgrad von über 60 Prozent erreicht.

HINTERGRUND

Seit 25 Jahren arbeiten die Wissenschaftler des FZ Jülich an der SOFC. Mittlerweile erhielten sie für ihre Entwicklung 95 Patente. An der Forschung zur SOFC sind verschiedene Bereiche des Instituts für Energie- und Klimaforschung (IEK-1, IEK-2, IEK-3, IEK-9) sowie das Zentralinstitut für Engineering, Elektronik und Analytik (ZEA-1) beteiligt. Auch der oben beschriebene Rekord-Stapel besteht größtenteils aus selbstentwickelten Komponenten. Dazu zählen etwa die keramischen Zellen, die Kontaktschichten und eine spezielle Glaskeramik, die aufgrund der hohen Temperaturen zur Abdichtung eingesetzt wird. Das Material für die Zwischenplatten, die auch als Interkonnektoren bezeichnet werden, mit denen sich die Zellen zu einem „Stack“ (englisch für „Stapel) zusammensetzen lassen, stammt von der österreichischen Firma Plansee SE in Reutte.

Bild oben: Jülicher Hochtemperatur-Brennstoffzellen nach 100.000 Stunden im Dauerbetrieb bei 700 Grad ©Forschungszentrum Jülich / Regine Panknin

Dieser Artikel erschien am 8.2.2019 in der Innovation Origins.

ANTARKTIS: FORSCHERTEAM ERKUNDET LEBEN UNTER EISBERG A68

Am 9. Februar startet unter der Leitung des Alfred-Wegener-Instituts (AWI) ein internationales Forscherteam eine Expedition zum abgelegenen Larsen-C-Schelfeis. Das Ziel: Die Forscher möchten das bisher unter dem Schelfeis verborgene Meeresökosystem erkunden. Im Juli 2017 kalbte ein riesiger Eisberg mit einer Größe von der siebenfachen Fläche Berlins vom antarktischen Larsen-Schelfeis ab. Durch den Abbruch des Eisberges namens A68 wurde eine Fläche von etwa 5.800 Quadratkilometern von der hunderte Meter dicken Schelfeisschicht befreit. Eine Welt, über die die Menschheit nichts weiß, da sie bisher unter dem dicken Eis im Verborgenen lag. Nun planen die Forscher nochmals – zwei Expeditionen mussten frühzeitig abgebrochen werden –, per Schiff von Punta Arenas (Chile) in die Region östlich der antarktischen Halbinsel zu fahren, um dort Proben vom Meeresboden zu nehmen. Insgesamt neun Wochen werden sie mit dem Eisbrecher Polarstern unterwegs sein. Per Satellitenaufnahmen soll die schwierige Navigation durch das Meereis unterstützt werden.

Forscherteam
Teilausschnitt der Abbruchkante des Larsen-B-Schelfeises an der Antarktischen Halbinsel/Polarstern-Expedition ANTXXIII/8, Weddellmeer 2006/07 ©Gauthier Chapelle

EILIGE MISSION

Die Mission eilt: Das wahrscheinlich seit mehreren tausend Jahren vom Eis bedeckte Ökosystem könnte sich mit dem jetzt einfallenden Licht rasch verändern. „Die Expedition zum Larsen-C-Schelfeis ist eine einmalige Gelegenheit für die internationale Forschungsgemeinschaft, um in dieser vom Klimawandel betroffenen Region interdisziplinäre Forschung durchzuführen“, so der wissenschaftliche Fahrtleiter der Expedition, Dr. Boris Dorschel. Da Larsen C weit im Süden liegt, ist selbst in Zeiten minimaler Meereisbedeckung in der Antarktis noch viel Eis vorhanden. Nichtdestotrotz sollte die Expedition zum jetzigen Zeitpunkt stattfinden. So können die Forscher noch Einblicke in die erst kürzlich vom Schelfeis befreite Welt erhoffen und das ein oder andere Geheimnis des Eisschelfs und des Eisbergs A68 lüften. Unter anderem sollen auch die Strukturen am Meeresboden erforscht werden. Für die Forschungszwecke sollen zudem hochauflösende Satellitendaten sowie der Bordhelikopter der Polarstern genutzt werden.

Polarstern
Das Forschungsschiff Polarstern während einer Eisstation im Weddellmeer ©Mario Hoppmann

DRAMATISCHER ÖKOLOGISCHER WANDEL

„Das Kalben von A68 ist eine einmalige Gelegenheit, Meereslebewesen zu untersuchen, die einem dramatischen ökologischen Wandel ausgesetzt sind“, so der Meeresbiologe Dr. Huw Griffiths vom British Antarctic Survey (BAS). Er leitet eines der Projekte zur Erforschung der Biologie am Meeresboden. Da das Gebiet Jahrtausende ohne Sonnenlicht war, gehen die Forscher davon aus, dass sich hier eine Artengemeinschaft entwickelt hat, die sich speziell an ein Leben mit sehr wenig verfügbarer Nahrung angepasste. Griffiths ergänzt: „Der Abbruch dieses riesigen Eisbergs wirkt so, also nehme man plötzlich die Decke von einer Höhle. Erstmals seit tausenden von Jahren können durch das einfallende Sonnenlicht an der Wasseroberfläche Mikroalgen wachsen, was das gesamte Nahrungsnetz verändert, so dass sich andere Arten ansiedeln.“

Seesterne ©Griffiths, Huw J.

Das Expeditionsteam wird Tiere, Mikroorganismen, Plankton, Meeressedimente und Wasserproben untersuchen. Dabei kommen verschiedenste Geräte zum Einsatz wie Unterwasser-Videokameras sowie ein Schlitten, der am Meeresboden kleine Tiere sammelt. Der Meeresboden wird zudem mithilfe von Sonarsystemen detailliert vermessen.

HINTERGRUND

Das Alfred-Wegener-Institut, Helmholtz-Zentrum für Polar- und Meeresforschung (AWI), forscht in der Arktis, Antarktis und den Ozeanen der gemäßigten sowie hohen Breiten. Es koordiniert die Polarforschung in Deutschland und stellt wichtige Infrastruktur wie den Forschungseisbrecher Polarstern und Stationen in der Arktis und Antarktis für die internationale Wissenschaft zur Verfügung. Das Alfred-Wegener-Institut ist eines der 19 Forschungszentren der Helmholtz-Gemeinschaft. Sie ist die größte Wissenschaftsorganisation Deutschlands.

Bild oben: Das deutsche Forschungsschiff Polarstern während einer Eisstation im Weddellmeer©Mario Hoppmann

DAS KÖNNTE SIE AUCH INTERESSIEREN:

NEUE FORSCHUNGSPROJEKTE: AUSWIRKUNG VON KLIMAWANDEL AUF DEN AUFTRIEB VON TIEFENWASSER

Dieser Artikel erschien am 7.2.2019 in der Innovation Origins.