Archiv der Kategorie: Science&Future

3D-TOMOGRAPHIEN ZEIGEN DIE ALTERUNG VON LITHIUM-AKKUS

Angefangen von mobilen Geräten wie Tablets und Digitalkameras bis hin zur E-Mobilität wie Pedelecs und E-Autos: Lithium-Akkus sind aus unserem Alltag nicht mehr wegzudenken. Gleichzeitig wissen wir: Die kleinen Speicherwunder sind empfindlich und verlieren mit der Zeit an Kapazität. Denn bei jeder neuen Aufladung bilden sich manchmal Mikrostrukturen an den Elektroden, die die Kapazität weiter reduzieren. Die Akkus altern also. Und das lässt sich, trotz steter Optimierung, bis heute nicht verhindern.

DEN LITHIUM-IONEN BEIM WANDERN ZUSCHAUEN

Wissenschaftler des Helmholtz Zentrums Berlin HZB schauten sich nun ‒ gemeinsam mit Batterieforschern aus dem Forschungszentrum Jülich, der Universität Münster und Partnern aus Forschungseinrichtungen in China ‒, den Alterungsprozess der Akkus unter einem 3D-Tomographen an. Das Augenmerk des internationalen Forschungs-Teams lag dabei darauf, mit mikroskopischer Genauigkeit zu beobachten, was im Inneren des Akkus an den Grenzflächen zwischen den Elektroden, dort, wo die Lithium-Ionen wandern, genau geschieht.

Before: 3D-Tomography Lithium Electrode ©M. Osenberg / I. Manke / HZB

Für ihre Arbeiten nutzten die Wissenschaftler unter anderem das 3D-Tomographieverfahren mit Synchrotronstrahlung an BESSY II (HZB) – es erzeugt besonders brillantes Röntgenlicht. Mit dieser einzigartigen Methode lassen sich zerstörungsfreie 3D-Abbildungen aus dem Inneren von Proben erstellen.

BEOBACHTUNG VON AUFLADUNG UND ENTLADUNG

Dr. Ingo Manke, Forschungsleiter und Experte für 3D-Tomographie mit Synchrotronstrahlung, untersuchte mit seinem Team eine Reihe von unterschiedlichen Lithium-Zellen. Diese beobachteten sie einerseits während der Aufladung. Aber auch während der Entladung, sozusagen „operando“ – also während des Betriebs. Zusätzlich betrachteten sie verschiedene Zyklusbedingungen. Bei allen untersuchten Zellen bestand eine Elektrodenseite aus reinem Lithium, während die andere Seite – je nach Wahl – aus unterschiedlichen Elektroden-Materialien bestand.

Shortly after Loading / Unloading: 3D-Tomography Lithium Electrode ©M. Osenberg / I. Manke / HZB

Die Tomographien zeigen, wie bereits nach wenigen Lade-Entlade-Zyklen eine Schicht aus Mikrostrukturen zwischen der Separatorschicht und der Lithium-Elektrode entsteht. Diese Mikrostrukturen bestehen aus Reaktionsverbindungen, die sich im Elektrolyten bilden. Sie können unterschiedliche Gestalt annehmen: Von einem eher ungeordneten Schlamm über moosartige Strukturen bis hin zu nadelförmigen Dendriten, die sogar gefährliche Kurzschlüsse im Akku verursachen können.

ERSTMALIGES BILD VON DEGRADATIONSMECHANISMUS

Damit haben wir erstmals ein vollständiges Bild des Degradationsmechanismus in Lithium-Elektroden“, erklärt Dr. Ingo Manke.

Dies ist nicht nur für das grundlegende Verständnis von Alterungsprozessen in Batterien interessant, sondern liefert insbesondere auch wertvolle Hinweise für das Design von langlebigeren Batterien.

Dieser Artikel könnte Sie auch interessieren:

Design-Prinzipien sollen Smartphone-Akkus sicherer machen

Deutscher Studienpreis für Einblicke in Lithium-Ionen Zellen

Zerstörungsfreie Rückgewinnung von Kathodenmaterial von Lithium-Ionen-Batterien

BLICKFELD: DEUTSCHES START-UP ENTWICKELT SERIENTAUGLICHE SCHLÜSSELTECHNOLOGIE FÜR AUTONOMES FAHREN

„Autonomes Fahren – wie funktioniert das eigentlich und welche Technik steckt dahinter?“, mag sich manch einer schon gefragt haben. Klar ist: Grundsätzlich muss das selbstfahrende Auto erst einmal seine Umgebung erkennen können, um dann entsprechend zu agieren. Mittlerweile gibt es in Bezug auf „künstliche Augen“ verschiedene Sensorik-Ansätze, die ein Erkennen ermöglichen. So ist bis dato beispielsweise der Einsatz von Radar-System und Kameras weit verbreitet.

Doch während Radar nicht die entsprechend hohe Auflösung bietet, um Objektcharakteristika tatsächlich erkennen zu können, liefern Kameras nur 2D-Bilder. Um hier aussagekräftige 3D-Informationen zu generieren, sind komplexe Algorithmen, die die Bilder interpretieren, notwendig. Beide Lösungsansätze sind also offensichtlich nicht wirklich geeignet, um ein sicheres autonomes Fahren zu gewährleisten.

LIDAR-TECHNOLOGIE

Derzeit wird noch eine weitere Technologie namens LiDAR eingesetzt. Die Buchstaben stehen für Light Detection and Ranging. LiDAR ist eine dem Radar verwandte Lösung. Doch anstelle von Radiowellen werden Laserpulse ausgesendet, die, für das menschliche Auge unsichtbar, auf Objekte treffen und reflektiert werden. Der Sensor misst die Laufzeit zwischen Aussenden und Rückkehr des Laserpulses und errechnet daraus die Entfernung zwischen Sensor und Objekt. Dies macht ein LiDAR bis zu einer Million mal pro Sekunde. In Echtzeit fasst er seine Ergebnisse über die Umwelt in einer 3D-Karte zusammen. Diese sogenannten Punktwolken sind so detailliert, dass sie nicht nur dazu verwendet werden können, Größendimensionen und die Form von Objekten zu erkennen, sondern auch, um diese zu identifizieren. Zudem erfassen LiDARs Abstände und Geschwindigkeiten. Das Fahrzeug erhält somit hochpräzise 3D-Umgebungsdaten, auf dessen Auswertung es letztendlich Fahrentscheidungen ableitet.

LiDAR gilt mittlerweile als der entscheidende Baustein für autonomes Fahren. Und Experten sind sich einig, dass erst diese Technik vollautonomes Fahren ab Level 3, das bedeutet hochautomatisiertes Fahren, möglich macht.

LIDAR IM EINSATZ

Wer in letzter Zeit in Kalifornien oder Shenzhen unterwegs war, hat sie vielleicht sogar schon einmal gesehen: Die selbstfahrenden Autos, bei denen vor allem ein massiver Dachaufbau ins Auge sticht. Dabei könnte es sich eventuell um LIDAR-Sensoren zur Umfelderfassung handeln. Die Sensoren bestehen aus drei Hauptkomponenten: Scanner, Detector und Strahlablenkung. Die bis jetzt noch verwendete Generation basiert zudem auf Getrieben und Motoren, um die Laserpulse mechanisch über die Umgebung zu lenken.

Man kann es sich vorstellen: Diese Mechanik ist sehr empfindlich. Somit ist sie für die typischen Belastungen während einer Autofahrt nicht ideal. Zudem sind mechanische LiDARs aufgrund der kostenintensiven Komponenten sowie einer recht komplexen und manuellen Bauweise extrem teuer. So kosten allein die günstigsten Modelle schon Tausende von Dollar. Und davon bräuchte man, um ein Auto vollautonom steuern zu lassen, eine ganze Menge. Das macht den Einsatz von aktuellen LiDAR-Sensoren in massentauglichen Serien so gut wie unmöglich.

SOLID-STATE-LIDAR-SENSOREN

Das deutsche Start-up Blickfeld GmbH revolutioniert nun die LiDAR-Welt. Denn es hat eine neue Sensor-Technologie entwickelt. Diese kommt ohne mechanisch bewegliche Bauteile aus. Die Innovation der Münchener beruht nämlich auf einem in Halbleiter Technologie gefertigten Scanner. Dieser kommt komplett in Silizium auf Waferlevel daher. Der Vorteil: Auf einer Siliziumplatte können gleich mehrere Sensoren parallel gefertigt werden. Die Steuerung des Laserstrahls erfolgt durch eine patentierte Laserablenkeinheit. Diese kommt mittels sogenannter Micro-Electro-Mechanical-Systems (MEMS) ohne bewegliche Bauteile aus. Von daher ist die Technologie deutlich robuster und damit langlebiger.

Cube Tripod ©Blickfeld

Auch braucht die Lösung von Blickfeld nur noch einen statt 64 Laser. Dies schlägt sich sowohl in der Größe, dem Gewicht sowie auch in der Produzierbarkeit nieder.

BLICKFELD-CUBE

Das erste Produkt der Münchener ist ein handlicher Würfel. Mit seinem Sichtfeld von 100° x 30°, einer hohen Punktdichte sowie einer Erkennungsreichweite von mehr als 150 m entspricht er zudem höchsten Performancebedingungen. Ein weiterer Vorteil sind seine geringen Abmessungen von 80 x 60 x 50 mm. Verteilt auf die Ecken eines Fahrzeugs können die Cubes zusammen mit einer LiDAR-Blind-Spot-Detection, einen Radius von 80 Metern vollständig überwachen.

Die Solid-State-Technologie sorgt darüber hinaus für Robustheit gegenüber Witterungsbedingungen und mechanischen Einflüssen. Der kleine LiDAR-Würfel kann zudem präzise und so hoch skalierbar wie ein Computerchip hergestellt werden. Gleichzeit lässt sich sein Preis, in Kombination mit günstigen Standardbauteilen für leistungsfähige LiDAR-Sensoren, auf nur wenige hundert Euro reduzieren. Somit wird der Weg zu sicheren und erschwinglichen autonomen Fahrzeugen mit LiDAR-Hightech-Geräten geebnet.

Die Sensorik-Spezialisten aus München sehen auch noch weitere Anwendungsfelder, wie zum Beispiel: Internet of Things, Smart City-Lösungen, Logistik, Landwirtschaft und diverse Security-Thematiken. Der Verkaufsstart des Cubes ist übrigens noch für 2019 geplant.

Neben der Hardware arbeitet Blickfeld auch an einem Software-Stack, um die gewonnenen 3D-Informationen zum Zweck der abstrakten Umgebungswahrnehmung bündeln und auswerten zu können. Mögliche Automotive Anwendungsszenarien reichen von Platooning (dichtes Hintereinanderfahren von Autos) über Highway Pilot (teilautonomes Fahren) bis hin zu Level 4/5-autonomen Fahrzeugen.

EUROPEAN STARTUP PRIZE

Founder Blickfeld ©Blickfeld

Die Münchener wurden im April als eines von zehn Unternehmen mit dem European Startup Prize for mobility ausgezeichnet. Dazu Dr. Florian Petit (Business Development), der zusammen mit Dr. Matthias Müller (CEO und R&D), Rolf Wojtech (Software), und Dr. Sebastian Neusser (Patentanwalt) im Jahre 2017 das Unternehmen gründete:

Wir sind stolz darauf, zu den 10 Gewinnern des Europäischen Startup-Preises für Mobilität zu gehören. Es ist wirklich toll zu sehen, dass so viele Start-ups in ganz Europa an der Mobilität von morgen arbeiten. Der Preis bietet eine gute Plattform, um alle diese Unternehmen zusammenzubringen und das Bewusstsein für die innovativen Ideen zu schärfen. Auch unter den anderen Bewerbern haben wir sehr interessante Ideen gesehen!“

Die Gründer von Blickfeld verfügen übrigens über langjährige Erfahrungen im Bereich Robotik, optische Sensortechnologie und Software. Mittlerweile besteht das Team aus mehr als 80 hochqualifizierten Mitarbeitern, die neben Automotive- und IoT-Branchenkenntnissen über profunde technische Expertise in den Bereichen Elektronik, Optik, MEMS und Software verfügen.

Dieser Artikel könnte Sie auch interessieren:

Autonomes Fahren: Tests im Labor statt auf der Straße 

AUTONOMES FAHREN: WENN DAS AUTO ZUM WOHNZIMMER WIRD

Es gibt viele Visionen über die Zukunft des autonomen Fahrens. Eine Frage, die sich diesbezüglich stellt ist: Was macht eigentlich der Fahrzeuginsasse, wenn sein Auto sozusagen zum intelligenten Fahrzeugführer wird? Schließlich bleibt dem Menschen selbst in punkto Autofahren dann nicht mehr viel zu tun. Forschende des Fraunhofer-Instituts für Arbeitswirtschaft und Organisation IAO  gründeten nun zusammen mit Unternehmens- und Strategieberatern von McKinsey & Company sowie weiteren Projektpartnern aus verschiedenen Branchen ein Innovationsnetzwerk, um Lösungen für die Mobilität von morgen zu entwickeln – und zwar von der Idee bis zum Bau eines Prototypen. Ziel des sogenannten Mobility, Experience and Technology Labs (MXT) ist es, möglichst schnell zu erkennen, welche Technologien, Services und Geschäftsmodelle zukunftsfähig sind und welche Visionen am Markt keine Chance haben.

MXT-LAB ANALYSIERT TRENDS

Wenn der Fahrer zum Passagier wird, muss er seine Aufmerksamkeit nicht mehr auf den Verkehr richten. Er erhält somit also reichlich Zeit, um sich anderen Tätigkeiten zu widmen. Passionierte Zugfahrer und Beifahrer wissen diesen Luxus schon zu genießen: Man kann schlafen, lesen und die umgebende Landschaft genießen. Doch es geht noch mehr: Denn wenn das Fahrzeug selber steuert, beschleunigt oder bremst, kann die Windschutzscheibe neue Funktionen erhalten. So könnte ein integriertes Display die Außenwelt mit Zusatzinfos neu erlebbar machen. Oder man könnte sie abdunkeln, um Filme zu schauen. Je nach Bedarf ist es durch das autonome Fahren also möglich, das Fahrzeug in einen neuen Lebensraum, zum Beispiel ein mobiles Wohnzimmer oder Büro umzugestalten.

Für Sebastian Stegmüller, Wissenschaftler am Fraunhofer IAO, haben solche Szenarien durchaus das Potenzial, in einigen Jahren Realität zu werden. „Wir selektieren in der frühen Innovationsphase, noch bevor die Produktentwicklung beginnt, spannende Ansätze, die es wert sind, weiter verfolgt zu werden“, erklärt Stegmüller.

Dr. Tobias Schneiderbauer, Projektmanager bei McKinsey & Company skizziert zudem mögliche Einsatzbereiche wie sprachunterstützte Dienste unter Nutzung von Künstlicher Intelligenz:

Fährt man beispielsweise an der Oper vorbei, erscheint auf dem Display der Ticketdienst. Die Karten zur Aida-Vorstellung könnte man dann im Vorbeifahren kaufen.“

Die Kooperationspartner des MXT-Labs analysieren Trends, um Unternehmen Entscheidungshilfen in Bezug auf Innovationsprojekte zu geben. Damit reagieren sie auf die schier unüberschaubaren Möglichkeiten von Innovationschancen, die die großen Trends der Automobilindustrie mit sich bringen: Automatisierung, Vernetzung und Elektrifizierung der Fahrzeuge sowie neue Mobilitätsservices. „Durch die digitale Transformation müssen sich die Unternehmen neu orientieren und aufstellen, sie bietet aber auch die Chance für neue Mobility-Services und Fahrerlebnisse“, fasst Wirtschaftingenieur Stegmüller zusammen.

PROTOTYPEN MACHEN AUTONOMES FAHREN ERLEBBAR

© Fraunhofer IAO

Das Mobility Innovation Lab steht am Fraunhofer IAO in Stuttgart. Hier kann man schon jetzt erleben, wie das Fahren von morgen aussieht.

In der hochmodernen Forschungsumgebung für Prototyping und Kreativworkshops gibt es beispielsweise ein futuristisches Fahrzeugcockpit mit modularem Armaturenbrett, schaltbaren Scheiben, Sitzen mit Relax-Position, ausklappbaren Tischen und ausfahrbarem Monitor. Hier werden das Innenraum-Erlebnis der Zukunft sowie die Interaktion mit künftiger Bordelektronik und speziellen Services wie Sprachlern-, Pizza-Lieferdiensten oder personalisierten Entertainment-Diensten demonstriert. Auch ist hier ein umgebautes Fahrzeug zu sehen, das mit Fußgängern interagiert. Im Lab wird zudem an den Möglichkeiten der nachhaltigen, urbanen Mobilität gerforscht. Derzeit wird ein elektrischer Dreirad-Roller unter die Lupe genommen.

Mit ihrer Forschung möchten die Partner des Innovationsnetzwerks eine valide Basis für lukrative Geschäftsmodelle und Technologien schaffen. Dabei adressieren sie nicht nur Automobilhersteller und -zulieferer, sondern auch Firmen aus der Entertainment- und IT-Branche. Zudem holen sie Unternehmen, Kommunen und weitere Akteure ins Boot. So dass das Innovationsnetzwerk mit spezifischem Know-how unterstützt und bereichert wird. Zudem ist das Netzwerkprojekt weiterhin offen für interessierte Firmen, die sich dem MXT Lab anschließen möchten.

QUALITATIVE UND QUANTITATIVE STUDIEN

Ein wesentliches Augenmerk des MXT Labs liegt in der Durchführung von Nutzer-Studien. Denn diese stellen die Ausgangsbasis für die Untersuchung möglicher Innovationschancen bereit. In einer ersten, exemplarischen Studie haben sich die Partner beispielsweise mit der Frage beschäftigt, inwiefern sich die frei werdende Zeit beim automatisierten Fahren zum Lernen von Fremdsprachen eignet. Dazu wurde neben einer quantitativen Online-Befragung in Deutschland, China und den USA auch ein Experiment im Mobility Innovation Lab aufgebaut. So konnten qualitative Nutzeraussagen erhoben werden. Neben dem grundsätzlichen Interesse an entsprechenden Service-Angeboten untersuchten die Wissenschaftler auch die Attraktivität verschiedener technischer Umsetzungsmöglichkeiten sowie fahrtbezogener Applikationen. Diese Informationen geben Impulse zur Gestaltung des automatisierten Fahrerlebnisses und der dazugehörigen Fahrzeuge.

Was auch immer zukünftig entwickelt wird: Der Spaß beim Autofahren erhält durch das autonome Fahren mit Sicherheit ganz neue Dimensionen.

Dieses Thema könnte Sie auch interessieren:

E-Monday: Der Netzwerk-Club für die Mobilität 4.0 tagt wieder

Robo-Taxis als neue Mobilitätsform in den Städten

Shuttle statt Bus oder Taxi

Modulare Konzepte: Autonomes fahren soll flexibel werden

Autonomes Fahren: Mit Pathfinder auf dem richtigen Weg

Autonomes Fahren: Tests im Labor statt auf der Straße

VERKEHRSUNFÄLLE: UNTERSUCHUNG VON MUSKELSTEIFIGKEIT AN VIRTUELLEN CRASHTEST-DUMMYS

Wer schon einmal einen Verkehrsunfall auf sich zukommen gesehen und schließlich erlebt hat, wird es kennen: Auch wenn man – hoffentlich – unverletzt blieb, ist man am nächsten Tag mit Muskelkater geplagt. Der Grund: Wir bereiten uns instinktiv auf den Unfall vor, um uns zu schützen. Der Mensch spannt nämlich kurz vor dem Aufprall die Muskeln an, stützt sich zum Beispiel am Lenkrad ab oder tritt vielleicht sogar das Bremspedal durch. Und letztendlich beeinflusst genau dieses Verhalten den Ausgang des Unfalls und die Art und Schwere der Verletzungen. Forschende des Fraunhofer-Instituts für Kurzzeitdynamik, Ernst-Mach-Institut, EMI untersuchten nun erstmals die Insassensicherheit auf Basis der Muskelsteifigkeit anhand von virtuellen Crashtest-Dummys.

BERECHNUNG DER BEWEGUNG KURZ VOR UNFALL

Die Muskulatur hat einen großen Einfluss darauf, wie ein Fahrzeuginsasse kurz vor einem Unfall reagiert und wie sich der Körper während des Crashs verhält. Hier kann es zu gravierenden Abweichungen gegenüber steifen und kinematisch eingeschränkten Crashtest-Dummys kommen“, erklärt Dr. Matthias Boljen, Wissenschaftler am EMI.

Da also die herkömmlichen Dummys kein Reaktionsvermögen besitzen, lässt sich mit diesen das menschliche Verhalten kurz vor dem Unfall nicht abbilden. Deshalb verwendeten die Wissenschaftler des EMI ein THUMS(TM) v5.01-Modell (Total Human Modell for Safety). Dieses digitale Computermodell kann – anhand eines speziellen Berechnungsmodells zur Festigkeit und Verformung, der sogenannten FE-Simulation (Finite-Elemente-Simulation) -, die Bewegung der Insassen kurz vor einem Unfall nachvollziehen.

FORSCHUNGSNEULAND

Die Wissenschaftler des EMI betraten mit ihrem Forschungsansatz zur Untersuchung der Insassensicherheit auf Basis der Muskelsteifigkeit Neuland. Denn die mit der Kontraktion einhergehende Muskelsteifigkeit und ihre Folgen ist bis dato noch nicht betrachtet worden. „Stützt sich ein Fahrer vor dem Aufprall auf dem Lenkrad ab, so verkürzt sich dabei nicht nur der Muskel, sondern der Muskel wird durch die Kontraktion steifer. In bisherigen FE-Simulationen zu einzelnen Muskeln und Muskelgruppen gesamter Menschmodelle wurde die Kontraktion völlig unberücksichtigt gelassen“, erläutert Boljen.

@Fraunhofer EMI

So ist im Aufmacherbild dieses Artikels ein Offset-Crash im angespannten Muskelszustand von THUMS zu sehen. Dabei werden mögliche Herausforderungen für die passive Sicherheit in einem vom Frontalcrash abweichenden Unfallszenario deutlich: Der Längsgurt rutscht ab.

Auch das obige Bild simuliert einen Frontalcrash im angespannten Muskelzustand des Menschmodells THUMS. Über die aktive Muskelkontraktion hält sich THUMS am Lenkrad fest und stützt sich beim Aufprall ab. Das entlastet den Brustkorb potenziell. Die farbigen Oktaeder machen die verschiedenen Anschnallpunkte des modellierten Sicherheitsgurtes sichtbar.

WEITERENTWICKLUNG DER MENSCHMODELLE

Gemeinsam mit seinem Kollegen Niclas Trube definierte Boljen an dem THUMS-Modell vier verschiedene Steifigkeitszustände. Die beiden überprüften den Einfluss dieser Änderungen für einen simulierten, frontalen Crash. Das Ergebnis: Die Muskelsteifigkeit beeinflusst das Verhalten der Fahrzeuginsassen entscheidend. Je nach Steifigkeitsgrad sind unterschiedliche Verletzungen bei einem Unfall zu erwarten.

Diese Erkenntnis könnte von großer Bedeutung für die Weiterentwicklung der Menschmodelle sein, insbesondere unter dem Aspekt des autonomen Fahrens. Fahrzeuginnenräume werden künftig neu gestaltet, daher müssen auch bestehende Konzepte zu Gurten und Airbags überdacht werden. Menschmodelle sind hier ein wertvolles Hilfsmittel“, ist Trube überzeugt.

ANFORDERUNGEN AN DIE VERKEHRSSICHERHEIT

Denn die Menschmodelle lassen sich auch für den Schutz von Fußgängern und Radfahrern nutzen. Dass hier Handlungsbedarf besteht, zeigen aktuelle Studien. Laut ADAC ist die Zahl getöteter PKW-Insassen und Fußgänger zwar leicht gesunken, jedoch die Anzahl getöteter Radfahrer ist gestiegen. Dies mag an einer Häufung überraschend auftretender Gefahrensituationen durch E-Bikes liegen. Zudem werden E-Scooter, Tretroller mit Elektromotor, noch dieses Jahr auf öffentlichen Straßen erlaubt sein. Verkehrsexperten befürchten einen weiteren Anstieg von Unfällen. Mit Menschmodellen können Unfallszenarien im Vorfeld untersucht werden. Je nach Kollisionsverhalten lassen sich Häufigkeit und Intensität der auftretenden Belastungen testen. Hersteller von Protektoren, Helmen und anderen Schutzartikeln könnten von den Empfehlungen profitieren.

VIRTUELLE MENSCHMODELLE AUCH FÜR MEDIZIN INTERESSANT

Wie der menschliche Körper auf mechanische Belastungen reagiert, ist aber nicht nur für den Verkehrssektor relevant, sondern auch für medizinische und ergonomische Fragestellungen. So ist es sicher relevatn, zu wissen wie sich Materialien aus Implantaten und Prothesen in Relation zu menschlichen Knochen verhalten, wenn sie beispielsweise durch einen Unfall schlagartig beansprucht werden? Oder auch wie sich  die Vibrationen von Werkzeugen auf den Anwender auswirken. „Hier bieten sich Menschmodelle an, da wir mit ihnen realistische virtuelle Abbilder schaffen können, die sich experimentell so nicht realisieren lassen“, so Boljen.

ZWEI NEUE FORSCHUNGSPROJEKTE RUND UM KONTAKTLINSEN: MEDIKATION PER LINSE UND LASERBASIERTE INDIVIDUALISIERUNG

Seit der Erfindung der Kontaktlinse hat sich mittlerweile einiges getan. Und die Entwicklung geht immer weiter: So forschen derzeit Wissenschaftler des Fraunhofer-Instituts für Angewandte Polymerforschung IAP gemeinsam mit israelischen und deutschen Partnern an Linsen, die einerseits gezielt Medikamente freisetzen und gleichzeitig lange Kontaktzeiten im Auge ermöglichen. Und in dem Projekt „LasInPOP“ der TU Dresden möchte der spanische Forscher Dr. Daniel Sola Kontaktlinsen individualisieren.

KONTAKTLINSEN ALS TRÄGERSYSTEM

Bei der örtlichen Behandlung von Augenkrankheiten entfalten oft nur circa fünf Prozent eines Medikaments ihre Wirkung am Augengewebe. So entstand die Idee des deutsch-israelischen Forscherteams, Kontaktlinsen als Trägersystem für Wirkstoffe zu nutzen. Doch nicht nur das: Auch möchte das Team die Kontaktzeiten des Medikaments mit dem Gewebe im Auge verlängern. Dieses System, bei dem der Wirkstoff in Liposomen verkapselt und an die Innenseite der Kontaktlinsen gebunden wird, könnte Schmerzen lindern, die Wundheilung verbessern und die Hornhaut schützen. Zudem soll die Kontaktlinse mit Hilfe von Zuckern besonders verträglich gemacht werden.

Doch die Anforderungen sind hoch. So muss der Wirkstoff über eine möglichst lange Zeit freigegeben werden, die Kontaktlinse muss optimale Schmiereigenschaften haben und alle Bestandteile müssen biologisch unbedenklich sein. Bis heute gibt es noch kein derartiges Applikationssystem, das dies alles erfüllt.

LIPOSOMEN GEBEN WIRKSTOFFE ÜBER DIE ZEIT AB

Zwar hat die israelische Partnerfirma EyeYon Medical bereits medizinische Kontaktlinsen zur Verabreichung von Medikamenten entwickelt. Diese ermöglichen sogar eine längere Verweilzeit von Wirkstoffen. Doch besteht noch Optimierungsbedarf. Dazu Nahum Ferera, CEO von EyeYon Medical:

Die Zeitspanne, über die das Medikament bei diesen Kontaktlinsen freigegeben wird, beträgt bisher circa 20 Minuten. Bei der Anwendung von Augentropfen erreichen generell nur 4 Prozent des Wirkstoffs ihr Ziel. Diese Zeit und die Bioverfügbarkeit möchten wir verlängern… .

…Hinzu kommt, dass laut einiger Studien bis zu 30 Prozent aller Kontaktlinsenträger darüber klagen, dass das Tragen von Kontaktlinsen generell unbequem ist. Mit Hilfe des Fraunhofer IAP und den anderen Partnern möchten wir beide Parameter verbessern ‒ die Zeit der Freisetzung des Medikaments und die Verträglichkeit.“

Ziel des deutsch-israelischen Forscherteams ist es, die Innenseite der Kontaktlinse mit Liposomen, zu beschichten, die einen Arzneistoff in sich tragen und diesen über die Zeit freigeben können. Hergestellt werden die Liposomen am Weizmann Institute of Science in der Arbeitsgruppe von Prof. Jacob Klein und Dr. Ronit Goldberg.

ZUCKER FÜR BESSERE WIRKSAMKEIT UND VERTRÄGLICHKEIT

Doch es geht noch mehr: „Zucker spielen in diesem Projekt eine entscheidende Rolle“, erklärt Dr. Ruben R. Rosencrantz, der das Projekt am Fraunhofer IAP leitet.

In unserem Körper sind Zucker an den verschiedensten Stellen für Gleitfähigkeit verantwortlich. In der Schleimschicht des Auges ermöglichen sie beispielsweise das reibungslose Gleiten des Augenlides. Um genau diesen Effekt auch mit der Kontaktlinse zu erreichen, haben wir am Fraunhofer IAP stark zuckerhaltige Polymere entwickelt, sogenannte Glykopolymere… .

Sie werden einerseits auf der Oberfläche der gesamten Kontaktlinse gekoppelt, andererseits können sie Bestandteile der Liposomen sein, die den Arzneistoff in sich tragen“, so Rosencrantz. Die Beschichtung der Kontaktlinse mit Glykopolymeren wird von der deutschen Firma Surflay Nanotec entwickelt.

AUF DEM WEG ZUM MARKTFÄHIGEN MEDIZINPRODUKT

Um ein genehmigtes Medizinprodukt zu erhalten, arbeiten die fünf Partner und die zwei Unterauftragnehmer DendroPharm GmbH und Nextar Chempharma Solutions in dem dreijährigen Projekt, das bis Juli 2021 läuft, eng zusammen. Dabei müssen die Forscherinnen und Forscher auch die Biokompatibilität aller verwendeten Komponenten sicherstellen. Die Untersuchungen zur biologischen Verträglichkeit werden in der Universitätsmedizin Rostock durchgeführt. Zudem prüfen die beiden Unterauftragnehmer, ob alle Systemkomponenten entsprechend der GMP-Richtlinien (englisch: Good Manufacturing Practice, GMP) hergestellt wurden, einer Art Qualitätssiegel, das unter anderem für die Pharma- und Medizinbranche gilt.

„Wenn Funktion und Biokompatibilität der Kontaktlinse sichergestellt sind, muss aber auch gewährleistet sein, dass das Glykopolymer in großen Mengen hergestellt werden kann“, erklärt Rosencrantz, der sowohl Chemie als auch Biologie studiert hat.

Die Massenherstellung von Glykopolymeren ist ein sehr wichtiger Aspekt des Projektes am Fraunhofer IAP, denn am Ende muss auch der Preis stimmen“, so Rosencrantz.

Gefördert wird das Projekt in Deutschland mit rund einer Million Euro durch das Bundesministerium für Bildung und Forschung (BMBF).

LASINPOP: FÜR JEDE FEHLSICHTIGKEIT DIE PASSENDE LASERSTRUKTUR

Dr. Daniel Soda ©Daniel Soda

Dr. Daniel Sola forscht gemeinsam mit Prof. Andrés Lasagni an der Professur für Laserbasierte Methoden der großflächigen Oberflächenstrukturierung der TU Dresden. In seinem Projekt „LasInPOP“ möchte Sola opthalmische Polymere ‒ diese Materialien werden zur Herstellung von Kontaktlinsen verwendet ‒, mit kurzen Laserpulsen strukturieren. Seinen Herausforderung ist, für jede individuelle Fehlsichtigkeit die passende Laserstruktur zu finden. Dabei sollen die nur 0,5 Millimeter dicken Kontaktlinsen mit einem Laserinterferenzverfahren so bearbeitet werden, dass jedes Auge durch die Sehhilfe seine volle Sehschärfe erreicht.

ULTRAKURZE LASERIMPULSE

In seinen Forschungen konzentrierte sich der promovierte Physiker zunächst auf die Laserbearbeitung von Hochleistungskeramiken und glaskeramischen Materialien. Aus den Ergebnissen seiner Doktorarbeit aus dem Jahr 2010 an der Universidad de Zaragoza gingen 17 Patente hervor. Ein dreijähriges Postdoc-Stipendium ermöglichte es ihm schließlich, sich mit der Herstellung und Charakterisierung von bioaktiven Gläsern und Glaskeramiken sowie der Laserbearbeitung mit ultrakurzen Laserpulsen zu beschäftigen. Damals entwickelte Daniel Sola sein übergeordnetes Forschungsziel, das er mit seiner bisherigen Arbeit am Laboratorio de Óptica an der Universidad de Murcia vorbereitet hat. Mit dem Start an der TU Dresden ist auch der Startschuss für die Erforschung der Korrektur von Fehlsichtigkeit mit ultrakurzen Laserpulsen gefallen.

VERFAHREN SOLL ZUKÜNFTIG DIREKT AM AUGE VERWENDET WERDEN

Bisher korrigieren Brillen, Kontaktlinsen oder eine OP die häufigsten Fehlsichtigkeiten des menschlichen Auges: Kurz- oder Weitsichtigkeit und Hornhautverkrümmung. Dabei geht es immer darum, dass Licht fehlerhaft gebrochen wird. Wenn es nach Daniel Sola geht, soll in ein paar Jahren ein neues Laserverfahren die bisherigen Hilfsmittel ersetzen. Dann werden die Brechungsfehler des Auges durch eine zerstörungsfreie Behandlung mit ultrakurzen Laserpulsen korrigiert. Sein langfristiges Forschungsziel ist, die Risiken und Nebenwirkungen aktueller Augenoperationen gänzlich zu vermeiden und gleichzeitig auf konventionelle Sehhilfen zu verzichten. Bisher wird Fehlsichtigkeit operativ zwar auch mit Laser behandelt, allerdings ist der Eingriff destruktiv – d.h. Gewebe wird unwiederbringlich abgetragen. Sola hingegen möchte die Hornhaut in Zukunft mit einem laserinterferenzbasierten Verfahren so strukturieren, dass die Brechungsfehler korrigiert werden ‒ ganz ohne das hohe Risiko einem eigentlich gesunden Organ zu schaden.

Bevor das Verfahren aber für das menschliche Auge verwendet werden kann, muss es zunächst für Kontaktlinsen erforscht werden.

Das Ziel meines LasInPOP-Projektes ist zu untersuchen, wie gepulste Laserstrahlung verwendet werden kann, um die optischen Eigenschaften von Kontaktlinsen zu verändern.“

Dresden bietet ihm dafür genau die richtige Forschungsinfrastruktur: „Was ich in Dresden wirklich als herausragend empfinde, ist die große Anzahl von Forschungseinrichtungen, darunter Fraunhofer-, Max-Planck- und Leibniz-Institute und natürlich die TU Dresden. Außerdem ist Dresden mit seinem kulturellen und historischen Hintergrund eine fantastische und wunderschöne Stadt.“

MARIE SKLODOWSKA-CURIE-STIPENDIUM

Dr. Daniel Sola gehört übrigens zu den 93 Wissenschaftlern in Deutschland, die für 2019 das begehrte Marie Sklodowska-Curie-Stipendium von der EU erhalten haben. Es ist Teil des EU-Programms für Forschung und Innovation „Horizon 2020“. Gefördert werden Wissenschaftler, die einen Doktortitel besitzen oder mindestens vier Jahre Vollzeit-Forschungserfahrungen vorweisen können. Das Forschungsthema ist frei wählbar. Insgesamt hatten sich 8.124 Wissenschaftler aus aller Welt um das Stipendium beworben. Die Europäische Kommission fördert davon jetzt 1.211 Stipendiaten.

KI-BASIERTES KAMERA-SYSTEM MIT 180°-BLICKWINKEL ZUR RUNDUMÜBERWACHUNG

Zugegeben: Der Gedanke ist gewöhnungsbedürftig – eine Kamera, die zum Beispiel daheim eine Rundumüberwachung anbietet. Während aktuelle Smart-Home-Komponenten auf eine kontinuierliche Internetverbindung angewiesen sind, setzt das Kamera-System des Chemnitzer Start-ups 3dvisionlabs GmbH ‒ bei dem ein einziger Sensor einen kompletten Raum vollständig in 3D erfasst ‒, auf eine unabhängige Lösung. Die Chemnitzer integrierten die leistungsfähige Auswertungshardware direkt in das Gerät. Denn die Gründer Lars Meinel, Michel Findeisen und Markus Heß sind sich des notwendigen Schutzes der Privatsphäre bewusst. „… unser Development Kit zeigt: HemiStereo ist Privacy-by-Design. Durch die Integration der 3D-Messung und der Auswertung der sensiblen Bilddaten im Gerät selbst wird die Privatsphäre der Nutzer erheblich besser gewahrt, als wenn ein Cloud-Dienst zum Einsatz kommt“, erklärt Meinel das neuartige System. Die Echtzeit-Auswertung vor Ort geschieht in einem kompakten Edge-Computing-Device durch Algorithmen mit Künstlicher Intelligenz (KI). Somit gelangen zumindest die rohen Bilddaten nicht ins Netz. Das macht dieses Analysesystem zur Erfassung von Räumen sowie menschlichem Handeln so überzeugend.

Founders 3dvisionlabs ©3dvisionlabs

THEMA „SELBSTBESTIMMTES ALTERN“ ALS IDEENGEBER

Die drei Jungunternehmer waren zuvor an der TU Chemnitz als wissenschaftliche Mitarbeiter der Professur für Digital- und Schaltungstechnik (Fakultät für Informations- und Elektrotechnik) an mehreren industriellen und wissenschaftlichen Forschungsprojekten beteiligt. Die Idee zum 3D-Kamera-System entstand dabei in Zusammenhang mit der Entwicklung von unterstützenden Technologien für das gesunde und selbstbestimmte Altern. Hier erkannten die Wissenschaftler das Problem, dass viele der herkömmlichen Systeme technisch zu aufwändig und kostspielig waren, um praxistauglich zu sein. Für ein System, das beispielsweiseeine gestürzte Personen in einer Wohnung erkennt, müssten in jedem Raum mehrere Kameras installiert werden. Zudem wäre eine komplexe Infrastruktur zur internen Verbindung notwendig.

Latest Sensor HS-DK1 ©3dvisionlabs

Mithilfe der neuen 3D-Kamera-Technik der Chemnitzer soll diese Hürde nun überwunden werden. So ist durch den Einsatz von drei besonders weitwinkligen Kameras in einem Gerät pro Raum nur noch ein einziger Sensor zur Personenerkennung nötig. Im Inneren des Gerätes wertet eine Software die erfassten Daten, wie etwa Koordinaten und 3D-Bilder, aus. Dies bietet im Vergleich zur Auswertung von einfachen 2D-Bildinformationen erhebliche Vorteile bei der Genauigkeit der Erfassung. Zudem besitzt der Sensor eine Art selbstlernenden Algorithmus, der darauf trainiert ist, nach dem Identifizieren eines Menschen, diesen auch im Raum zu „verfolgen“. Anhand der Silhouette und der Positionen von Körperteilen analysiert der Algorithmus die menschliche Haltung. Das ermöglicht ihm in Echtzeit einen Sturz auszuwerten und entsprechend zu agieren. So sendet der Sensor im Notfall sofort per SMS oder Smartphone-App ein Alarmsignal an beispielsweise Verwandte bzw. Kümmerer des Betroffenen. Oder er nutzt als intelligente Komponente eines Hausautomatisierungssystems vorhandene Möglichkeiten der Alarmierung wie beispielsweise das Absetzen einer Information an den Hausnotrufdienst.

VERSCHIEDENE EINSATZBEREICHE DENKBAR

Die neuartige Kamera-Technologie erlaubt in Verbindung mit KI-Methoden zahlreiche neue Möglichkeiten der Digitalisierung. Neben der Anwendung im Bereich Smart-Home ist ihr Einsatz auch in der Gebäudeautomatisierung, zur Unterstützung von Sicherheitspersonal im Bereich Security sowie von Kaufhausdetektiven im Bereich Einzelhandel möglich. Derzeit ist jeweils ein Prototyp des Systems bei einer SB-Bank in Karlsruhe und bei einer Berliner Filiale einer großen Supermarkt-Kette im Einsatz. Bei letzterer wird übrigens gerade getestet, ob sogar die Produkte im Einkaufskorb zu erkennen sind. „Durch das Feedback unserer Partner sind wir in der Lage, unser Produkt vor der öffentlichen Einführung ausgiebig zu testen und zu verbessern“, erklärt Meinel.

Application ©3dvisionlabs

Technisch ist die Anwendung auf jeden Fall schon umsetzbar. Doch wartet das Unternehmen noch auf Zertifizierungen, um mit der Lösung am Markt starten zu können. Die Jungunternehmer hoffen darauf, ein an Entwickler gerichtetes Development Kit ab Sommer 2019 zur Marktreife zu bringen.

Zunächst sind vor allem Forschungsinstitute, Universitäten und Einzelhändler an dem neuen 3D-Kamera-System interessiert. Doch das Unternehmen zeigt weitere Anwendungsbereiche auf: So könnte die Kamera kassenloses Einkaufen im Supermarkt möglich machen. Dabei würde das System erfassen, welche Produkte aus dem Regal genommen werden. Abrechnen könnte der Einzelhandel dann automatisch über ein Online-Bezahlsystem. So könnten ganze Retailsysteme kostensparend abgedeckt werden.

DIE KOSTEN SOLLTEN SICH ZUKÜNFTIG AMORTISIEREN

Trotz des Einsatzes von drei Kameras wird bei dem Chemnitzer System nur ein einziger Sensor pro Raum benötigt. Dies macht einerseits die Entwicklung einer kostengünstigeren Lösung möglich. Jedoch bedeutet auf der anderen Seite die Cloudunabhängige Technologie wiederum auch einen höheren Preis bei der eingesetzten Hardware. Denn auf dem Gerät ist dadurch eine höhere Rechenleistung nötig.

Deshalb befindet sich also der Preis von 2000 Euro aktuell noch sozusagen in einer Patt-Situation, wobei gerade für den Homebereich zukünftige Nutzerkosten von wenigen hundert Euro für ein entsprechendes Notfallsystem anvisiert werden.

Das Start-up zählt übrigens zu einer von zahlreichen erfolgreichen Ausgründungen aus der TU Chemnitz. Dank der Unterstützung durch das Gründernetzwerk SAXEED sowie einer Förderung über das EXIST-Gründerstipendium war anfangs der Schritt in die Existenzgründung möglich. Nun erhielt das Start-up eine sechsstellige Fördersumme vom Technologiegründerfonds Sachsen (TGFS). Mit dem Kapital des TGFS will 3dvisionlabs zunächst Personal in Vertrieb und Entwicklung aufbauen, um in mehreren Pilotprojekten die wirtschaftlichen Vorteile der neuen Technik zu beweisen. Außerdem soll die erste kommerzielle Serienversion des Produktes in den Markt eingeführt werden.

KARLSRUHER START-UP MACHT LABELING IN DER KI EFFIZIENTER

Je besser selbständig fahrende Autos ihre Umgebung wahrnehmen, desto sicherer werden sie. Deshalb arbeiten derzeit alle Automobilhersteller daran, die KI mit einer großen Menge an Bildern und Videoaufnahmen zu trainieren. Damit der Algorithmus einzelne Bildelemente – etwa als Baum, Fußgänger oder Straßenschild –, erkennt, werden diese markiert. Bisher wurden die Objekte auf den Bildern von Menschen in Handarbeit gekennzeichnet. Dieses Verfahren heißt Labeling. „Große Firmen wie Tesla beschäftigen dafür tausende Arbeiter in Nigeria oder Indien, das Verfahren ist mühsam und zeitaufwendig“, beschreibt Informatiker Philip Kessler die aktuelle Vorgehensweise.

Kessler gründete im Jahre 2017 zusammen mit Marc Mengler das Start-up understand.ai. Ihr Ziel, Algorithmen möglichst effizient zu trainieren, haben sie nun erreicht:

Bei understand.ai verwenden wir Künstliche Intelligenz, die es ermöglicht, diese Kennzeichnung zehn Mal schneller und präziser auszuführen“, so Kessler.

Team understand.ai ©understand.ai

QUALITÄTSKONTROLLE DURCH DEN MENSCHEN

Obwohl der Prozess der Bildbearbeitung größtenteils hochautomatisiert sei, übernehme der Mensch am Schluss die Qualitätskontrolle. Die Kombination von Technik und menschlicher Sorgfalt sei insbesondere bei sicherheitskritischen Themen wie dem autonomen Fahren wichtig, betont der Experte. Die auch „Annotationen“ genannten Markierungen in den Bild- und Videodarstellungen müssen pixelgenau mit der realen Umgebung übereinstimmen. Je besser die Qualität der bearbeiteten Bilddaten, desto besser der Algorithmus, der damit trainiert.

WEITERE ANWENDUNGSFELDER DENKBAR

Da man nicht für alle Situationen – zum Beispiel Unfälle – Trainingsbilder bereitstellen kann, bieten wir neuerdings auch aus Realdaten erarbeitete Simulationen an“, so Kessler.

Obwohl sich das Start-up derzeit noch auf das Thema autonomes Fahren fokussiert, planen die Gründer künftig das Bearbeiten von Bilddaten auch auf andere Branchen auszuweiten. So sehen sie weitere Anwendungsgebiete in dem Training von Algorithmen zur Tumorerkennung oder der Auswertung von Luftbildern.

Im Moment gehören führende Automobilhersteller und -zulieferer in Deutschland sowie den USA zu den Kunden von understand.ai. Neben seinem Hauptsitz Karlsruhe ist das junge Unternehmen – es hat übrigens seine Wurzeln am Karlsruher Institut für Technologie (KIT) ‒,  in Berlin und San Francisco tätig. Derzeit sind mehr als 50 Mitarbeiterinnen und Mitarbeitern beschäftigt. Doch könnten noch mehr werden, denn es gibt noch einige offene Positionen. 2018 erhielten die Karlsruher von einer Runde privater Investoren eine Anschubfinanzierung in Höhe von 2,8 Millionen US-Dollar.

PIONIERGARAGE DES KIT

Der aus Braunschweig stammende Kessler begann 2012 das Informatikstudium am KIT. Hier entdeckte er sein Interesse am Thema Künstliche Intelligenz und Autonomes Fahren beim Entwickeln eines autonomen Modellfahrzeugs in der Hochschulgruppe KITCar. Als „extrem motivierend“ für die eigene Unternehmensgründung beschreibt er die Angebote der Hochschulgruppe Pioniergarage des KIT. Die Einrichtung richtet sich speziell an studentische Entrepreneure. Hinzu kam ein einjähriger Aufenthalt im Silicon Valley bei Mercedes Research im Bereich maschinelles Lernen und Datenanalyse.

„Nirgends lernt man in kürzester Zeit mehr als in einem Start-up, und das Interesse großer Firmen mit Start-ups zusammenzuarbeiten hat in jüngster Zeit deutlich zugenommen“, stellt der 26 Jahre alte Gründer fest. Die erste Welle der Künstlichen Intelligenz, in der sie vorwiegend für Unterhaltungsgeräte und Endverbraucher-Produkte genutzt wurde, habe Deutschland verschlafen.

In der zweiten Welle, in der Künstliche Intelligenz in Industrie und Technik angewandt wird, kann Deutschland sein Potenzial nutzen“, ist Kessler überzeugt.

Mengler hingegen machte seine Master in Entrepreneurship, Machine Learning und Data Science. Er hat bereits einige Startups im Bereich Machine Learning gegründet. Dabei erlebte er, wie viel Aufwand es bedeutet, gute Trainings- und Validierungsdaten für Algorithmen zu erhalten. Grund genug für ihn, eigene Labelingtools zu schreiben und so seine Algorithmen möglichst effizient zu trainieren.

Die beiden Gründer fanden übrigens durch einen gemeinsamen Bekannten aus Berlin zusammen. Dieser suchte Entwickler in Karlsruhe. Da Kessler als Vorstand der Pioniergarage des KIT gut verknüpft war, schrieb der Berliner ihn an. Innerhalb kürzester Zeit schlossen sich Kessler und Mengler als Team zusammen: Denn ihnen war schnell klar, dass sie mit Überzeugung am gleichen Thema arbeiteten und ähnliche Ideen hatten.

Dieser Artikel könnte Sie auch interessieren:

KI unter der Lupe: Kluger Hans oder klevere Entscheidung

Menschliches Gehirn inspiriert Forscher bei künstlicher Intelligenz

HOLZMARMORIERUNG AUS DEM LABOR

Holz ist ein beliebter Werkstoff für Möbelstücke. Je schöner es marmoriert ist, desto dekorativer macht es sich im Wohnambiente. Die faszinierenden Muster aus Farben und Linien stammen übrigens von Pilzen, die das tote Holz besiedeln. Schon seit der Antike ist beispielsweise die Trüffelbuche mit ihrer einzigartigen Holzmarmorierung ein gesuchter Rohstoff. Das Muster entsteht übrigens durch einen spontanen Schimmelpilzbefall. Das Auffinden eines solch exklusiven Trüffelstückes war bisher mit langen Wartezeiten und vor allem auch mit viel Glück verbunden.

PILZE LERNEN ZEICHNEN

Doch Forscher der Empa-Akademie St. Gallen entwickelten nun ein Verfahren, das die Entstehung der Holzmusterung beschleunigt. Sie luden dafür kurzerhand die Pilze ins Labor ein und brachten ihnen dort das gezielte Zeichnen bei. „Wir konnten in der Natur wachsende Pilzarten identifizieren und analysieren, um jene mit den günstigsten Eigenschaften als Holzveredler auszuwählen“, so Empa-Forscher Hugh Morris von der Abteilung „Applied Wood Materials“.

Empa-Forscher wählten im Labor jene Pilzkulturen aus, die die interessantesten Linien zeichnen konnten ©Empa

Der Brandkrustenpilz etwa, oder die Schmetterlingstramete, hinterlassen mit dem Farbstoff Melanin pigmentierte schwarze Linien. Gleichzeitig bleichen sie das umliegende Holz dank ihres Enzyms Laccase aus.

So entsteht ein Muster mit besonders starkem Kontrast im Holz“, erklärt Morris.

Je nach Kombination der eingesetzten Pilzspezies gestalten sich die Linien mal wild und ungestüm oder auch geometrisch präzise. Dann wieder schlängeln sie sich unruhig aufeinander zu und trennen kleine Parzellen auf ihrem hellen Untergrund ab. An anderen Stellen fließen die dunklen Zeichnungen ruhig und gelassen als Mahnmal einer Grenze, die keiner der Beteiligten überschreiten mag.

MUSTER SIND DEMARKATIONSLINIEN

Pilze tragen im Holz ein Gefecht um Territorium und Ressourcen aus. Dieses grenzt sich mit dunkel pigmentierten Linien deutlich voneinander ab. Die feinen Fäden der Pilzgemeinschaft schützen mit diesen Demarkationslinien ihre Kolonie zum einen vor anderen Pilzen. Zum anderen sorgt die Pigmentgrenze dafür, dass Bakterien und Insekten fernbleiben. Somit bleibt dem Lebensraum ein ideales Maß an Feuchtigkeit erhalten.

Besonders vorteilhaft an den im Empa-Labor verwendeten Pilzen ist deren sanfter Biss: Denn trotz des ausgeprägten Zeichentalents zernagen die ausgewählten Kandidaten ihren Untergrund kaum.

Das Holz wird zwar von den Pilzen großzügig mit Pigmenten versorgt, behält aber seine Stabilität und Form bei“, so der Biologe.

Harthölzer wie Buche, Esche und Ahorn eignen sich zur Behandlung mit den Pilzkulturen am besten. Dass der Prozess je nach gewünschtem Ergebnis gesteuert werden kann, liegt jedoch nicht nur an der Art der verwendeten Fäulniserreger. Die Forscher entwickelten zudem ein Verfahren, bei dem das Holz bereits innerhalb von Wochen zur Verarbeitung bereitsteht. Grund ist unter anderem, dass die gewählten Pilzarten bei deutlich geringerer Feuchtigkeit im Holz zur Tat schreiten. Daher muss der Rohstoff nach seiner Veredlung und vor der Verarbeitung zum Möbel nicht erst langwierig, kosten- und energieintensiv getrocknet werden.

INDUSTRIEPARTNER FERTIGT MÖBEL

Gemeinsam mit der Koster Holzwelten AG in Arnegg (SG) arbeiten die Forscher nun daran einen effizienten und ökologisch nachhaltigen Produktionsweg zu implementieren. Hierzu gehört natürlich auch die Nutzung von regionalem Holz. „Buchenholz ist ein in der Schweiz häufiges, aber für Möbeldesigner uninteressantes Hartholz“, erklärt Koster. Mit Marmorholz aus einheimischer Buche könne man jedoch am Schweizer Holzmarkt, dessen jährlicher Umsatz rund drei Milliarden Franken betrage, gesuchte Produkte anbieten. Zusätzlich zu Möbeln, Parkettböden und Küchenfronten kann Marmorholz auch für dekorative Objekte und Musikinstrumente verwendet werden. Mit der neuen Technologie lassen sich diese Einzelstücke nun schneller, nachhaltiger und mit dem gewünschten Muster herstellen.

Doch die Forscher haben noch ein weiteres Ziel: Morris ist sich sicher, dass er den Pilzen demnächst sogar das Schreiben von Worten „beibringen“ kann.

KOSMETIK 4.0: PERSONALISIERTE HAUTCREME AUS MINIFABRIK DIREKT AM POS

Eine personalisierte Hautcreme ganz nach individuellem Typ gilt als Nonplusultra in der Kosmetik. Denn, so Dr. Lars Rüther, Molekularbiologe bei der Dermatest GmbH und Mitgründer des Start-ups Skinmade GmbH: „Ein Produkt von der Stange kann nie so gut wirken wie ein personalisiertes. Möglicherweise enthält die Standard-Pflege Inhaltsstoffe in einer Konzentration, die man gar nicht benötigt. In der Folge kann es zu Über- oder Unterpflegung kommen.“ Experten nennen eine Reihe von extrinsischen und intrinsischen Faktoren, die den Hauttyp beeinflussen. Dazu gehören die UV-Strahlung, Ernährungs- und Trinkverhalten, Schlafgewohnheiten, Jahreszeit und Stress sowie auch der Hormonhaushalt und Gene. All diese Punkte wirken darauf ein, wie fettig, feucht oder trocken unsere Haut ist. Es kann also diese „eine Hautcreme für alle“ nicht geben.

CYBERPHYSISCHES PRODUKTIONSSYSTEM

Und seit kurzem muss es das auch nicht mehr. So scheint die Herstellung einer personalisierten Hautcreme mittlerweile weder viel zu teuer noch allzu kompliziert zu sein. Denn das Fraunhofer-Institut für Produktionstechnik und Automatisierung (IPA) entwickelte eine Art Minifabrik, in der die Creme in nur sieben Minuten typgerecht produziert wird. Mit der überschaubaren Größe eines zweitürigen Kleiderschranks bietet das cyberphysische Produktionssystem nichtdestotrotz eine vollständig ausgestattete Beauty-Fabrik. In seinem Inneren befinden sich nämlich von einer Messstation zur Analyse des Feuchtigkeits- und Fettgehalts der Haut, über eine Produktionsstraße mit kompletter Maschinensteuerung, den Rohstoffen, Tiegeln und Deckeln bis hin zur Bestellfunktion per Touchscreen und dem Auslieferungsfach alle notwendigen Faktoren für den reibungslosen Ablauf von der Entwicklung bis zum Verkauf.

Die voll ausgerüstete Beauty-Fabrik braucht nicht viel Platz ©Fraunhofer IPA/Rainer Bez

Schon im März 2018 hatten sich Viktor Balzer, Wissenschaftler am IPA und Rüther mit der Skinmade GmbH, einer Ausgründung des Fraunhofer-Instituts für Produktionstechnik und Automatisierung IPA, selbstständig gemacht. Ihre personalisierte Kosmetikproduktion  steht mittlerweile im Douglas-Flagship-Store auf der Zeil in Frankfurt, im Douglas-Concept Store Hamburg-Eppendorf und im Breuningerland in Sindelfingen bei Stuttgart.

BIOMARKER GEBEN INFOS ÜBER HAUTZUSTAND

Zur Herstellung der Hautcreme wird zunächst an Stirn, Wange und unterhalb des Mundwinkels der Feuchtigkeits- und Fettgehalt der Haut ermittelt. Bei dieser Hautanalyse werden Biomarker gemessen, die den aktuellen Hautzustand anzeigen. Dazu gehören die Hautfeuchtigkeit, der Fettgehalt sowie auch die Elastizität der Haut. Selbstlernende Algorithmen und eigens programmierte neuronale Netze werten dann das Messergebnis aus und berechnen, welche Inhaltsstoffe die personalisierte Creme in welcher Konzentration enthalten sollte. Die hierfür erforderlichen KI-Trainingsdaten haben Balzer und seine Kolleginnen und Kollegen ebenfalls aufbereitet. Eine Cloudlösung steuert das komplette Produktionssystem. Nach abgeschlossener Auswertung und Analyse werden die Messergebnisse an die Maschinensteuerung übertragen und die Creme namens „Skinmade Personal Skin Care“ produziert.

Die Hautpflege aus der Minifabrik ist frei von überflüssigen Inhaltsstoffen und auf den aktuellen Hautzustand abgestimmt. Natürlich erfüllt sie auch alle Bedingungen der EU-Kosmetikverordnung und ist selbstverständlich dermatologisch überprüft. Die Kundin kann sogar Duft und Textur der Gesichtscreme wählen. Das fertige Produkt wird in einem Tiegel mit 30 Millilitern geliefert. Kostenpunkt: 40 Euro. „Je nach Anwendungshäufigkeit reicht der Inhalt für vier bis sechs Wochen“, so Balzer. Danach sei eine erneute Messung ratsam, um zu sehen, wie sich der Hautzustand zwischenzeitlich verändert hat und ob das Produkt angepasst werden sollte.

MASS-PERSONALIZATION IN LOSGRÖSSE 

Hintergrund des Projekts ist der Trend zur sogenannten „Mass-Personalization“. Das heißt: Die massenhafte Herstellung personalisierter Produkte. Die Prozessindustrie steht nämlich vor der besonderen Herausforderung, immer kleinere Stückzahlen und dabei gleichzeitig Produkte mit größerem Variantenreichtum hervorbringen zu müssen. „Aus produktionstechnischer Sicht geht es im Prinzip um die Massenfertigung in Losgröße 1. Also darum, individuelle Produkte profitabel herzustellen“, so Balzer. Das Forscherteam rund um den Wirtschaftsingenieur hat ein Patent entwickelt, das die Losgrößen 1-Produktion bei zugleich positiven Skalen- und Verbundeffekten, sprich bei sinkenden Stückkosten, ermöglicht.

Wir heben den eigentlichen Widerspruch zwischen maßgeschneiderten Produkten und hohen Stückkosten auf. So kann ein verhältnismäßig geringer Endverbraucherpreis realisiert werden. Natürlich verraten wir nicht, wie unser Patent funktioniert. Nur so viel sei gesagt: Die erforderlichen Abläufe dosieren, homogenisieren und reinigen sind in einem Prozessschritt integriert. Daher können wir sehr schnell fertigen“, erläutert Balzer.

Dabei gelingt es den Unternehmern, geringste Konzentrationen präzise – bis zu 3 Mikroliter genau – zu dosieren. Ein weiterer Baustein des Erfolgs ist das spezielle Know-how in puncto Dermopharmazie, also der Wirkung von Inhaltsstoffen auf wichtige Biomarker.

Insgesamt stecken fünf Jahre Forschung, zahlreiche Tests mit Probanden sowie das Know-how eines multidisziplinären Teams aus IT-Spezialisten, Ingenieuren, Maschinenbauern, Dermatologen, Pharmazeuten und Biologen in diesem neuartigen Produktionssystem.

ZUKUNFT WIRD NOCH KOMFORTABLER

Bis Ende 2019 soll es die Beauty-Fabrik in weiteren deutschen Großstädten mit Douglas-Filialen geben. Und wer möchte, kann sich künftig auch zuhause messen lassen: Beraterinnen kommen auf Buchungsanfrage mit einer mobilen Messstation zur Kundin. Die Daten werden nach der Messung in der Cloud ausgewertet. Die dann fertig hergestellte Hautcreme wird per Post versandt.

Ab 2020 soll ein Minihautmessgerät samt App den Einkauf nochmals erleichtern. Damit kann die Kundin die Haut-Messung eigenständig zuhause durchführen. Die Daten werden per App an Skinmade übermittelt.

Auch sind zukünftig weitere personalisierte Produkte in Planung: So soll ein Sortiment aus Cleanser, Tonikum und Serum das Portfolio komplettieren. Ziel ist eine maßgeschneiderte Systempflege, deren Produkte optimal aufeinander abgestimmt sind

DATENBRILLE IN FEUERWEHRMASKE GIBT (ÜBER-)LEBENSWICHTIGE INFOS

Man kann ihnen nicht oft genug danken, den Feuerwehrmännern: Unter Einsatz ihres Lebens wagen sie sich zum Beispiel in verrauchte Gebäude, um Menschenleben zu retten. Nun soll ihre Orientierung vor Ort, der Selbstschutz in Bezug auf die eigene Konstitution sowie auch die Informationen durch die Einsatzleitung durch AR sicherer gemacht werden. Forschende der Fakultät für Elektrotechnik an der Westsächsischen Hochschule Zwickau (WHZ) entwickelten hierfür eigens eine Feuerwehrmaske mit integrierter Datenbrille und Raumlokalisierungselektronik. Dadurch wird die Navigation in brennenden und verrauchten Räumen erheblich vereinfacht.

…Rettungskräfte können sich somit in dunklen oder verrauchten Gebäuden mit schlechter Sicht bewegen und bekommen ins Sichtfeld wichtige Informationen wie ein Gebäude- und Fluchtplan, Anweisungen vom Truppführer oder eigene Vitalwerte angezeigt“, erklärt WHZ-Professor Dr. Rigo Herold die neue Entwicklung.

Für die Navigation werden in der Feuerwehr-Schutzkleidung drei leichtgewichtige Ultrabreitband (UWB)-Funkknoten integriert. So können mittels einer neuartigen Kombination aus Ankunftswinkel- und Distanzbestimmung drei notwendige, individuelle Signale analysiert werden. Hieraus ist wiederum eine relative Position berechenbar. Gleichzeitig steht durch die geplante ad-hoc Lokalisierung auch die relative Position der Rettungskräfte untereinander zur Verfügung. Dies bringt nicht nur in der Ausbildung, sondern vor allem auch im realen Einsatzszenario einen erheblichen Vorteil.

ROBUSTE TECHNIK FÜR RAUE UMGEBUNG

Die Anwendung unter diesen extremen Bedingungen stellt sehr hohe Anforderungen an die Technik, besonders aber auch an die komplette Optik. So sollten beispielsweise Elektronik und Stromversorgung in die Atemschutzmaske integriert werden, ohne den Träger dabei im Sichtfeld zu beeinträchtigen. Nach außen hin musste die gesamte Technik der Maske zudem luftdicht integriert sein. Zu guter Letzt ging es auch darum, das System hitzebeständig und mechanisch sehr stabil zu konstruieren. Glücklicherweise konnten die Forschenden der WHZ bei ihrer Entwicklung auf das Know-how von vorherigen Forschungsprojekten zu Datenbrillen, unter anderem in Stahlwerken sowie bei Druckereien, zurückgreifen.

Die Datenanzeige ist direkt in die Atemschutzmaske integriert ©WHZ

Zunächst wird das System im Brandhaus des Feuerwehr-Instituts für Feuerwehr und Rettungstechnologie (IFR) – einer Ausbildungs- und Forschungseinrichtung für die Feuerwehr der Stadt Dortmund –, getestet. Da in dem IFR realistische Szenarien wie brennende Räume nachgestellt werden können, soll auch die Ad-hoc-Lokalisierung in dem Gebäude installiert werden. So kann unter realitätsnahen Bedingungen die Kombination aus Feuerwehrmaske mit Datenbrille und UWB-Empfänger evaluiert und optimiert werden.

STANDARDS FÜR GEBÄUDETECHNIK

Basierend auf den Ergebnissen sollen dann Standards geschaffen werden, um neue Gebäude neben der Brandmeldetechnik auch mit einer Navigationstechnik für Rettungskräfte auszustatten. Somit können die bisher verwendeten Laufkarten durch digitale Gebäudepläne ersetzt werden, da diese dann automatisch im System der Rettungskräfte eingespielt werden. Die Generierung der Daten kann zukünftig über Projektierungs- und Building Information Modeling (BIM) Systeme automatisiert erfolgen.

Das neuartige System entsteht im Rahmen des vom Bundesministerium für Bildung und Forschung (BMBF) geförderten Verbundprojektes CELIDON und wird innerhalb einer Forschungskooperation mit der Stadt Dortmund, dem Feuerwehr–Institut für Feuerwehr- und Rettungstechnologie (IFR) und der TU Dortmund – Lehrstuhl für Kommunikationsnetze entwickelt. Die TU Dortmund wird innerhalb des Projektes an der Integration einer drahtlosen Funklokalisierung für eine sichere und effiziente Ausbildung im Brandhaus der Feuerwehr der Stadt Dortmund arbeiten.

SICHERHEIT FÜR RETTUNGSKRÄFTE

Menschenrettung in stark verrauchten Gebäuden ist stets mit Gefahren verbunden. Eine davon ist beispielsweise, dass die Rettungskräfte den Kontakt zueinander verlieren. Trotz umfangreicher Ausbildung und regelmäßigem Training, ereignen sich immer wieder Unfälle mit tödlichem Ausgang für die Einsatzkräfte. Denn in vielen Einsätzen müssen die Rettungskräfte Gebäude betreten, in denen die Orientierung durch Rauchbildung stark erschwert oder unmöglich ist. Dann wird in der Regel ein standardisiertes, eingeübtes Suchverfahren nach hilfsbedürftigen Menschen durchgeführt. Hierfür führen Trupps aus je zwei Rettungskräften die Suche nach Betroffenen taktil durch. Doch leider treten immer wieder Situationen auf, in denen sich die Trupp-Partner separieren. Oft fällt ihnen der Kontaktverlust dabei nicht sofort auf. Und schließlich tun die besonderen Bedingungen im Einsatz – wie nicht vorhandener Sichtkontakt, Atemmaske, Stress, Panik und eventuell störende Geräusche –, ihr übriges. Sie erschweren ein Wiederauffinden des Partners.

Die neu entwickelte Atemschutzmaske mit AR-Funktion könnte bei diesem lebensbedrohlichen Problem Abhilfe schaffen. Ein erster Prototyp des Systems wird von Rigo Herold, Professor für Digitale Systeme und seinem Team auf der Hannover Messe in Halle 2, Stand A38 (Forschung für die Zukunft) ausgestellt.

Bild oben: ©WHZ