Schlagwort-Archive: Künstliche Intelligenz

KARLSRUHER START-UP MACHT LABELING IN DER KI EFFIZIENTER

Je besser selbständig fahrende Autos ihre Umgebung wahrnehmen, desto sicherer werden sie. Deshalb arbeiten derzeit alle Automobilhersteller daran, die KI mit einer großen Menge an Bildern und Videoaufnahmen zu trainieren. Damit der Algorithmus einzelne Bildelemente – etwa als Baum, Fußgänger oder Straßenschild –, erkennt, werden diese markiert. Bisher wurden die Objekte auf den Bildern von Menschen in Handarbeit gekennzeichnet. Dieses Verfahren heißt Labeling. „Große Firmen wie Tesla beschäftigen dafür tausende Arbeiter in Nigeria oder Indien, das Verfahren ist mühsam und zeitaufwendig“, beschreibt Informatiker Philip Kessler die aktuelle Vorgehensweise.

Kessler gründete im Jahre 2017 zusammen mit Marc Mengler das Start-up understand.ai. Ihr Ziel, Algorithmen möglichst effizient zu trainieren, haben sie nun erreicht:

Bei understand.ai verwenden wir Künstliche Intelligenz, die es ermöglicht, diese Kennzeichnung zehn Mal schneller und präziser auszuführen“, so Kessler.

Team understand.ai ©understand.ai

QUALITÄTSKONTROLLE DURCH DEN MENSCHEN

Obwohl der Prozess der Bildbearbeitung größtenteils hochautomatisiert sei, übernehme der Mensch am Schluss die Qualitätskontrolle. Die Kombination von Technik und menschlicher Sorgfalt sei insbesondere bei sicherheitskritischen Themen wie dem autonomen Fahren wichtig, betont der Experte. Die auch „Annotationen“ genannten Markierungen in den Bild- und Videodarstellungen müssen pixelgenau mit der realen Umgebung übereinstimmen. Je besser die Qualität der bearbeiteten Bilddaten, desto besser der Algorithmus, der damit trainiert.

WEITERE ANWENDUNGSFELDER DENKBAR

Da man nicht für alle Situationen – zum Beispiel Unfälle – Trainingsbilder bereitstellen kann, bieten wir neuerdings auch aus Realdaten erarbeitete Simulationen an“, so Kessler.

Obwohl sich das Start-up derzeit noch auf das Thema autonomes Fahren fokussiert, planen die Gründer künftig das Bearbeiten von Bilddaten auch auf andere Branchen auszuweiten. So sehen sie weitere Anwendungsgebiete in dem Training von Algorithmen zur Tumorerkennung oder der Auswertung von Luftbildern.

Im Moment gehören führende Automobilhersteller und -zulieferer in Deutschland sowie den USA zu den Kunden von understand.ai. Neben seinem Hauptsitz Karlsruhe ist das junge Unternehmen – es hat übrigens seine Wurzeln am Karlsruher Institut für Technologie (KIT) ‒,  in Berlin und San Francisco tätig. Derzeit sind mehr als 50 Mitarbeiterinnen und Mitarbeitern beschäftigt. Doch könnten noch mehr werden, denn es gibt noch einige offene Positionen. 2018 erhielten die Karlsruher von einer Runde privater Investoren eine Anschubfinanzierung in Höhe von 2,8 Millionen US-Dollar.

PIONIERGARAGE DES KIT

Der aus Braunschweig stammende Kessler begann 2012 das Informatikstudium am KIT. Hier entdeckte er sein Interesse am Thema Künstliche Intelligenz und Autonomes Fahren beim Entwickeln eines autonomen Modellfahrzeugs in der Hochschulgruppe KITCar. Als „extrem motivierend“ für die eigene Unternehmensgründung beschreibt er die Angebote der Hochschulgruppe Pioniergarage des KIT. Die Einrichtung richtet sich speziell an studentische Entrepreneure. Hinzu kam ein einjähriger Aufenthalt im Silicon Valley bei Mercedes Research im Bereich maschinelles Lernen und Datenanalyse.

„Nirgends lernt man in kürzester Zeit mehr als in einem Start-up, und das Interesse großer Firmen mit Start-ups zusammenzuarbeiten hat in jüngster Zeit deutlich zugenommen“, stellt der 26 Jahre alte Gründer fest. Die erste Welle der Künstlichen Intelligenz, in der sie vorwiegend für Unterhaltungsgeräte und Endverbraucher-Produkte genutzt wurde, habe Deutschland verschlafen.

In der zweiten Welle, in der Künstliche Intelligenz in Industrie und Technik angewandt wird, kann Deutschland sein Potenzial nutzen“, ist Kessler überzeugt.

Mengler hingegen machte seine Master in Entrepreneurship, Machine Learning und Data Science. Er hat bereits einige Startups im Bereich Machine Learning gegründet. Dabei erlebte er, wie viel Aufwand es bedeutet, gute Trainings- und Validierungsdaten für Algorithmen zu erhalten. Grund genug für ihn, eigene Labelingtools zu schreiben und so seine Algorithmen möglichst effizient zu trainieren.

Die beiden Gründer fanden übrigens durch einen gemeinsamen Bekannten aus Berlin zusammen. Dieser suchte Entwickler in Karlsruhe. Da Kessler als Vorstand der Pioniergarage des KIT gut verknüpft war, schrieb der Berliner ihn an. Innerhalb kürzester Zeit schlossen sich Kessler und Mengler als Team zusammen: Denn ihnen war schnell klar, dass sie mit Überzeugung am gleichen Thema arbeiteten und ähnliche Ideen hatten.

Dieser Artikel könnte Sie auch interessieren:

KI unter der Lupe: Kluger Hans oder klevere Entscheidung

Menschliches Gehirn inspiriert Forscher bei künstlicher Intelligenz

Gratwanderungen: Künstliche Intelligenz in der Medizin

Die Entschlüsselung des menschlichen Erbguts gibt noch immer Rätsel auf. Ein entscheidendes Hilfsmittel könnte dabei Künstliche Intelligenz sein. Mit ihr scheinen neue therapeutische Ansätze für schwerwiegende Krankheiten möglich. Aber eben auch nichtmedizinische „Verbesserungen“ des Erbguts. Seit diesem Jahr erforschen Wissenschaftler des Karlsruher Instituts für Technologie (KIT) welche Anwendungen in der Medizin realistisch sind. Aber auch welche ethischen Fragen aufkommen werden.

„Die moderne Genomforschung will verstehen und vorhersagen, wie genetische Unterschiede zwischen Menschen komplexe Merkmale, wie zum Beispiel Dispositionen für häufige Krankheiten, bestimmen“, so Harald König, Institut für Technikfolgenabschätzung und Systemanalyse (ITAS) des KIT. Zwar schreiten die Möglichkeiten der Analyse des Erbguts rasch voran. Doch bleibt das Wissen darüber, wie unser Erbgut solche Merkmale bestimmt, bislang meist auf Korrelationen beschränkt. Eine entscheidende Weiterentwicklung verspricht nun der Einsatz von fortgeschrittenen Formen Maschinellen Lernens: „Insbesondere das sogenannte Deep Learning könnte es ermöglichen, menschliche Genome nicht nur wie bisher zu ‚lesen‘, sondern die komplexen biophysikalischen Zusammenhänge und Mechanismen zu verstehen, die dafür sorgen, aus genetischen Anlagen körperliche Merkmale hervorzubringen“, so König.

THERAPIEN GEGEN KREBS ODER DEMENZ

Die neuen Ansätze machen sich die Kombination von Künstlicher Intelligenz und rasch fortschreitenden Techniken der Genomanalyse (einschließlich Einzelzellanalysen) sowie automatisierte Laborplattformen zunutze. Letztere können sehr große Mengen von Daten zu Genomveränderungen und verschiedenen zellulären Prozessen wie dem Ablesen von Genen oder dem Auftreten verschiedener Proteinformen unter verschiedenen Bedingungen liefern. „Das Ergebnis könnte ein enormer Wissenssprung – von Korrelationen hin zu ursächlichen Zusammenhängen – sein, der ganz neue Anwendungsmöglichkeiten verspricht“, so König. Mit solchen Ansätzen verbinde sich beispielsweise die Hoffnung auf neue, ungleich effektivere Therapieansätze für Krebs, Herz-Kreislauf-Erkrankungen oder Demenz. Diese „precision medicine“ könnte maßgeschneidert für verschiedene Gruppen von Patienten, Krankheitsvarianten oder -stadien eingesetzt werden.

Das Forschungsteam, an dem neben der Technikfolgenabschätzung des KIT auch das Fraunhofer-Institut für System- und Innovationsforschung (ISI) beteiligt ist, will analysieren, welche Anwendungen in der Praxis kurz- bis mittelfristig realistisch sind. Gleichzeitig liegt der Fokus auf den vielfältigen gesellschaftlichen und politischen Implikationen, mit denen das neue Wissen verbunden ist. So könnte die Medizin der Zukunft für eine alternde Gesellschaft enormen makroökonomischen und sozialen Nutzen haben. Zudem könnten manche der Ansätze, wie gen- und zellbasierte Therapien, jedoch auch mit sehr hohen Kosten einhergehen. Somit werden Fragen nach der Finanzierung von Forschung und Entwicklung sowie der Zugänglichkeit für Patienten aufgeworfen.

PRÄVENTIVE EINGRIFFE IN DIE MENSCHLICHE KEIMBAHN

Das Wissen darüber, welche genetischen Informationen wie „umgeschrieben“ werden müssten, um bestimmte Effekte zu erzielen, wirft zusammen mit jüngsten Verfahren zur Genom-Editierung, wie dem CRISPR-Cas-System, auch ethische Fragen auf. So könnte zumindest international der Trend dahingehen, über seltene Erbkrankheiten hinaus auch häufige Leiden wie Brustkrebs oder Diabetes durch eine „präventive Korrektur“ entsprechender Risikomutationen in der Keimbahn menschlicher Embryonen zu verhindern. „Eine Entwicklung, die im Extremfall dazu führen könnte, dass es künftig eine wachsende Akzeptanz dafür gibt, das menschliche Genom mit nicht-medizinischen Eingriffen zu ‚verbessern‘ “, befürchtet König.

Außerdem müsse sich die Gesellschaft damit auseinandersetzen, wie die Eigentumsrechte von genetischen Daten geregelt und ihre Sicherheit gewährleistet werden kann. Künftig könnte es beispielsweise möglich sein, anhand von Genomsequenzen direkt auf den Phänotyp, also beispielsweise das Aussehen von Personen zu schließen. „Dieses Wissen“, so König, „wäre nicht nur für Strafverfolgungsbehörden äußerst wertvoll.“

OPTIONEN FÜR POLITISCHE ENTSCHEIDUNGSTRÄGER

Aufbauend auf ihrer Technikfolgenabschätzung wollen die Forschenden in den kommenden beiden Jahren Optionen für die Forschungs- und Innovationspolitik erarbeiten. Politischen Entscheidungsträgern wollen sie zudem verschiedene Handlungsmöglichkeiten anbieten. So sollen Wege für einen verantwortungsvollen Umgang mit dieser durch KI und Genomik getriebenen Technologie eröffnet werden.

Das Projekt „Deepen Genomics – Chancen und Herausforderungen der Konvergenz von künstlicher Intelligenz, moderner Humangenomik und Genom-Editierung” ist Teil der Innovations- und Technikanalyse (ITA) des Bundesministeriums für Bildung und Forschung (BMBF). Die aktuellen Forschungsprojekte des Programms werden am 14. und 15. Februar beim ITA-Forum 2019 in Berlin vorgestellt.

Weitere Informationen zu dem Projekt gibt es hier.

Bild oben: Krankheiten behandeln oder das Erbgut „verbessern“? Was KI hier beitragen kann und
welche ethischen Fragen das aufwirft, untersuchen Forschende des KIT © Pixabay

Dieser Artikel erschien am 14.2.2019 in der Innovation Origins.

KI: NICHT NUR FACEBOOK SOLLTE REGULIERT WERDEN

Die aktuelle Kartellamts-Entscheidung bezüglich der Datensammlung durch Facebook macht nochmals bewusst, wie leichtfertig viele mit ihren privaten Daten umgehen. Und das nicht nur durch soziale Medien wie Facebook. Denn allein die Nutzung des Internets, von Smartphones und Smart Home-Funktionen machen uns gläsern. Kaum einer denkt darüber nach, wenn er Siri um einen Eintrag bittet, und das vielleicht auch noch, während gerade eine andere Anwendung läuft. Sagen wir zum Beispiel während der Streaming-Dienst Netflix Filme – basierend auf früheren Einstellungen – präsentiert. Oder, wenn er per App das Thermostat im Wohnzimmer höherstellt, da er gerade auf dem Heimweg ist. Von vielen weiteren Home-Anwendungen ganz zu schweigen. Im Gesundheitswesen wird die KI heute zur Erkennung von Tumoren auf CT-Scans eingesetzt. In einigen Ländern kann die virtuelle Krankenschwester Molly zu Rate gezogen werden. Und im Finanzsektor führen Kreditkartenunternehmen mit ihrer Hilfe Betrugsprüfungen durch. Banken verwenden Algorithmen, um festzustellen, ob jemand kreditwürdig ist und vieles mehr. Kurzum: KI ist überall. Und: KI benötigt Daten.

Doch was passiert mit all diesen Infos? Wer könnte sie wann wie nutzen? Welche Kontrollinstanzen gibt es neben dem deutschen Kartellamt noch?

DIE EUROPÄISCHE UNION

Im Dezember 2018 befürwortete Brad Smit, Präsident von Microsoft und Leiter der Rechtsabteilung, in einem Blogbeitrag Regeln und Gesetze für die Gesichterkennungs-Technologie. Denn laut dem Microsoft-Vorstandsvorsitzenden birgt diese Technologie allerlei Gefahren. Dazu zählt vieles, von der Vorverurteilung durch Algorithmen bis hin zur Verletzung der Privatsphäre. Ganz zu schweigen von Diktaturen, die jeden Bürger im Auge behalten können. Laut Smit ist es an der Zeit, dass sich die Regierungen mit den neuen Technologien auseinandersetzen. Nun werden die ersten Schritte getan.

In der Europäische Union gibt es eine Gruppe von 52 Experten – Menschen aus den verschiedensten Bereichen –, die Empfehlungen für Vorschriften zur künstlichen Intelligenz geben. Zufall oder nicht: Seit Dezember 2018 arbeiten die EU-Experten daran, diesbezüglich Leitlinien zu verfassen. In einer kürzlich vorgestellten, ersten Version (eine endgültige Fassung soll im März erscheinen) gehen sie dabei auf verschiedene Themen ein. So beschreiben sie das Dilemma, dass die KI einerseits sehr viele Vorteile bietet, aber gleichzeitig unzählige Gefahren birgt. Entsprechend empfehlen sie einen menschenzentrierten Ansatz zur Regelung der KI. Der Hintergrund: KI bietet Menschen nur Vorteile, wenn diese sie zuversichtlich und umfassend nutzen können sowie der Technik vertrauen. Den Rahmen für eine vertrauenswürdige KI setzt zunächst eine ethische Zweckbestimmung. Aus dieser sollen sich die Regelungen für die Verwirklichung der vertrauenswürdigen KI ableiten. Zudem sollen die Anforderungen auf ein operatives Fundament mit Beispielfällen gestellt werden. Die EU-Leitlinien sollen nicht statisch sein, sondern eher einen Ausgangspunkt für die Diskussion über „vertrauenswürdige KI made in Europe“ bilden. Mit den ethischen Richtlinien, die gleichzeitig eine Wettbewerbsfähigkeit garantieren sollen, möchte sich Europa als Vorreiter einer hochmodernen, sicheren und ethischen KI positionieren sowie gleichzeitig weltweit zur Diskussion anregen.

ISO-NORM FÜR KI

Einen weiteren Ansatz gibt es über die International Standardisation Organisation (ISO): „Es ist sehr wichtig, dass wir alle die gleiche Sprache sprechen“, so Jana Lingenfelder, Technical Relations Executive bei IBM. Neben ihrer Arbeit für IBM arbeitet sie an einem KI-Standard für die ISO. Dieser soll Unternehmen und Designern Definitionen sowie Grundregeln liefern, die als Basis für ihre Arbeit dienen soll. Denn KI geht über nationale Grenzen hinaus.

Der deutsche Rechtsanwalt Jan Schallaböck unterstützt die ISO dabei, eine Norm für Technologieunternehmen zu entwickeln. Er konzentriert sich in seiner Tätigkeit hauptsächlich auf den Datenschutz. So spricht er Empfehlungen aus, zu welchem frühestmöglichen Zeitpunkt eines Produkts oder einer Dienstleistung Unternehmen sich mit der Privatsphäre von Nutzers befassen sollten. Schallaböck stimmt mit Lingenfelder überein. Gleichzeitig sieht er aber auch Probleme bei der Einhaltung der Regeln: „Die genaue Beobachtung der künstlichen Intelligenz braucht Zeit, viele Regierungen oder andere Aufsichtsbehörden haben diese Möglichkeit nicht.“ Zudem sieht Schallaböck noch viele offene Fragen, zum Beispiel: „…inwieweit sind sie [Behörden] in der Lage einzuschätzen, wie ein Algorithmus eine Entscheidung trifft? Für viele Experten ist das eine tolle Aufgabe. Ganz zu schweigen von Verantwortung und Haftung. Liegt dies in der Verantwortung der Nutzer? Von den Plattformen? Oder den Menschen, die KI entwickeln? Und wie stellt man sicher, dass ein Algorithmus eine ethische Entscheidung trifft?“. Es gibt also noch viele Punkte zu verstehen und zu beachten, bevor Regelungen bezüglich KI greifen können.

KI: ETHISCH ODER NUMERISCH?

Wie soll ein selbstfahrendes Fahrzeug nach ethischen Grundsätzen entscheiden? @Waymo Steve Mahan

Es gibt aber noch ganz andere Kriterien zu bedenken. Zum Beispiel: Wie soll ein selbstfahrendes Fahrzeug bei einer Kollision entscheiden, ob es einen Radfahrer oder einen Fußgänger treffen soll? Solche Dinge müssen in Systeme eingebaut werden. Laut Christian Wagner, Assistenz-Professor für Informatik an der Universität Nottingham, gibt es hier ein häufiges Missverständnis. Künstliche Intelligenz kann keine ethischen Entscheidungen treffen. Wagner ist übrigens auch Direktor von LUCID  (Lab for uncertainty in data and decision making). An dem Informatik Institut der Nottinghamer Uni wird an einem besseren Verständnis, an der Erfassung und an Hintergründen unsicherer Daten geforscht. Laut Wagner wird oft von einer „starken“ KI gesprochen, wenn die Technologie, genau wie der Mensch, über Recht und Unrecht urteilen kann. „Aber davon sind wir weit entfernt. Zunächst einmal müssen wir sicherstellen, dass die Systeme stabil sind. Ein selbstfahrender Wagen sollte nicht plötzlich unerwartete Dinge tun. So läuft das mit Zahlen und Wahrscheinlichkeits-Berechnungen.“

Wagner hält es zwar für richtig, Normen und Richtlinien festzulegen, aber er bezweifelt gleichzeitig, dass ein solches Modell beibehalten werden kann. Denn die Technologie entwickelt sich rasant. Jedes Mal ein neues Modell zu entwerfen erscheint viel zu umständlich. Auch Schallaböck hält dies für ein schwieriges Thema: „Normen wie die ISO-Marken sind immer gut, aber muss man dann für jede Anwendung von KI eine neue Norm schaffen? Diese Verfahren sind zeitaufwändig und sehr teuer.“

Und natürlich stellt sich die Frage, wer wann die Aufsicht hat. Und, wer verantwortlich ist. Wie Lingenfelder schon betonte, geht die KI über lokale Grenzen hinaus. Sie hat internationale Auswirkungen auf allen Ebenen der Gesellschaft. Alle drei zitierten Experten können noch keine klare Antwort auf diese Fragen geben. Vielleicht soll ein EU-Gremium eingerichtet werden, das die Einhaltung der Vorschriften überwacht? Schallaböck: „Wir haben jetzt die GDPR [General Data Protection Regulation], aber das ist bei weitem nicht genug. Noch haben wir keine Antwort auf die Gefahren der KI. Sie ist eine Gefahr nicht nur für die Demokratie, sondern auch für die Rechte des Einzelnen.“

Bild oben: Datensammlung durch KI @Pixabay

DIESER ARTIKEL KÖNNTE SIE AUCH INTERESSIEREN

DIE DSGVO IM EINSATZ – WIE IHRE DATEN GESCHÜTZT WERDEN

ZIELGERICHTETE WERBUNG BEI FACEBOOK

Dieser Artikel erschien am 9.2.2019 in Kooperation mit Milan Lentes in der Innovation Origins .

KI: SMART CLOTHES ALS LEHRMEISTER

Bis vor wenigen Jahren noch diente Kleidung einzig dem Schutze des Menschen und hatte gleichzeitig noch modische Aspekte inne. Doch mittlerweile kann unsere zweite Haut immer mehr. Die Messung von Körperdaten wie Pulswert oder Kalorienverbrauch dank eingearbeiteter Sensoren ist ja schon fast ein alter Hut. Nun soll die Bekleidung aber auch noch durch künstliche Intelligenz Lehrfunktionen übernehmen: Zum einen als Trainer für den Menschen, zum anderen auch als Programmierer für Roboter.

Die neueste Entwicklung kommt aus dem Hause Turing Sense. Über drei Jahre tüftelte ein 27-köpfiges Team aus Ingenieuren und Leistungssportlern an ihrer Vision, aufwändige Videoanalysen von Bewegungen durch digitale Technologien wie KI zu ersetzen. Ihre Vision: komplizierte Sportübungen zeitnah, präzise und effektiv erlernbar zu gestalten. Das Ergebnis wurde letzte Woche offiziell gelauncht. Es handelt sich um ein Yogaoutfit, in das Sensoren eingearbeitet sind, die sich per App mit einem virtuellen Yogastudio verbinden.


Per Smart Clothing zum individuellen Yoga Work out mit i-Yogini daheim. Foto: Pivot Yoga

Angeboten werden hier Yogavideos von namhaften Instruktoren wie Brett Larkin, Kim Sin und Molly Grace. Fast als wäre die Yogini persönlich vor Ort, führt sie durch den ausgewählten Yogakurs. Dabei scannt das i-Double per W-LAN die Ausführung des Asanas, der Yogastellung, durch die Schüler. Dieser wird hierdurch als Avatar im Mobile- oder TV-Screen dargestellt, so dass der User sein Konterfei neben dem Lehrer beim Ausüben von Krieger, Hund und Co beobachten kann. Als interaktive App reagiert zudem die i-Yogini auf Sprachbefehle wie „Freeze“ oder „Show me camera“. Doch nun kommt der Clou: bei der Nachfrage „How´s this look?“ erhält der Anwender eine eventuell notwendige Korrektur der Yoga-Stellung. Das Workout kann somit individuell auf den persönlichen Leistungsanspruch abgestimmt werden. Natürlich erfüllt die High-Tech-Bekleidung auch höchste Ansprüche in puncto Komfort und Funktionalität. Sie ist sogar waschbar. Derzeit ist das Outfit namens Pivot Yoga bestehend aus Shirt und Pants für 99 $ nur in den USA sowie Kanada erhältlich. Die App funktioniert derzeit ausschließlich in Kombination mit IOS 11, einem iphone 7 und höher. Eine Android-App sowie auch die Lieferung nach Europa sind in Planung.

Möglicherweise gerade weil das anspruchsvolle Yoga erst durch eine präzise Ausführung die gewünschte Wirkung auf Körper und Seele hat, gibt es übrigens einen weiteren Bekleidungshersteller, der sich schon 2017 auf Smart Clothing im Bereich Yoga spezialisiert hat: Wearablex. Zwar werden hier auch die sogenannten Nadi X Pants – per Bluetooth – mit einer App verbunden, doch statt einer visuellen und optischen Korrektur erhält der Yogaschüler haptisches Feedback. Zehn winzig kleine, in den Hüftbereich, an den Knien und Knöcheln eingearbeitete, individuell einstellbare Vibrationen weisen ihn auf eine inkorrekte Stellung hin. Sie geben Ruhe, wenn die Position stimmt. Smart Pants von Wearable X sind derzeit in den USA, Kanada, der EU (plus Schweiz, Norwegen) und Australien/Neuseeland erhältlich, funktionieren unter IOS und kosten 249 $.

An einer genau entgegensetzten Anwendung von Künstlicher Intelligenz arbeitet derzeit das Dresdener Start Up Wandelbots. Das Unternehmen hat eine Software entwickelt, die es Robotern ermöglichst, sich durch Nachahmung von menschlichen Bewegungen ‒ die von zum Beispiel einem Monteur per Smart Clothes an ihn gesendet werden ‒, selbst zu programmieren. Diese neuartige Technologie soll 20-mal schneller und 10-mal günstiger sein, als herkömmliches Programmieren. Zu sehen ist diese Anwendung zum Beispiel in der Gläsernen Manufaktur von VW in Dresden. Der Fokus von Wandelbots liegt derzeit noch auf Industrierobotern. Doch wenn diese sich bei den ersten Praxis-Tests bewährt haben, könnte die Technik eine bahnbrechende Innovation werden: die Anwendung ist so einfach, dass zukünftig jeder, auch ohne Hintergrundwissen, in der Lage sein könnte, einen individuellen Roboter zu programmieren. Denkbare Einsatzbereiche sind neben der Industrie-Montage auch der Einsatz daheim und in der Pflege.

Foto oben: Der Roboter imitiert die Bewegung des Menschen und programmiert sich somit selbst. © Anne Schwerin

Dieser Artikel erschien in Innovation Origins