Die aktuelle Kartellamts-Entscheidung bezüglich der Datensammlung durch Facebook macht nochmals bewusst, wie leichtfertig viele mit ihren privaten Daten umgehen. Und das nicht nur durch soziale Medien wie Facebook. Denn allein die Nutzung des Internets, von Smartphones und Smart Home-Funktionen machen uns gläsern. Kaum einer denkt darüber nach, wenn er Siri um einen Eintrag bittet, und das vielleicht auch noch, während gerade eine andere Anwendung läuft. Sagen wir zum Beispiel während der Streaming-Dienst Netflix Filme – basierend auf früheren Einstellungen – präsentiert. Oder, wenn er per App das Thermostat im Wohnzimmer höherstellt, da er gerade auf dem Heimweg ist. Von vielen weiteren Home-Anwendungen ganz zu schweigen. Im Gesundheitswesen wird die KI heute zur Erkennung von Tumoren auf CT-Scans eingesetzt. In einigen Ländern kann die virtuelle Krankenschwester Molly zu Rate gezogen werden. Und im Finanzsektor führen Kreditkartenunternehmen mit ihrer Hilfe Betrugsprüfungen durch. Banken verwenden Algorithmen, um festzustellen, ob jemand kreditwürdig ist und vieles mehr. Kurzum: KI ist überall. Und: KI benötigt Daten.
Doch was passiert mit all diesen Infos? Wer könnte sie wann wie nutzen? Welche Kontrollinstanzen gibt es neben dem deutschen Kartellamt noch?
DIE EUROPÄISCHE UNION
Im Dezember 2018 befürwortete Brad Smit, Präsident von Microsoft und Leiter der Rechtsabteilung, in einem Blogbeitrag Regeln und Gesetze für die Gesichterkennungs-Technologie. Denn laut dem Microsoft-Vorstandsvorsitzenden birgt diese Technologie allerlei Gefahren. Dazu zählt vieles, von der Vorverurteilung durch Algorithmen bis hin zur Verletzung der Privatsphäre. Ganz zu schweigen von Diktaturen, die jeden Bürger im Auge behalten können. Laut Smit ist es an der Zeit, dass sich die Regierungen mit den neuen Technologien auseinandersetzen. Nun werden die ersten Schritte getan.
In der Europäische Union gibt es eine Gruppe von 52 Experten – Menschen aus den verschiedensten Bereichen –, die Empfehlungen für Vorschriften zur künstlichen Intelligenz geben. Zufall oder nicht: Seit Dezember 2018 arbeiten die EU-Experten daran, diesbezüglich Leitlinien zu verfassen. In einer kürzlich vorgestellten, ersten Version (eine endgültige Fassung soll im März erscheinen) gehen sie dabei auf verschiedene Themen ein. So beschreiben sie das Dilemma, dass die KI einerseits sehr viele Vorteile bietet, aber gleichzeitig unzählige Gefahren birgt. Entsprechend empfehlen sie einen menschenzentrierten Ansatz zur Regelung der KI. Der Hintergrund: KI bietet Menschen nur Vorteile, wenn diese sie zuversichtlich und umfassend nutzen können sowie der Technik vertrauen. Den Rahmen für eine vertrauenswürdige KI setzt zunächst eine ethische Zweckbestimmung. Aus dieser sollen sich die Regelungen für die Verwirklichung der vertrauenswürdigen KI ableiten. Zudem sollen die Anforderungen auf ein operatives Fundament mit Beispielfällen gestellt werden. Die EU-Leitlinien sollen nicht statisch sein, sondern eher einen Ausgangspunkt für die Diskussion über „vertrauenswürdige KI made in Europe“ bilden. Mit den ethischen Richtlinien, die gleichzeitig eine Wettbewerbsfähigkeit garantieren sollen, möchte sich Europa als Vorreiter einer hochmodernen, sicheren und ethischen KI positionieren sowie gleichzeitig weltweit zur Diskussion anregen.
ISO-NORM FÜR KI
Einen weiteren Ansatz gibt es über die International Standardisation Organisation (ISO): „Es ist sehr wichtig, dass wir alle die gleiche Sprache sprechen“, so Jana Lingenfelder, Technical Relations Executive bei IBM. Neben ihrer Arbeit für IBM arbeitet sie an einem KI-Standard für die ISO. Dieser soll Unternehmen und Designern Definitionen sowie Grundregeln liefern, die als Basis für ihre Arbeit dienen soll. Denn KI geht über nationale Grenzen hinaus.
Der deutsche Rechtsanwalt Jan Schallaböck unterstützt die ISO dabei, eine Norm für Technologieunternehmen zu entwickeln. Er konzentriert sich in seiner Tätigkeit hauptsächlich auf den Datenschutz. So spricht er Empfehlungen aus, zu welchem frühestmöglichen Zeitpunkt eines Produkts oder einer Dienstleistung Unternehmen sich mit der Privatsphäre von Nutzers befassen sollten. Schallaböck stimmt mit Lingenfelder überein. Gleichzeitig sieht er aber auch Probleme bei der Einhaltung der Regeln: „Die genaue Beobachtung der künstlichen Intelligenz braucht Zeit, viele Regierungen oder andere Aufsichtsbehörden haben diese Möglichkeit nicht.“ Zudem sieht Schallaböck noch viele offene Fragen, zum Beispiel: „…inwieweit sind sie [Behörden] in der Lage einzuschätzen, wie ein Algorithmus eine Entscheidung trifft? Für viele Experten ist das eine tolle Aufgabe. Ganz zu schweigen von Verantwortung und Haftung. Liegt dies in der Verantwortung der Nutzer? Von den Plattformen? Oder den Menschen, die KI entwickeln? Und wie stellt man sicher, dass ein Algorithmus eine ethische Entscheidung trifft?“. Es gibt also noch viele Punkte zu verstehen und zu beachten, bevor Regelungen bezüglich KI greifen können.
KI: ETHISCH ODER NUMERISCH?
Es gibt aber noch ganz andere Kriterien zu bedenken. Zum Beispiel: Wie soll ein selbstfahrendes Fahrzeug bei einer Kollision entscheiden, ob es einen Radfahrer oder einen Fußgänger treffen soll? Solche Dinge müssen in Systeme eingebaut werden. Laut Christian Wagner, Assistenz-Professor für Informatik an der Universität Nottingham, gibt es hier ein häufiges Missverständnis. Künstliche Intelligenz kann keine ethischen Entscheidungen treffen. Wagner ist übrigens auch Direktor von LUCID (Lab for uncertainty in data and decision making). An dem Informatik Institut der Nottinghamer Uni wird an einem besseren Verständnis, an der Erfassung und an Hintergründen unsicherer Daten geforscht. Laut Wagner wird oft von einer „starken“ KI gesprochen, wenn die Technologie, genau wie der Mensch, über Recht und Unrecht urteilen kann. „Aber davon sind wir weit entfernt. Zunächst einmal müssen wir sicherstellen, dass die Systeme stabil sind. Ein selbstfahrender Wagen sollte nicht plötzlich unerwartete Dinge tun. So läuft das mit Zahlen und Wahrscheinlichkeits-Berechnungen.“
Wagner hält es zwar für richtig, Normen und Richtlinien festzulegen, aber er bezweifelt gleichzeitig, dass ein solches Modell beibehalten werden kann. Denn die Technologie entwickelt sich rasant. Jedes Mal ein neues Modell zu entwerfen erscheint viel zu umständlich. Auch Schallaböck hält dies für ein schwieriges Thema: „Normen wie die ISO-Marken sind immer gut, aber muss man dann für jede Anwendung von KI eine neue Norm schaffen? Diese Verfahren sind zeitaufwändig und sehr teuer.“
Und natürlich stellt sich die Frage, wer wann die Aufsicht hat. Und, wer verantwortlich ist. Wie Lingenfelder schon betonte, geht die KI über lokale Grenzen hinaus. Sie hat internationale Auswirkungen auf allen Ebenen der Gesellschaft. Alle drei zitierten Experten können noch keine klare Antwort auf diese Fragen geben. Vielleicht soll ein EU-Gremium eingerichtet werden, das die Einhaltung der Vorschriften überwacht? Schallaböck: „Wir haben jetzt die GDPR [General Data Protection Regulation], aber das ist bei weitem nicht genug. Noch haben wir keine Antwort auf die Gefahren der KI. Sie ist eine Gefahr nicht nur für die Demokratie, sondern auch für die Rechte des Einzelnen.“
Bild oben: Datensammlung durch KI @Pixabay
DIESER ARTIKEL KÖNNTE SIE AUCH INTERESSIEREN
DIE DSGVO IM EINSATZ – WIE IHRE DATEN GESCHÜTZT WERDEN
ZIELGERICHTETE WERBUNG BEI FACEBOOK
Dieser Artikel erschien am 9.2.2019 in Kooperation mit Milan Lentes in der Innovation Origins .