DEMOKRATISCH – LINKS

                      KRITISCHE INTERNET-ZEITUNG

RENTENANGST

Industrie: Keine roten Linien

Erstellt von DL-Redaktion am Montag 8. April 2019

Industrie entschärft Ethik-Leitlinien für Künstliche Intelligenz

Laundry.JPG

Waschtag auch in Singapore

Quelle       :       Netzpolitik.ORG

Von  

Künstliche Intelligenz soll den Menschen dienen und Grundrechte respektieren. Das fordert eine Expertengruppe der EU-Kommission in ihren nun veröffentlichten Leitlinien für die Technologie. Unverrückbare ethische Prinzipien finden sich darin jedoch nicht mehr – Vertreterinnen der Industrie im Gremium haben sie erfolgreich gestrichen.

Wenn die EU-Kommission nun ihre neuen Leitlinien für den ethischen Einsatz von Künstlicher Intelligenz vorstellt, wird das ein großer Wurf. Mehr als neun Monate lang haben 52 Expertinnen und Experten an dem Dokument gearbeitet. Es soll eine Art Ethik-Handbuch werden für Menschen in der Politik, der Wirtschaft, den Software-Abteilungen. Welche Prinzipien müssen sie beachten, um „vertrauenswürdige KI“ zu schaffen, wie die Leitlinien das nennen? Eine, die den Menschen dient? Diese Fragen soll das 40-seitige Dokument beantworten.

Wer es liest, verspürt erstmal ein wohliges Gefühl. Von Menschenwürde ist hier viel die Rede, von Technologie, die den Menschen in den Mittelpunkt stellen und dem Wohl der Gesellschaft dienen soll. Im Gegensatz zum Potpourri, das die Bundesregierung vor einigen Monaten als KI-Strategie präsentiert hat, lesen sich die Leitlinien, als seien sie tatsächlich von Menschen formuliert worden. Sie sind erfrischend konkret und gespickt mit vielen Beispielen, wie KI zum Vorteil oder zum Verhängnis für unsere Gesellschaft werden kann. Es geht um Predictive Policing und Gesichtserkennung, um Algorithmen, die Frauen oder Minderheiten benachteiligen, und darum, dass Ethik nichts ist, was man auf einer Liste abhaken kann.

Rote Linien? Soll es in der EU nicht geben

„Es ist das Beste und das Substanziellste, was wir derzeit auf dem Planeten zu diesem Thema haben“, sagt auch der Ethikforscher Thomas Metzinger von der Universität Mainz, der an den Empfehlungen mitgearbeitet hat. Enttäuscht sei er trotzdem von dem Ergebnis. Wie so oft in politischen Abstimmungsprozessen stecken die Tücken im Detail. Die Leerstellen und kleinen sprachlichen Widerhaken, die mit dem bloßen Auge von außen kaum wahrzunehmen sind, sind nur für jene sichtbar, die miterlebt haben, wie sie dort wuchsen.

Was Metzinger und andere Mitglieder der Expertengruppe im Gespräch mit netzpolitik.org berichten, ist ein Lehrstück über die politischen Prozesse in Brüssel und die Lobbyarbeit der Industrie. Zum Beispiel die roten Linien: Er und sein Kollege Urs Bergmann, der Algorithmen für Zalando entwickelt, hätten anfangs den Auftrag erhalten, solche roten Linien zu definieren, sagt Metzinger: Werte, die nicht verhandelbar seien. Dinge, die in Europa mit Künstlicher Intelligenz auf keinen Fall gemacht werden sollten.

Mehrere Workshops haben sie dazu veranstaltet und eine Reihe solcher ethischer Sperrgebiete definiert: Forschung an autonomen Waffensystemen etwa; Citizen Scoring, wie es in China passiert; die automatisierte Identifikation von Personen mit Hilfe von Gesichtserkennung oder auch KI-Systeme, die verschleiert arbeiten.

Nur um dann mitzuerleben, wie die zahlreichen Vertreter*innen der Industrie im Gremium durchsetzten, dass der Begriff aus dem gesamten Dokument getilgt wird. Das Wort „nicht verhandelbar“ und der Ausdruck „rote Linien“ kommen in der Schlussfassung nicht mehr vor. Stattdessen geht es um „Bedenken“ und „Spannungen“, die sich zu den ethischen Leitprinzipien des Dokumentes ergeben könnten und darum, dass man „Abstriche“, die gemacht wurden, abwägen und dokumentieren soll. „Es gibt jetzt in diesem Dokument keine nicht verhandelbaren ethischen Prinzipien mehr“, kritisiert Metzinger. Man könne aber nicht über alles verhandeln, gerade wenn es um Grundrechte geht.

Ethics made by Nokia, SAP & IBM

Von den 52 Fachleuten, die das Papier erarbeitet haben, kommen 23 von Unternehmen wie Nokia, Google, Airbus oder IBM. Zählt man die Lobbyverbände mit, sind es 26 Köpfe aus der Industrie, die Hälfte der Gruppe also. Dagegen sind nur vier Fachleute für Ethik dabei und zehn Organisationen, die sich für Verbraucherschutz und Bürgerrechte einsetzen.

Für Ursula Pachl von der europäischen Konsumentenorganisation BEUC ist diese Gewichtung ein Problem. „Die ganze Zusammenstellung ist aus unserer Sicht zu industriedominiert und spiegelt nicht das Mandat in adäquater Weise wider.“ SAP etwa sei im Grunde drei Mal repräsentiert: einmal durch den KI-Experten Markus Noga, einmal durch den Lobbyverband Digitaleurope – und dann nochmal durch den Vorsitzenden der Expertengruppe Pekka Ala-Pietilä, der im Aufsichtsrat des Softwareherstellers sitzt. Ein akademischer Experte für Datenschutz fehlt dagegen völlig. „Das ist erstaunlich“, sagt Pachl, „weil KI doch sehr eng mit Datennutzung und Datenschutz verbunden ist.“

In den Diskussionen seien die Industrie-Teilnehmer*innen sehr darauf aus gewesen, die Risiken von KI herunterzuspielen, berichtet Pachl. Allen voran: Cecilia Bonefeld-Dahl, Leiterin von Digitaleurope. Es ist der wohl wichtigste Lobbyverband der globalen IT-Branche in Brüssel, ein Zusammenschluss von 65 großen Unternehmen. Darunter finden sich Google, Facebook, Apple, Amazon und Microsoft, aber auch nationale Handelsverbände wie der deutsche BITKOM, die hier ihre Interessen bündeln. In der Expertengruppe habe Bonefeld-Dahl dafür gesorgt, dass KI vor allem positiv wegkommt, sagt Pachl – und der Begriff „rote Linien“ aus dem Dokument getilgt wird. Auf Nachfrage von netzpolitik.org wollte die Chefin von Digitaleurope das nicht kommentieren.

Langzeitrisiken: Lesen sich nicht gut

Auch ein Abschnitt zu den potentiellen Langzeitrisiken der Entwicklung von KI ist komplett verschwunden. Dort hatten Metzinger und andere auf die Gefahr verwiesen, Systeme könnten irgendwann so intelligent werden, dass sie sich verselbständigen, ein eigenes Bewusstsein entwickelten oder sogar eine eigene Moral. Diese aus der Science Fiction bekannten Szenarien seien zwar sehr unwahrscheinlich, räumt Metzinger ein. Trotzdem sollte man auch solche Risiken nicht außer acht lassen.

Anderen Mitgliedern der Gruppe ging das zu weit. Vor allem die Ethikerin Virginia Dignum und der Philosoph Luciano Floridi, der zuletzt Google bei seinen Ethikvorhaben beraten wollte, hatten mit Rücktritt gedroht, sollten die Bedenken im Dokument bleiben. Jetzt steht zu den potentiellen Langzeitrisiken nur noch der in einer Fußnote versteckte Hinweis: „Während einige von uns meinen, auch starke KI, künstliches Bewusstsein, künstliche moralische Agenten, Superintelligenz (…) könnten Beispiele für solche Langzeitrisiken sein, halten viele andere dies für unrealistisch.“

Alles sauber: Ethik als Aufführung

Als „ethics washing“ bezeichnet Metzinger diese Praxis: Unternehmen betreiben eine ethische Debatte mit dem Ziel, gesetzliche Regeln aufzuschieben oder ganz zu verhindern. Je länger die Debatte läuft, so das Prinzip, umso länger dauert es, bis tatsächliche Gesetze das eigene Geschäftsmodell stören. In diese Kategorie fällt etwa das neue Institut für Ethik in der KI, das Facebook in München finanziert, aber auch die Leitlinien, die sich Unternehmen von Google bis SAP derzeit selbst im Umgang mit KI auferlegen.

Diese Aufführung von Ethik als Ersatz für Regulierung kultivierten aber nicht nur Unternehmen, sagt Metzinger, sondern manchmal auch die Politik. Man muss unweigerlich an die Datenethik-Kommission denken, die das Justiz- und Innenministerium im vergangenen Jahr einsetzten und in der 16 Expert*innen nun unter anderem über KI diskutieren. Oder den Digitalrat, der die Regierung ebenfalls zum Einsatz von Künstlicher Intelligenz berät. Oder die Wettbewerbskommission 4.0, die für das Wirtschaftsministerium Empfehlungen zur Regulierung von Facebook und anderen Datenhändlern abgeben soll.

Bemerkenswert konkret

Die Leitlinien der EU-Kommission wiederholen vieles, was existierende Ethik-Checklisten für „verantwortliche Algorithmen“ oder „ethisches Design“ bereits raten. Vertrauenswürdige KI-Anwendungen sollten demnach so entwickelt und eingesetzt werden, dass sie menschliche Autonomie respektieren, Schaden verhindern, fair und nachvollziehbar funktionieren. Sie sollen außerdem verantwortlich eingesetzt werden, unter rationaler Abwägung der Vor- und Nachteile für einzelne Menschen, die Gesellschaft, die Umwelt.

Worin sich dieses Dokument tatsächlich abhebt, sind die Details. Wo bisherige Selbstverpflichtungen Schlagwörter wie Transparenz, Gleichberechtigung, Datenschutz und Verantwortung bloß nennen, werden die Autor*innen bemerkenswert konkret. Sie liefern Antworten auf die Frage: Was bedeutet das nun? Etwa dass schon vor der Entwicklung einer Technologie eine Abschätzung gemacht werden muss, ob und wie sie sich auf Grundrechte wie die Meinungsfreiheit auswirkt. Oder dass Systeme Menschen darin unterstützen sollten, informierte Entscheidungen zu treffen, statt sie zu manipulieren.

Von Kapitel zu Kapitel wird das Dokument immer handfester, bis am Ende klare Empfehlungen stehen, wie man diese Ziele erreicht: mit einem bestimmten Bauplan für Algorithmen etwa, aber auch mit ganz untechnischen Mitteln wie Regulierung und einem möglichst vielfältigen Entwicklungsteam.

Ein Knackpunkt aus der Sicht vieler Expert*innen ist zum Beispiel die Erklärbarkeit von algorithmischen Entscheidungsprozessen: Die Algorithmen, die eine Entscheidung ausspucken – etwa ob jemand eine bestimmte Sozialleistung erhält, einen Kredit oder ein bestimmtes YouTube-Video vorgeschlagen bekommt – sind in ihrer Wirkungsweise oft undurchschaubar. Für Menschen wird es so unmöglich, die Entscheidung nachzuvollziehen, und im Fall von Fehlern schwer, dagegen Widerspruch einzulegen.

Das lässt sich ändern, wenn Algorithmen anders angelegt werden, allerdings für den Preis der Genauigkeit. Die Richtlinien gehen darauf ein und fordern: „Wenn ein KI-System einen entscheidenden Einfluss auf das Leben von Menschen hat, sollte es möglich sein, eine Erklärung des Entscheidungsprozesses einer solchen KI einzufordern.“ Wie das geschehen soll, wenn die Forschung derzeit noch an einer akzeptablen Lösung für dieses Problem arbeitet, bleibt unklar. So sagt auch die Arbeitswissenschaftlerin Sabine Theresia Köszegi von der TU Wien, die Arbeit am Bericht habe vor allem deutlich gemacht, dass das Problem der Erklärbarkeit von KI-Systemen weiter erforscht werden müsse.

Vieles kann, nichts muss

An Prinzipien und Empfehlungen mangelt es also nicht. Der Haken ist bloß: Auch die Ethik-Leitlinien der EU-Kommission sind nicht bindend. Sie dienen lediglich als Hilfestellung für Unternehmen, die sich selbst verpflichten wollen, ein freundliches Angebot sozusagen. Wer dagegen verstößt, muss mit keinen rechtlichen Konsequenzen rechnen. Reicht das aus? Der Ethiker Metzinger sagt: nein. „Wir brauchen Regeln, die bindend sind, durchsetzbar und demokratisch voll legitimiert“, sagt er. „Es geht nicht nur um Ethik.“

Auch Ursula Pachl von BEUC kritisiert: „Das ist viel zu wenig.“ Die entscheidende Diskussion müsse sich um Gesetze drehen und die Frage, ob der Status Quo ausreicht, um Verbraucher*innen auch in einem KI-getriebenen Markt zu schützen. Um Fragen der Produktsicherheit geht es dabei, um Datenschutz, aber auch um Haftungsregeln. Wenn mehrere Unternehmen involviert sind, wer ist dann verantwortlich, wenn etwas schief läuft? Wie können Nutzer*innen sich gegen automatisierte Entscheidungen wehren? Haben sie ein Recht zu wissen, ob sie mit einer Maschine telefonieren oder einem Menschen?

Diese Fragen sind auch Thema der Expertengruppe, denn die Leitlinien sind erst eine Hälfte ihres Arbeitsauftrages. In einem nächsten Schritt soll sie konkrete Empfehlungen an die EU-Kommission abgeben, wie der Einsatz von KI reguliert werden soll und wie Forschungsmittel verteilt werden. 20 Milliarden hatte die EU angekündigt zu investieren, es geht also um viel Geld. Und wie in allen bisherigen Phasen wird die Expertengruppe dabei unter großem Zeitdruck stehen: Bis spätestens Juni will die Kommission die Vorschläge vorliegen haben.

Ursula Pachl ist gemeinsam mit der Tech-Lobbyistin Bonefeld-Dahl dafür zuständig, die Vorschläge zu erarbeiten. Ihre Prognose: Es wird schwierig. Schon in der Vorgesprächen habe es ziemlich gefunkt. Digitaleurope sehe wenig Bedarf für strengere Gesetze. Derzeit liegt die Arbeit aber ohnehin komplett auf Eis: Weil man fürchtete, mit den ethischen Leitlinien nicht rechtzeitig fertig zu werden, sei die Diskussion über Gesetze im vergangenen November unterbrochen worden. Digitaleurope und den darin organisierten Unternehmen kommt das entgegen. Sie haben jetzt noch mehr Zeit, bevor die EU ihnen verpflichtende Regeln auferlegt. Und womöglich sogar Strafen, wenn diese nicht eingehalten werden.

Aufschlag für weltweite Standards

Die Leitlinien seien jetzt schon wesentlich besser als alles, was China und die USA bisher produziert hätten, sagt der Ethiker Thomas Metzinger. Sie könnten allerdings nur der Aufschlag für eine globale Verständigung auf ethische Standards sein, eine, die auch China und die USA einschließen muss. Sonst wird die Forschung und Entwicklung von Künstlicher Intelligenz einfach dorthin abwandern, wo sie freie Fahrt hat. Und vor allem sollte die Diskussion über Ethik aus den Gremien und Veranstaltungen von Google und Facebook wieder dorthin verlegt werden, wo sie unabhängig geführt werden kann, fordert er: in die Universitäten.

Lizenz: Die von uns verfassten Inhalte stehen, soweit nicht anders vermerkt, unter der Lizenz Creative Commons BY-NC-SA 4.0.

————————————————————–

Grafiquelle       :       Laundry being hung out to dry in Bukit Batok, Singapore

Kommentar schreiben

XHTML: Sie können diese Tags benutzen: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>