DEMOKRATISCH – LINKS

                      KRITISCHE INTERNET-ZEITUNG

RENTENANGST

Künstliche Intelligenzen

Erstellt von Redaktion am Sonntag 1. November 2020

Debatte um Künstliche Intelligenz für alle

File:Künstliche Intelligenz, Algorithmen und die Arbeit von Morgen (41864304451).jpg

Von Svenja Bergt

Regulierungen müssen sicherstellen, dass vom KI-Einsatz nicht nur ein paar Unternehmen profitieren, sondern die ganze Gesellschaft.

Dubai führt ein System zur Gesichtserkennung im öffentlichen Nahverkehr ein. In Japan hilft Roboterhund Aibo Menschen durch die Einsamkeit der Coronazeit. Deutschland und Frankreich veröffentlichen eine gemeinsame Förderrichtlinie zur ­Erforschung von Vorhaben im Bereich Künstlicher Intelligenz.

Drei Meldungen aus der aktuellen Woche. Aus der Woche, in der die Enquetekommission Künstliche Intelligenz des Bundestages das letzte Mal tagte und am Mittwoch schließlich ihren Abschlussbericht an Bundestagspräsident Wolfgang Schäuble (CDU) übergab. Drei Meldungen, die ganz exemplarisch skizzieren, wie die Welt bezüglich der Künstlichen Intelligenz (KI) aussieht: In den Industrieländern ist sie längst im Einsatz. In einigen im Alltag präsenter, mit Roboterhunden, mit digitalen Barkeeper:innen oder einem weitgehend von Robotern betriebenen Hotel, wie in einem japanischen Vergnügungspark. Doch auch in Deutschland verwenden Nutzer:innen KI im Alltag. Sie steckt etwa in Sprachassistenten wie Siri oder Alexa. Sie ermöglicht die Bild­erkennung in Onlinenetzwerken und das automatische Optimieren von Fotos in Smartphones. Sie findet sich in Einparkhilfen von Autos, in der Überwachung von Passant:innen, wie bei einem Projekt am Berliner Fernbahnhof Südkreuz, und in medizinischen Diagnosehilfen.

Dass KI-Anwendungen mittlerweile in der Praxis angekommen sind, haben auch die Mitglieder der jeweils zur Hälfte mit Bundestagsabgeordneten und mit externen Expert:innen besetzten Enquetekommission mitbekommen. Was allerdings fehlt: Konsequenzen. Allen voran sperrte sich die Union gegen klare Empfehlungen zur Regulierung von KI-Anwendungen. Dass solche in naher Zukunft auf anderem Weg Eingang in den parlamentarischen Prozess finden werden, ist eher unwahrscheinlich. Eine Fehlentscheidung, deren Folgen die Gesellschaft spätestens in einigen Jahren zu spüren bekommen wird.

Denn auch wenn KI-Anwendungen längst im Alltag angekommen sind – unumgänglich sind sie nicht, noch nicht. Und das betrifft beide Seiten: Sowohl Verbrau­che­r:in­nen und Bürger:innen als auch Unternehmen oder Behörden, die die Anwendungen nutzen wollen, sind aktuell noch nicht auf ihren Einsatz angewiesen. Medizin, Strafverfolgung, Haushalt – kein System wird hierzulande zusammenbrechen, wenn KI strenger reguliert wird. Und das ist eine Chance. Auch wenn seit mehr als 50 Jahren rund um KI geforscht wird – lange ging es dabei um akademisch und technisch spannende, aber praktisch ziemlich nutzlose Projekte. Doch jetzt befinden wir uns in der Anfangsphase der Marktreife. Und die bietet die Möglichkeit, ein paar Fragen zu stellen, zu diskutieren und im besten Fall als Gesellschaft einen möglichst breit getragenen Ansatz für den Umgang mit KI zu finden, bevor sie unverzichtbar wird.

Zum Beispiel: Was wollen wir überhaupt von KI? Was soll sie leisten? Wo können und sollen wir Grenzen setzen? Wie sieht es aus in Sachen Transparenz? Wer überprüft, ob eine KI das macht, was sie soll? Oder das, was ihr Auftraggeber behauptet? Wer haftet, falls das nicht der Fall ist? Wer haftet überhaupt? Wie lässt sich vermeiden, dass KI diskriminiert? Und wie lässt sich das überprüfen? Wie gehen wir mit dem Datenhunger um, den ein guter Teil der KI-Anwendungen mitbringt? Und dem Energiehunger? Und ist KI überhaupt gleich KI? Wäre es nicht sinnvoll, eine KI, die Waldbrände anhand von Satellitenbildern erkennen soll, anders zu behandeln als eine, die entscheidet, ob Bewerber:innen zum Vorstellungsgespräch eingeladen werden?

Stichwort Haftung. Ein Unternehmen programmiert die KI-Anwendung. Der Autokonzern baut sie in sein selbstfahrendes Auto ein. Das verursacht einen Unfall. Wer zahlt nun? Der Hersteller der Software? Oder der Autohersteller? Oder eine Versicherung? Oder der:die Fahrer:in? Und, noch komplizierter: Wie lässt sich überhaupt herausfinden, ob der Fehler in der KI lag? Ist doch das Wesen dieser Anwendungen mitunter das, was als Black Box bezeichnet wird: Was darin passiert, ist auch für die Entwickler:innen längst nicht immer nachvollziehbar.

Stichwort Diskriminierung. Legendär ist das Beispiel von Seifenspendern, deren Sensoren nur dann die Aufforderung zum Seifenspenden erkannten, wenn eine weiße Person ihre Hand darunter hielt. Noch gravierender wird es, wenn Algorithmen selbstfahrender Autos People of Color schlechter erkennen als weiße Menschen. Oder: Ein selbstlernender Algorithmus bevorzugte bei der Bewerberauswahl männliche Kandidaten – einfach deshalb, weil sich in der Vergangenheit vorwiegend Männer beworben hatten. Anhand dieser Trainingsdaten stufte die Software Männer damit als geeigneter ein. Jüngstes Beispiel: Weil Schü­le­r:innen in der Pandemie ihre Abschlussarbeiten nicht schreiben konnten, errechnete in Großbritannien ein Algorithmus die Schulabschlussnoten. Das Nachsehen hatten eigentlich gute Schüler:innen von Schulen, bei denen die Ergebnisse der gesamten Schule in der Vergangenheit unter dem Durchschnitt lagen. Deren durch den Algorithmus errechnete Noten lagen deutlich unter denen, die ihre Lehrer:innen vorhergesagt hatten. Auf öffentlichen Druck hin stoppte die britische Regierung schließlich das Projekt.

KIT Armar 27.jpg

Stichwort Transparenz. Automatisierte Entscheidungsfindung ist ein beliebtes Gebiet von KI-Anwendungen. Ob es um den Tarif einer Autoversicherung geht oder die Risikoeinstufung bei einem Kredit oder darum, vorherzusagen, in welcher Region Wohnungseinbrüche zu erwarten sind. Der aktuelle „Automating Society“-Report, den AlgorithmWatch und die Bertelsmann-Stiftung passenderweise ebenfalls diese Woche veröffentlicht haben, kommt zu dem Ergebnis: Transparent geht es bei der automatischen Entscheidungsfindung selten zu. Schon bei der Einführung gebe es meist keine breite gesellschaftliche Debatte. Symptomatisch dafür ist auch, dass es die Enquetekommission Künstliche Intelligenz mit Transparenz nicht so hatte. Die Vorträge waren zwar öffentlich, die – mutmaßlich weitaus interessanteren – Diskussionen aber nicht. Dabei hätten genau die Anstöße geben können zu einer allgemeinen Auseinandersetzung mit Künstlicher Intelligenz.

Quelle        :       TAZ        >>>>>        weiterlesen

—————————————————————-

Grafikquellen      :

Oben       —          Berlin: Talk: Künstliche Intelligenz, Algorithmen und die Arbeit von Morgen Speaker: Björn Böhning, John-Dylan Haynes, Kerstin Jürgens, Caterina Lobenstein

Die re:publica ist eine der weltweit wichtigsten Konferenzen zu den Themen der digitalen Gesellschaft und findet in diesem Jahr vom 02. bis 04. Mai in der STATION-Berlin statt. Foto: Gregor Fischer/re:publica

This file is licensed under the Creative Commons Attribution-Share Alike 2.0 Generic license.

Checked copyright icon.svg This image was originally posted to Flickr by re:publica 2018 #PoP at https://flickr.com/photos/36976328@N04/41864304451 (archive). It was reviewed on  by FlickreviewR 2 and was confirmed to be licensed under the terms of the cc-by-sa-2.0.

———————-

Unten       —       Exkursion der WikiCon zum KIT, Institut für Anthropomatik, mit verschiedenen Armar-Generationen, Armar IIIa in der Versuchsküche

Kommentar schreiben

XHTML: Sie können diese Tags benutzen: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>