Nach oben…

Künstliche Intelligenz-Systeme sollen objektivere und ausgewogene Entscheidungen ermöglichen. Doch sie können scheitern.
Immer mehr Entscheidungen in unserer Gesellschaft sollen künftig automatisierten Systemen überlassen werden, die nicht nur beurteilen, ob wir Jobs, Kredite oder eine Wohnung bekommen, sondern die auch Tumore erkennen, Klimaprognosen machen oder Texte schreiben können. Diese Systeme maschinellen Lernens, die häufig auf neuronalen Netzen beruhen und als „künstliche Intelligenz“ (KI) bezeichnet werden, können – so ihr Versprechen – mehr Informationen verarbeiten, schneller und effizienter prozessieren. Zukünftig sollen sie gar gerechtere Ergebnisse produzieren als der Mensch – mit seinen „beschränkten“ kognitiven Kapazitäten.

Um Maschinen aber beizubringen, vernunftorientierte und kontextspezifische Entscheidungen zu treffen, bedarf es mehr als reiner Rechenleistung. Denn das, was die KI und ihre Algorithmen mit der Realität menschlicher Lebenswelten verbindet, sind vor allem die Daten.

So geht es heute darum, die KI-Modelle mit immer größeren Datensets zu trainieren und die 'smarten' Algorithmen derart zu verbessern, dass sie aus dem Meer an Daten jene herausfischen, die für das jeweilige „Optimierungsproblem“ – sei es eine Kreditvergabe oder der gerichtliche Urteilsspruch – die angemessene Lösung finden. Detailliertere mathematische Modelle mit unzähligen Parametern und Abermillionen Rechenoperationen versprechen dabei die „Objektivierung des Subjektiven“, das heisst, klarere, bessere Entscheidungen. Doch die Daten, die der Standardisierung von Werten und Normen dienen sollen, entfalten nicht selten eine ganz eigene Autorität, die mehr als bedenklich ist.

Das Datenmeer, aus denen die Modelle ihre Informationen extrahieren, bietet keineswegs Gewähr für eine automatisierte Gerechtigkeit. Es kann, je nach Datenset, auch voller Verzerrungen (engl. Biases), diskriminierender Spitzfindigkeiten und historischer Mucken stecken, sodass auch die smartesten Algorithmen nicht selten der Reproduktion eines heiklen Status quo Spalier stehen. So sind etwa KI-Systeme, die der Gesichtserkennung dienen sollen, nicht selten fehlerhaft, wenn es um die Erkennung von „people of color“ geht, weil sie mit Fotos von Weißen trainiert wurden. Robert Julian-Borchak Williams wurde im Januar 2020 von der Detroiter Polizei für 30 Stunden in Gewahrsam genommen, obwohl er nichts getan hatte. Die KI hatte versagt, sein Gesicht verwechselt und die Polizei richtete sich – zu lange – nach ihrem Urteil. Auch KI-gestützte Bewertungssysteme offenbaren immer wieder problematische Biases. Beim US-Konzern Amazon wurden über Jahre hinweg Frauen in Bewerbungsprozessen benachteiligt, weil die Datensätze auf Männer zugeschnitten waren. Algorithmen sind zwar mathematisch formalisiert, aber weder objektiv noch neutral, insofern sie auf historischen Datensets beruhen und von Menschen programmiert werden. Frei nach dem Motto ‚Die Grenzen meiner Daten, sind die Grenzen meiner Welt‘ agieren sie niemals unpolitisch, niemals ideologiefrei und können falsche Schlussfolgerungen nicht nur fortschreiben, sondern rassistische Diskriminierungen, sexistische Vorurteile und Ungerechtigkeiten sogar manifestieren – ganz systematisch produzieren.

Ein immenser Aufwand wird daher betrieben, um den Algorithmen mittels „kuratierter Datensets“ oder aufwändiger Werkzeuge zur Bewertung der Fairness eine gesellschaftlich vertretbare Entscheidungsfindung beizubringen. Doch Daten allein können die Pluralität, Vielschichtigkeit und Ambivalenzen unserer Gesellschaften nur sehr unzureichend abbilden. Wir müssen heute mehr denn je kritisch hinterfragen, wo wir Entscheidungsmacht an Algorithmen abgeben wollen. Denn die Idee, das Fischen im Meer der Daten könne uns gesellschaftliche Aushandlungsprozesse oder vernunft- und wertorientierte Entscheidungen abnehmen, erscheint heute vielleicht ziemlich 'smart'. Möglicherweise ist sie aber gar nicht immer so schlau.


 

FRIEDERIKE ROHDE UND FELIX MASCHEWSKI gehören zum Arbeitskreis für zukunftsfähige Digitalität, der mit dem Rat für Digitale Ökologie zusammenarbeitet. An dieser Stelle hinterfragt der Arbeitskreis digitale Entwicklungen aus sozialökologischer Perspektive.

Erschienen in der taz FUTURZWEI, Magazin für Zukunft und Politik, Ausgabe 18  unter dem Titel "Sind Algorithmen rassistisch?"