Nach oben…

Kann der Chatbot ChatGPT einen Beitrag zur Lösung drängender Probleme leisten?

Superintelligenz, Sprachgenie und machtvollstes Instrument der Menschheit – das ist nur eine kleine Auswahl an euphorischen Beschreibungen über ChatGPT. Unbestreitbar hat ChatGPT die Informationssuche im Internet – beziehungsweise ganz grundlegend formuliert: die Kommunikation zwischen Mensch und Maschine – stark verändert.

Seit November 2022 ist der Chatbot des Techunternehmens OpenAI für alle nutzbar. Mit bisher nie dagewesenem Tempo hat ChatGPT seitdem mehr als 100 Millionen Nutzer*innen weltweit gewonnen und verzeichnet mittlerweile monatlich mehr als 1,5 Milliarden Besuche auf der Website (Stand Juli 2023). Microsoft verspricht sich viel von dem Geschäft mit künstlicher Intelligenz und hat mehrere Milliarden US-Dollar in das Techunternehmen investiert. Anders als Suchmaschinen produziert ChatGPT aus Trainingsdaten menschenähnliche Sprache und Texte zu allen denkbaren Fragen: Rezeptideen, Gedichte, Informationen zu historischen Ereignissen, Werbetexte, Programmier-Codes, Übersetzungen, Briefe ans Finanzamt – die möglichen Einsatzgebiete für ChatGPT sind nahezu unbegrenzt. Aber kann ChatGPT die euphorischen Erwartungen erfüllen, wenn man genauer hinschaut? Wir wollen deswegen untersuchen, ob ChatGPT einen innovativen Beitrag zur Bewältigung der drängenden globalen Probleme leisten kann oder nur die nächste KI-Gelddruckmaschine ist.

Sprachmodelle wie ChatGPT arbeiten mit Vorhersagen. Auf Aufforderung generieren sie eine Antwort, indem sie in den großen Textmengen der Trainingsdaten nach Wortmustern suchen und mithilfe von Wahrscheinlichkeitsverteilungen vorhersagen, welches Wort in Bezug auf die Eingabe das nächste Wort ist. Dabei ist ChatGPT im Wesentlichen eine Blackbox – nicht einmal die Entwickler*innen selbst können wirklich sagen, wie es zu einer bestimmten Antwort kommt. Das mag für kreative Aufgaben gut sein, aber nicht, wenn sachliche und exakte Antworten entscheidend sind, wie etwa bei Fragen zum Klimawandel.

Ein Faktencheck der Antworten auf klimabezogene Fragen hat gezeigt, dass ChatGPT in groben Zügen häufig richtig lag. Bei einigen Antworten wurden allerdings Fehler und Ungenauigkeiten in den Details erkannt. So produziert ChatGPT mitunter sogenannte Halluzinationen. Das heißt, dass es Tatsachenbehauptungen aufstellt, die durch keine Quellen verifiziert werden können. Außerdem neigt ChatGPT dazu, lieber sinnlose Vermutungen anzustellen, als unbeantwortbare Fragen zurückzuweisen. Dazu kommt eine Verzerrung im Sprachmodell, die sich dadurch zeigt, dass nicht nur sachliche und neutrale Informationen gegeben werden, sondern auch politisch voreingenommene Antworten, die zwischen linksliberal oder rassistisch schwanken. Dies wird vor allem auf die zum Training eingesetzten Daten und die spezifische Wortwahl bei der Anfrage zurückgeführt. All diese offensichtlichen Schwächen des Modells werden noch dadurch verstärkt, dass Benutzer*innen aufgrund der Eloquenz der Formulierungen von ChatGPT dazu verleitet werden, den generierten Antworten grundsätzlich zu vertrauen.

Die hohen Rechenkosten des zugrundeliegenden Sprachmodells GPT-3.5 weisen auf ein weiteres Problem von ChatGPT hin: Das Training und der Betrieb benötigen enorm viel Energie. Allein das Training des Sprachmodells dauerte mehrere Monate und konnte aufgrund der benötigten hohen Rechenleistung nur auf eigens dafür entwickelten Supercomputern durchgeführt werden, in die zehntausende Grafikprozessoren verbaut wurden. Auch wenn es bislang keine verlässlichen Zahlen zum Stromverbrauch von ChatGPT selbst gibt, konnte gezeigt werden, dass große Sprachmodelle allein für das Training auf einen Stromverbrauch kommen, der dem täglichen durchschnittlichen Bedarf von acht Millionen Wohnungen in Deutschland entspricht – und da sind Strombedarf der Hardwareproduktion sowie des laufenden Betriebs noch nicht eingerechnet. Der eigentliche Strom- und Ressourcenverbrauch von ChatGPT bleibt aber bislang im Unklaren und ist somit Teil der Blackbox.

Immer größere Modelle führen außerdem zu einer Marktkonzentration großer Techunternehmen, deren Hauptziel Profit und nicht das Gemeinwohl ist. Auch OpenAI – einst als gemeinnütziges Forschungsunternehmen gestartet – hat mit dem Einstieg von Microsoft eine Kehrtwende hin zu einem profitgesteuerten Unternehmen vollzogen. Die Funktionsweise und Trainingsdaten der großen Modelle sind nicht öffentlich zugänglich, sondern »geschlossen«, womit sich problematische Entwicklungen verstärken, weil unabhängige Forschung behindert wird, Modelle nicht nachvollziehbar sind und Diskriminierungspotenziale nicht erkannt werden können. Jedoch steht den großen geschlossenen Modellen eine wachsende Open-Source-Bewegung gegenüber, die vielversprechende Fortschritte bei offenen Versionen von Sprachmodellen macht.

Von den ursprünglichen Transparenzversprechen, mit dem OpenAI die KI-Branche reformieren wollte, ist mittlerweile nichts mehr übrig. Innovativ ist das nicht, da sich das Unternehmen mit ChatGPT nahtlos einfügt in die Closed-Source KI-Branche, deren Modelle bestehende gesellschaftliche Asymmetrien eher verstärken. Ob ChatGPT zukünftig zur Lösung globaler Probleme beitragen kann und nicht nur den Investoren von OpenAI große Gewinne beschert, wird sich zeigen. Ausschlaggebend wird eine entschiedene, dem Gemeinwohl verpflichtete Gesetzgebung sein, die die Branche zu mehr Transparenz sowohl hinsichtlich der Funktionsweise der Sprachmodelle und der verwendeten Trainingsdaten als auch der Energieverbräuche verpflichtet, sowie die Förderung von Open-Source-Modellen.


 

Johanna Pohl und Maike Gossen gehören zum Arbeitskreis für zukunftsfähige Digitalität, der mit dem Rat für digitale Ökologie zusammenarbeitet. Der Arbeitskreis hinterfragt digitale Entwicklungen aus sozialökologischer Perspektive.

Dieser Artikel erschien zuerst in der taz FUTURZWEI, Magazin für Zukunft und Politik, Ausgabe 26