In einer Ära, in der der Fortschritt der künstlichen Intelligenz (KI) unsere Wahrnehmung von Realität und Fantasie herausfordert, haben wir es mit einer Reihe von starken Emotionen zu tun. Darunter: Überheblichkeit, Angst und Begeisterung. Die Mehrheit von uns ist wahrscheinlich noch verwirrt oder misstrauisch, doch am bemerkenswertesten sind die extrem negativen Reaktionen der plötzlichen KI-Experten.
Dabei zeigt sich eine merkwürdige Inkonsistenz in der Argumentation dieser Kritiker. Zum einen glauben sie, dass KI viele Arbeitsplätze zerstören wird, während sie andererseits davon überzeugt sind, dass KI die Fähigkeiten eines Menschen nicht replizieren kann. Wie lassen sich diese Überzeugungen vereinbaren? Ebenso sehen sie den KI-Hype als Werk von vereinzelten Betrügern und unfähigen Menschen, gleichzeitig aber als riesige Bedrohung, die von der Mehrheit aufgebauscht wird. Solche Widersprüche können nicht ohne Weiteres ignoriert werden.
Daher präsentiere ich einen Versuch, die vier populärsten Fehlannahmen über KI zu widerlegen. Meine Qualifikation? Ich weiß es noch viel besser als alle anderen Experten (und ich habe 7 Jahre bei DeepMind gearbeitet).
1. These: „ChatGPT erstellt menschenähnliche Texte, aber funktioniert ganz anders.“
Gegenthese: Sowohl KI als auch Menschen nutzen Mustererkennung, um Texte zu verarbeiten und zu erstellen.
Obwohl ChatGPT und Menschen unterschiedliche „Mechanismen“ verwenden, um Sprache zu verarbeiten, beruhen beide auf Mustererkennung. Menschliche Sprachverarbeitung beinhaltet Grammatikregeln, Assoziationen und gelegentliche Wörterbuchnutzung – Prozesse, die auch in generativer KI stattfinden.
Es stimmt, dass KI kein Bewusstsein oder Verständnis hat, aber es ist irreführend, einen großen Unterschied in der Sprachverarbeitung anzunehmen. Menschen können zusätzlich Emotionen und Erfahrungen in Texte einfließen lassen. Das ist viel eher das, was sie besonders macht.
2. These: „Die Verarbeitung von bestehenden Texten ist eine Stärke von ChatGPT.“
Gegenthese: Die Verarbeitung von bestehenden Texten ist eher die grundlegende Funktionsweise von ChatGPT. Die Unterscheidung zwischen Textgenerierung und Texttransformation kann bei ChatGPT nicht gemacht werden. Die gesamte Architektur hinter diesem Sprachmodell nennt sich aus gutem Grund „Transformator“.
Nutzereingaben sind entscheidend dafür, welche Assoziationen in ChatGPT aktiviert werden. ChatGPT abstrahiert Eingaben und Trainingsdaten in viele Milliarden Parameter, bevor die Transformation oder Generierung stattfindet.
Ein neues Forschungspapier von OpenAI beschreibt den Versuch, diesen Interpretationsebenen von ChatGPT ihre semantischen Funktionen zuzuordnen. Hierbei ist wichtig, dass dies ein nachträglicher Prozess ist, und die Entwickler von ChatGPT die einzelnen Bedeutungsebenen ihrer eigenen Software während ihrer Schaffung nicht kannten.
3. These: „ChatGPT hat kein Verständnis.“
Gegenthese: ChatGPT simuliert Verständnis, indem es Texte umformuliert, ohne den Inhalt zu verfälschen.
Menschliches Verstehen ohne menschlichen Verstand ist tatsächlich nicht möglich, duh! Aber ChatGPT kann dennoch Verständnis simulieren. Eine nützlichere Aussage wäre, dass ChatGPT im Vergleich zu Menschen schlechter darin ist, Wahrheit und Unwahrheit zu unterscheiden. ChatGPT wendet aber sehr wohl Konzepte von wahr und falsch an: Wann immer es die Parameter für „wahr“ und „falsch“ aktiviert und damit alle ihre sprachlichen Assoziationen.
Aber: Der Wahrheitsgehalt von Aussagen wird von ChatGPT unterschiedlich bewertet, abhängig von der Priorität und Komplexität des Arbeitsauftrags.
Wird es primär dazu angeleitet, die Wahrhaftigkeit von Aussagen zu bewerten, funktioniert das mit GPT-4 inzwischen überwiegend gut.
Ist die Generierung von wahren Aussagen aber lediglich im Arbeitsauftrag impliziert und ist dieser zusätzlich sehr komplex, dann könnte ChatGPTs Kreativität der Ausgabe zum Verhängnis werden. Dort ist „wahr/falsch“ dann nur ein Aspekt unter Milliarden, die die KI berücksichtigt (und ggf. vernachlässigt).
4. These: „ChatGPT ist Autovervollständigung mit ganzen Sätzen.“
Gegenthese: ChatGPT ist mehr als Autovervollständigung, da es Sentiment analysiert und Intentionen des Nutzers erkennt.
Die Beschreibung von ChatGPT als Autovervollständigung mit ganzen Sätzen ist reduktiv und wird dem vollen Funktionsumfang von Sprachmodellen nicht gerecht. ChatGPT kann Sätze vervollständigen und zu ganzen Texten erweitern, aber es wird meist für Frage-Antwort-Dialoge oder Anweisung-Ausführung-Szenarien verwendet.
Das liegt daran, dass ChatGPT nicht nur Wahrscheinlichkeiten für die nächsten Wörter berechnet, sondern auch Sentiment analysiert und die Intention des Nutzers erkennt. Es ergänzt somit nicht nur Eingaben, sondern generiert auch gezielte Ausgaben.
Ein weiterer Aspekt von ChatGPT ist das sogenannte „emergente Verhalten“. Forscher im Bereich KI verwenden diesen Begriff, um jene Funktionalitäten zu beschreiben, die ein Sprachmodell durch längeres Training und eine größere Parameteranzahl scheinbar spontan entwickelt. Dazu gehört das 'Reasoning', also ein gewisser Grad an logischem Denken und Schlussfolgern.
Beispielsweise kann ChatGPT die Auswirkungen eines theoretischen Ereignisses Schritt für Schritt antizipieren. GPT-4 zeigt in dieser Hinsicht bereits eine deutliche Verbesserung gegenüber GPT-3.
Die Tatsache, dass verschiedene Modelle unterschiedlich gut in der Schlussfolgerung sind, legt nahe, dass diese Fähigkeit zumindest teilweise maschinell simuliert werden kann. Daher ist es möglich, dass Sprachmodelle wie ChatGPT in der Zukunft erfolgreich ein Verständnis von Wahrheit simulieren könnten.
Schlusswort
Die polarisierenden Reaktionen auf KI spiegeln eine Reihe von Emotionen und Überzeugungen wider, die nicht immer kohärent oder informiert sind. Es ist wichtig, solche Perspektiven zu hinterfragen und zu verstehen, während wir uns weiterhin in diese Ära der KI-Entwicklung bewegen. Es ist ebenso entscheidend, die Diskussion über KI auf Basis von Wahrheit und fundiertem Verständnis zu führen, anstatt sie von voreingenommenen Meinungen und fehlgeleiteten Annahmen leiten zu lassen.