Wie funktioniert eigentlich Künstliche Intelligenz? Und wird sie irgendwann den Menschen ersetzen?

Liebe Ethikklasse G6ab,
In den letzten Jahren haben Large Language Models (LLMs) – wie sie in Systemen wie ChatGPT stecken – die spektakulärsten Entwicklungssprünge gezeigt. Auch andere KI-Bereiche entwickeln sich stetig weiter, doch aktuell prägen vor allem LLMs die öffentliche Diskussion. Aus diesem Grund konzentrieren wir uns im Folgenden ausschließlich auf Large Language Models wie ChatGPT.
Eigentlich ist KI eine Textvervollständigungsmaschine
Wir können uns diese wie eine große Maschine vorstellen, die, wenn man einen Satz eingibt, automatisch das nächste Wort (oder genauer: ein sogenanntes Token, also ein Wort oder ein Wortteil) vorhersagt. Dieses nächste Wort wird an den bisherigen Satz angehängt – und der Vorgang wird Schritt für Schritt wiederholt, bis eine vollständige Antwort entsteht. Man kann sich das vorstellen wie eine extrem schnelle, belesene Textvervollständigungsmaschine.
Sie funktioniert nicht durch Nachschlagen, sondern dadurch, dass sie Wahrscheinlichkeiten berechnet: Welches Wort passt – auf Grundlage der Wahrscheinlichkeit – am besten als Nächstes? Gesteuert wird diese Maschine durch eine enorme Zahl an Stellschrauben, die man Gewichte nennt. Sie bestimmen, wie Informationen im Inneren des Modells verarbeitet werden. Ein modernes Sprachmodell hat davon mehrere hundert Milliarden.
Auch die KI muss üben - und trainiert werden
Hat man so eine Textvervollständigungsmaschine gebaut, liefert sie anfangs nur Blödsinn – die Vorhersagen sind zufällig und wenig brauchbar. Deshalb muss das Modell trainiert werden. Beim Training werden die Gewichte – also die vielen Stellschrauben im Inneren des Modells – so eingestellt, dass die Vorhersagen immer besser werden.
Zunächst füttert man das Modell mit so vielen Texten wie möglich – also mit großen Teilen des frei verfügbaren Internets, digitalen Büchern, Foren, Quellcode usw. Dabei lernt das Modell, für einen gegebenen Text das nächste Wort vorherzusagen. Dieser erste Schritt wird Self-supervised Learning genannt, weil das Modell sich selbst die richtigen Antworten aus den Daten ableitet und dabei immer besser lernt, das nächste Wort vorherzusagen.
Wie die KI zur KI wird
Anschließend wird das Modell mit spezielleren Beispielen weiter trainiert. Dabei wird ihm gezeigt, wie hilfreiche und klare Antworten aussehen sollen. Diesen Prozess nennt man Alignment, weil das Modell dabei auf menschliche Werte und Erwartungen „ausgerichtet" wird. So entsteht aus einer reinen Textvervollständigungsmaschine ein dialogfähiger Assistent, der nicht nur plausible Sätze bildet, sondern auch nützliche Antworten liefert.
Jetzt haben wir also eine Maschine, die das nächste sinnvolle Wort und damit auch sinnvolle Sätze vorhersagen kann.
Schick uns deine Frage!
Du bist jünger als 19 Jahre, lebst in oder rund um Konstanz und hast eine Frage an eine Wissenschaftlerin oder einen Wissenschaflter? Immer her damit! Schicke einfach eine E-Mail an redaktion@karla-magazin.de mit der Betreffzeile „Meine gute Frage“. Eine Auswahl der Fragen wird im Familiennewsletter vom karla Magazin, hier auf campus.kn sowie auf der Website der HTWG veröffentlicht.
Die große Frage: Was kann KI eigentlich?
Viele Menschen denken, dass Sprachmodelle wie ChatGPT lediglich Sätze vervollständigen, die sie in ähnlicher Form schon einmal gesehen haben. Man spricht in diesem Zusammenhang auch von einem sogenannten Statistischen Papagei (Statistical Parrot). Doch das greift zu kurz.
Denn ab einer bestimmten Modellgröße – meist jenseits von zehn Milliarden Parametern – beginnen diese Modelle, Fähigkeiten zu zeigen und Lösungen zu entwickeln, die als solche nicht in den Trainingsdaten vorhanden sind: Programmieren, Matheaufgaben lösen, sogar Schachzüge analysieren. Sie produzieren also Ergebnisse, die sie so sicherlich nicht im Training gesehen haben.
Diese Fähigkeiten waren und sind für die Wissenschaft überraschend – sie entstehen aus der schieren Größe und Komplexität der Modelle, und man konnte nicht ahnen, dass diese Modelle tatsächlich so gut sein werden.
Die große Sorge: Ersetzt KI den Menschen?
Physisch verdrängen? Sehr unwahrscheinlich – denn Sprachmodelle wie ChatGPT haben, nach allem, was wir wissen, kein eigenes Bewusstsein, keine Zielsetzung und keine Absicht, selbstständig zu handeln. Sie reagieren auf Eingaben, aber sie entscheiden nicht selbst. Sprachmodelle erzeugen Text, keine Handlung.
Allerdings bedeutet das nicht, dass keine Gefahr besteht. Auch wenn die Modelle selbst keine Ziele verfolgen, können sie von Menschen mit schädlichen Absichten gezielt missbraucht werden. Das Risiko geht also weniger vom Modell selbst aus, sondern von seiner unkontrollierten oder missbräuchlichen Anwendung. Das ist aber bei vielen anderen Werkzeugen auch so.
Und was bedeutet das für Jobs?
Im Arbeitsmarkt gilt: Wer KI geschickt nutzt, wird produktiver; wer sie ignoriert, riskiert, von Kolleg:innen mit KI verdrängt zu werden. Welche Berufe betroffen sind, lässt sich heute nur grob abschätzen – sicher ist nur: In allen Bereichen, in denen KI eingesetzt werden kann, wird sie auch genutzt werden.
In einer Welt mit KI verschiebt sich die Wichtigkeit verschiedener Fähigkeiten. Nicht mehr das reine Auswendiglernen oder die perfekte Rechtschreibung und Grammatik stehen im Vordergrund – das können Maschinen übernehmen. Wichtiger wird, dass ihr eure Gedanken klar ordnet und präzise ausdrückt, ob in Sprache, Mathematik, Code oder Bildern.
So eröffnen sich Horizonte für neue Talente: auch für diejenigen, die früher vielleicht an klassischen Anforderungen gescheitert wären. Entscheidend ist, kritisch zu prüfen, was KI vorschlägt, und bereit zu sein, für die Ergebnisse einzustehen. Ihr seid die erste „AI-native Generation" – und ich gebe zu, ein wenig beneide ich euch darum.
Was ihr dazu wissen müsst
Was heißt das unter dem Strich? Nun. LLMs sind riesige Statistikmaschinen, die aus Webtexten lernen, das nächste Wort vorherzusagen. Nach gezieltem Feinschliff und unter menschlicher Aufsicht entwickeln sie beeindruckende und überraschende Fähigkeiten. Sie haben keine eigenen Absichten, können aber Arbeitsprozesse umkrempeln – wer sie kompetent nutzt, bleibt vorne.
Prof. Dr. Oliver Dürr ist Professor für Wirtschaftsinformatik mit Schwerpunkt Data Science an der HTWG Konstanz. Das heißt, er erforscht hauptsächlich Daten, indem er sie sammelt, auswertet bzw. analysiert, um zum Beispiel Vorhersagen über unterschiedliche Phänomene treffen zu können.

