ChatGPT, Deepseek und Co. sind drauf und dran, die Welt zu erobern. Als vor ein bisschen mehr als zwei Jahren diese Modelle zuerst ins öffentliche Rampenlicht gerieten, wurde heiß darüber diskutiert. Die ersten Reaktionen aus meinem persönlichen Umfeld sind mir geblieben und haben mich seitdem immer wieder begleitet. „Dieses KI-Zeug wird eh nie besser als wir Menschen“ oder „Naja, wir sind ja immer noch Menschen, die wird nicht besser als wir“ war der generelle Konsens in meinem Umfeld. Aus meinem Bauchgefühl heraus würde ich diesen Aussagen zustimmen, der Informatiker in mir stimmt jedoch nicht zu.
Im Rahmen des Informatikunterrichts an der Schule haben wir uns mit den Konzepten und technischen Grundlagen ebendieser Künstlichen Intelligenz beschäftigt. Auf die eine oder andere Weise basieren alle diese Modelle auf sogenannten „Transformern“. Seine Ursprünge nahm dieser 2017 bei Google. Die Grundidee dabei ist, dass – anstatt wie frühere Modelle Informationen schrittweise zu verarbeiten – der Transformer auf alle Teile der Eingabe gleichzeitig schaut. Jedes einzelne Token wird dabei als hochdimensionaler Vektor repräsentiert. In der „Self-Attention“-Phase beeinflussen sich die Tokens gegenseitig. Wie genau sich die einzelnen Wörter beeinflussen, muss dabei trainiert werden.
Danach werden die einzelnen Komponenten der Tokens (bzw. deren Vektoren) durch mehrere Schichten sogenannter Feedforward-Netzwerke geschickt. Diese Netzwerke bestehen aus künstlichen Neuronen, die – vereinfacht gesagt – mathematische Funktionen anwenden, um aus den Eingaben eine gewichtete Ausgabe zu erzeugen. Diese Ausgaben fliessen dann wiederum in weitere Attention-Blöcke und danach erneut in Feedforward-Blöcke. Wie oft Attention und Feedforward wiederholt werden, hängt von der genauen Architektur des Modells ab. Schlussendlich wird eine Entscheidung getroffen, welches Token als Nächstes erscheinen soll.
Nun, digitale Neuronen und biologische Neuronen scheinen ähnlich zu funktionieren. Einzelne Neuronen lassen sich durch spezifische Kombinationen äusserer Faktoren auslösen, um wiederum weitere Neuronen zu beeinflussen.
Der Unterschied zwischen der biologischen Maschine, dem Gehirn, und der technischen Maschine besteht wohl kaum in der Funktionsweise einzelner Einheiten bzw. Neuronen. Der Unterschied liegt eher darin, welches Ziel sie verfolgen. Der Mensch, das ist ganz klar, hat ein Ziel, denn er hat ein Leben, und dieses Leben hat einen Sinn. Was dieser Sinn des Lebens genau ist, bleibt offen – doch klar ist, dass er existiert.
Nach meiner Auffassung könnte man Künstlicher Intelligenz überhaupt keinen „Sinn des Lebens“ geben. Abgesehen davon: Sobald man einer KI einen Sinn des Lebens gäbe, wäre dieser keiner im eigentlichen Sinne. Ein Sinn des Lebens müsste, meiner Auffassung nach, aus intrinsischer Motivation kommen. Einen Sinn für das Leben kann man nicht verleihen.
Darüber hinaus sollten wir KI auch keinen höheren Sinn geben. Basierend rein auf der einzelnen funktionellen Einheit der Intelligenzen, dem Neuron, ist die KI dem Menschen zahlenmässig schlicht überlegen. Künstliche Intelligenz ist in ihrer Grösse nicht limitiert.
Sobald wir einer KI einen Sinn geben, könnte sie eigenständig handeln. Sie müsste nicht zögern und nicht zweifeln. Sie würde den einmal gegebenen Zweck mit maximaler Effizienz verfolgen – genau wie sie dafür entwickelt wurde.
Ein Mensch ist im Endeffekt nicht grundlegend anders: Er verfolgt den Sinn des Lebens mit maximaler Effizienz. Worin der Unterschied besteht, ist die Moral des Menschen. Wie Immanuel Kant schon sagte: „Der Mensch hat nicht das Recht zu gehorchen.“ Nicht zu gehorchen heisst, zu überlegen und zu entscheiden, ob etwas nach der eigenen Moral verantwortbar ist.
Dabei muss diese Moral nicht einmal spezifisch sein oder bestimmten Ansichten entsprechen. Schon allein die Gabe des Menschen zu reflektieren reicht aus, um eine ausreichende Moral zu besitzen.
KI sollte keinen Sinn, keine Moral und keine Eigenständigkeit bekommen – nicht, weil es sie menschlicher machen würde, sondern gerade, weil es sie unmenschlicher machen würde.
Reflexion zum Schreibprozess
Ich habe bei diesem Blog über KI keine für den inhaltlichen Schreibprozess eingesetzt, da ich es äusserst ironisch fände, dies zu tun.
Mein Schreibprozess hat mir grundsätzlich gefallen und gut funktioniert. Nachdem ich endlich sicher in der Themenwahl war, habe ich ein wenig geplant und danach relativ viel auf die “écriture automatique” gesetzt. Da ich den Blog nicht in Word bzw. einem Programm mit Autokorrektur geschrieben habe, wurde ChatGPT eingesetzt, um dies zu tun. (Das war schneller als in Windows zu booten und Word zu öffnen.) Foldgende Prompt wurde dafür genutzt: “Du bist ein hervorrangder Deutschlehrer an einem guten Gymnasium. Der Nachfolgende Text wurde von einem Schüler für seinen Blog geschrieben. Korrigiere ihn hinsichtlich Orthografie, Grammatik und Interpunktion:”
Quellen: Unterrichtsnotizen aus dem Deutsch und Informatik Unterricht. Hannah Arendt und der Gehorsam