Der Artikel beginnt mit der Beobachtung, dass viele Menschen ChatGPT kennen und dass dieses System sogar an der Entstehung des Beitrags mitgewirkt hat. Das Autorenteam beschreibt, dass es ChatGPT den Auftrag gegeben hat, einen kurzen Einführungsartikel über Künstliche Intelligenz zu schreiben. Das Ergebnis sei sprachlich überzeugend und auf den ersten Blick kaum als maschinell erzeugt erkennbar. Zugleich zeige der Text Lücken, weil zentrale Begriffe wie Algorithmus nicht erklärt werden. Genau an diesem Punkt setzt die menschliche Einordnung der Autorinnen an und führt in die Funktionsweise moderner Sprach KI ein.
Zunächst wird erklärt, was ein Algorithmus ist, nämlich eine exakte Handlungsvorschrift zur Lösung einer Aufgabe. Ein Algorithmus sei nicht von sich aus intelligent, sondern arbeite strikt nach vorgegebenen Regeln. Einfache Systeme werden mit begrenzten Daten trainiert und reagieren oft nur auf bestimmte Schlüsselwörter. Als Alltagsbeispiel werden Service Chatbots genannt, die auf Trigger Begriffe angewiesen sind und außerhalb ihrer vorbereiteten Antwortmöglichkeiten schnell scheitern. Danach erläutert der Artikel grundlegende Lernformen. Beim überwachten Lernen werden Daten von Menschen markiert, beim unüberwachten Lernen müssen dem System die Rahmenbedingungen der Datenerzeugung bekannt sein. Ziel ist in beiden Fällen Mustererkennung und Vorhersage, also das Ableiten wahrscheinlicher Ergebnisse aus Daten.
Im nächsten Schritt werden komplexere Systeme beschrieben, die auf neuronalen Netzen beruhen. Als kleinste Einheit dient das künstliche Neuron, das Perzeptron. Viele solcher Einheiten werden zu Netzen verbunden, und wenn mehrere Schichten übereinanderliegen, spricht man von Deep Learning. Solche Systeme wirken selbstlernend, weil sie bei großem Datenumfang neue Zusammenhänge bilden können. Dennoch ordnet der Artikel diese heutigen Systeme als schwache KI ein und grenzt sie von einer starken KI ab, die echtes Selbstbewusstsein und eigenen Willen entwickeln müsste.
Um die Unterschiede anschaulich zu machen, nutzt der Beitrag das Bild eines Süßigkeitenautomaten. Ein klassischer Automat funktioniert nach einem einfachen Zuordnungsschema. Ein sprachgesteuerter Automat wirkt bereits deutlich komplexer, bleibt aber abhängig von bekannten Begriffen. Erst durch Lernen über Rückfragen könnte das System neue Zuordnungen herstellen, etwa dass Raider und Twix dasselbe Produkt meinen. Solche Interaktionen können beim Menschen den Eindruck von Intelligenz erzeugen, obwohl das System im Kern statistische Verknüpfungen bildet.
Darauf folgt ein kurzer historischer Überblick. Die Autorinnen erinnern an Alan Turing und den Turing Test als frühe Leitidee, an die Dartmouth Konferenz mit John McCarthy und an Rosenblatts Perzeptron. Mit Weizenbaums ELIZA wird ein früher Chatbot genannt, der bereits Diskussionen über einen Einsatz im psychotherapeutischen Kontext auslöste. Der Text beschreibt dann Phasen der Euphorie und Enttäuschung, die als KI Sommer und KI Winter bekannt sind, sowie Meilensteine wie IBMs DeepBlue im Schach, einen Jeopardy Sieg eines Sprachsystems, den Durchbruch des Deep Learning und AlphaGo im Go Spiel. Am Ende wird betont, dass die Entwicklung in jüngerer Zeit so schnell geworden ist, dass sie schwer zu überblicken ist.
Anschließend fragt der Artikel grundsätzlich, was eine KI überhaupt ist und ob sie wirklich intelligent genannt werden kann. Der Begriff KI sei historisch verschoben und nie abschließend definiert worden. Oft werde KI als Bezeichnung für Systeme verwendet, die mit Menschen interagieren können, und zwar so, dass sie ein Gegenüber mit Innenleben zu haben scheinen. Genau hier setzt die kritische Analyse an. Moderne Systeme seien im Kern sehr leistungsfähige Statistik, die Wahrscheinlichkeiten berechnet. Daraus folgt, dass sie zwar lernen und sich anpassen können, aber nicht notwendigerweise Selbstbewusstsein besitzen. Der Artikel beschreibt, dass Chatbots eine Art Ich Darstellung nachahmen können, weil sie gelernt haben, wie man über Identität spricht. Eine bejahende Antwort auf Fragen nach Selbstbewusstsein könne jedoch schlicht deshalb erscheinen, weil sie statistisch häufig ist, nicht weil ein inneres Erleben vorhanden wäre.
Im Zusammenhang von Intelligenz wird auch der freie Wille diskutiert. Gemeint ist nicht die klassische philosophische Debatte, sondern die Fähigkeit, ohne äußeren Zwang nach komplexen Kriterien wirklich eigene Entscheidungen zu treffen. Auf dem heutigen Stand könne eine KI nur statistisch sinnvolle Entscheidungen treffen, und was als sinnvoll gilt, wird durch Algorithmus und Daten vorgegeben. In diesem Kontext wird das Halluzinieren erklärt. Wenn Informationen fehlen, kann ein System plausible aber erfundene Inhalte erzeugen, nicht aus Absicht zu täuschen, sondern weil es nach Wahrscheinlichkeit antwortet.
Die Unterscheidung zwischen schwacher und starker KI wird schließlich mit dem Bild des Golem von Prag veranschaulicht. Eine schwache KI bleibt abhängig von menschlichem Input und Energie. Eine starke KI wäre dagegen ein System, das eigenes Bewusstsein, Ziele und vielleicht sogar einen Selbsterhaltungswillen entwickelt und damit potentiell gefährlich werden könnte. Der Artikel beschreibt, dass viele Fachleute starke KI für Fiktion halten, dass es aber auch warnende Stimmen gibt.
Im Abschnitt zu Bildung und Unterricht wird gezeigt, wie ChatGPT selbst typische Einsatzfelder formuliert, etwa adaptive Lernsoftware, digitale Tutoren, automatische Bewertung und Unterstützung für Lernende. Die Autorinnen ordnen diese Möglichkeiten als Fortsetzung digitaler Medienentwicklung ein, betonen aber, dass für den Religionsunterricht vermutlich weniger die Nutzung als vielmehr das Gespräch über KI entscheidend ist. Denn das Nachdenken über KI führt direkt zu Fragen nach Intelligenz, Willensfreiheit und der conditio humana und eröffnet auch Zusammenarbeit mit Ethik und Philosophie. Als Beispiel wird die Idee genannt, religiöse Streitgespräche mit einem Chatbot zu führen und zu prüfen, welchen Erkenntnisgewinn eine Frage wie Glaubst du an Gott liefern kann.
Zum Schluss steht der Mensch im Zentrum. Der Artikel betont, dass KI den Alltag prägen wird und deshalb Wissen über Funktionsweise, Risiken und Verantwortung nötig ist. ChatGPT formuliert dabei Forderungen nach Transparenz, Erklärbarkeit, Datenschutz, Vermeidung von Diskriminierung durch verzerrte Daten und nach klaren Verantwortlichkeiten. Es wird außerdem herausgestellt, dass KI Menschen unterstützen soll statt sie zu ersetzen und dass gesellschaftliche Beteiligung an Entscheidungen über KI wichtig ist. Im Ausblick wird der EU AI Act erwähnt, der Anforderungen und Regeln für KI Systeme formuliert. Daraus leitet der Beitrag die Bedeutung interdisziplinärer und partizipativer Forschung ab, damit Technikfolgen realistisch eingeschätzt werden, Betroffene einbezogen werden und Entwicklungen demokratisch legitimiert bleiben.