KI ohne Kontrolle bedeutet den Ruin der Seele

Quelle: FSSPX Aktuell

Nach dem Vorbild von ChatGPT sind innerhalb weniger Monate mehrere „katholische“ virtuelle persönliche Assistenten entstanden. Das Ziel ihrer Entwicklung ist es, sofort Antworten auf Fragen zu geben, die die Lehre der Kirche betreffen. Abgesehen von diesem fragwürdigen Ansatz stellt sich die Frage nach der Zuverlässigkeit dieser neuartigen Algorithmen. 

Am 30. November 2022 entdeckt die Welt die Leistungsfähigkeit der Künstlichen Intelligenz (KI) durch eine Nachricht der Firma OpenIA: „Sie können jetzt ChatGPT benutzen.“ Innerhalb weniger Stunden testeten mehr als eine Million Menschen diesen neuen Chatbot, ohne sich vielleicht der immensen und furchterregenden Möglichkeiten von KI-Anwendungen bewusst zu sein. 

Dabei handelt es sich um eine neue Technologie, die wie die Büchse der Pandora wirkt. Im Mai 2023 rief der Erzbischof von Utrecht (Niederlande), Willem Kardinal Eijk, dazu auf, dass die Kirche sich offiziell zur KI positionieren solle. Da er tiefgreifende Auswirkungen auf die Gesellschaft voraussah, erklärte der hohe Prälat, dass die Kirche sich aktiv im Bereich der KI engagieren müsse. Es seien ethische Überlegungen anzustellen und die kirchliche Präsenz innerhalb der Entwicklung zu etablieren. 

Die Entwickler von Magisterium AI, einem Konversationsagenten des Unternehmens Longbeard, das sich auf digitale Technologie und Marketing spezialisiert hat, hatte diesen Apell erwartet. Zu den Kunden der Firma Longbeard mit Sitz in Rom gehören die Päpstliche Universität St. Thomas von Aquin, die Vatikanische Sternwarte und das Dikasterium für den Dienst an der ganzheitlichen menschlichen Entwicklung.  

Der Algorithmus von Magisterium AI basiert auf einer Datenbank mit 456 offiziellen Dokumenten, darunter die Heilige Schrift, der Katechismus der Katholischen Kirche, der Codex des kanonischen Rechts, die Allgemeine Instruktion des Römischen Messbuchs sowie 90 Enzykliken, sieben Apostolische Konstitutionen und 26 Apostolische Ermahnungen. 

Matthew Sanders, einer der Schöpfer des angelsächsischen Chatbots, gegenüber dem weltweit größten religiösen Fernsehsender Eternal Word Television Network (EWTN): „Als ich für die Erzdiözese Toronto arbeitete, stellten mir viele Menschen Fragen über den Glauben und das Dogma der Kirche. Ich verbrachte sehr viel Zeit in der Bibliothek, um sicherzugehen, dass ich zuverlässige Antworten geben konnte. Damals träumte ich davon, dass es eine Technologie wie Magisterium AI geben würde!“  

Doch es stellt sich die Frage nach der Zuverlässigkeit dieser Art von KI. Nutzer stellten bereits diverse Ungenauigkeiten festgestellt. Yannick Liabaud, einer der Verantwortlichen des Vereins „Kirche und digitale Innovation“, betont: „Die Schwierigkeit dieses Systems - eine Schwierigkeit, die ein Theologe nicht hat - ist die Berücksichtigung des Kontexts der Frage, die es ermöglicht, eine irrelevante Antwort zu vermeiden.“ 

Das Auftauchen religiöser Avatare über ChatGPT ist in den Augen von Fachleuten nicht überraschend: „ChatGPT ist ein sehr leistungsfähiges Werkzeug, um Informationen zu finden, aber man kann es gut oder schlecht nutzen“, stellt Steve Bobillier, Philosophieprofessor am Kollegium St.-Michael im schweizerischen Freiburg, fest. Von der Tageszeitung 24H befragt, merkt der Philosoph an, dass „das Risiko hier darin besteht, die Antworten als „Evangeliumswort“ zu nehmen. Ein Text, auch ein religiöser, hat immer eine Interpretation. Die KI liefert eine davon, und das ist nicht unbedingt die kohärenteste.“ 

Alexej Grinbaum – Mitglied des französischen Nationalen Pilotausschusses für Digitale Ethik (Comité National pilote d'éthique du numérique (CNPEN)) – ist alarmiert und gibt zu bedenken: „Der Mensch entwickelt sich unter dem Einfluss sprechender Maschinen weiter, und es ist unmöglich, diese Entwicklung aufzuhalten oder rückgängig zu machen. [...] Die Notwendigkeit, die Unterscheidung zwischen Mensch und Maschine auf der Ebene des Sprechens beizubehalten, ist hier alles andere als selbstverständlich.“ 

Wenn es der Mensch war, der Maschinen geschaffen hat, die „sprechen“ oder vielmehr Sätze produzieren können, wird die Verwendung dieser Maschinen einen direkten Einfluss auf unsere Art zu argumentieren haben. Diese Maschinen sprechen jedoch gefällig, „glatt“, ohne Tiefe. Mit anderen Worten, sie denken nicht das, was sie produzieren. Die Frage ist, inwieweit sie uns beeinflussen werden.