Ist künstliche Intelligenz Fluch oder Segen? Eine Kölner Tagung versucht es mit Antworten

Ist künstliche Intelligenz Fluch oder Segen? Eine Kölner Tagung versucht es mit Antworten

„Künstliche Intelligenz – Fluch oder Segen?“ – Diese Frage beleuchteten zwei Referenten auf der Jahrestagung der Kardinal-Höffner-Gesellschaft für Christliche Soziallehre am Sonntag in Köln. Dabei machten sie sich die Antwort nicht leicht, denn in der Brust von Ingo Kleiber und Elmar Nass schlugen jeweils zwei Herzen.

Kleiber arbeitet als Experte für künstliche Intelligenz (KI) an der Universität zu Köln und befasst sich seit zehn Jahren intensiv mit diesem Thema. Der zweite Referent, der Priester Elmar Nass, ist Professor für Christliche Sozialwissenschaften und gesellschaftlichen Dialog an der Kölner Hochschule für Katholische Theologie (KHKT). Beide sehen Chancen und Risiken in der künstlichen Intelligenz.

Der Begriff der künstlichen Intelligenz sei „aufgeladen“ und in der Wissenschaft ohnehin nicht beliebt, erläuterte Kleiber. Und er stellte gleich zu Anfang klar: „Es gibt nicht die künstliche Intelligenz, die etwas tun will!“ Deshalb spreche er lieber von „Maschinen, die Inhalte erzeugen können“. Er warnte vor zu selbstsicheren Zukunftsprognosen und polarisierenden Debatten.

Zwei Eigenschaften machten KI-Maschinen interessant, so Kleiber: „Sie können menschliche Wissensfähigkeit simulieren sowie menschliche Fähigkeiten erweitern und verstärken.“

Anhand eines simplen Beispiels erklärte er, wie KI funktioniert: Einem Rechner werden so lange Fotos von Katzen gezeigt, bis die Programmierer der Überzeugung sind, dass das Gerät die Merkmale kennengelernt hat, die eine Katze von anderen Wesen unterscheiden. Das Gerät könne dann aus einer Eingabe eine Ausgabe machen. „Das Ergebnis hat immer nur eine gelernte Wahrscheinlichkeit“, sagte der Experte. Die Modelle würden trainiert und deren Antworten gelobt oder getadelt. „Diese Modelle sind ein Konstrukt, ein Abbild.“

Täglich kämen die Menschen bereits mit künstlicher Intelligenz in Berührung – meist ohne es zu bemerken. „Bevor jemand eine E-Mail erhält, hat bereits ein System geprüft, ob es sich dabei um massenhaft versandten Datenmüll oder um eine seriöse Mitteilung handelt.“

Anhand mehrerer Beispiele demonstrierte der KI-Experte, was technisch bereits möglich ist. So zeigte er einen Video-Kurzfilm, der scheinbar den Referenten darstellt, der mit identischen Bewegtbildern in drei verschiedenen Sprachen eine realistisch wirkende Botschaft verbreitete. Nichts davon war echt.

In einem anderen Fall fotografierte er ein Kreuzworträtsel, das dann als Foto hochgeladen wurde. Der Auftrag lautete: „Löse das Rätsel.“ Die künstliche Intelligenz konnte die Aufgabe mühelos erfüllen.

Da nicht wenige Menschen glauben, künstliche Intelligenz liefere perfekte Ergebnisse, zeigte der Experte, dass Fehler nicht nur Menschen unterlaufen, sondern auch Maschinen. So lieferte seine erste Anfrage an die Datenwelt zur Identität seiner Person ein falsches Ergebnis.

Und er berichtete über einen zweiten Schwachpunkt. Bei Menschen sei oft festzustellen, dass sich Verhaltensweisen davon beeinflussen lassen, ob sie sozial erwünscht seien. „Fachleute haben festgestellt: Auch digitale Systeme neigen dazu, gefällige und gewogene Antworten zu liefern.“ Nein zu sagen falle auch Maschinen nicht leicht. Sie spürten offenbar, dass Menschen lieber eine wohlwollende Antwort erwarten und nicht so gerne mit der nüchternen Wahrheit konfrontiert werden wollen.

Wie zuverlässig KI arbeite, sei abhängig von den Daten, mit denen sie gefüttert werde. Es mache einen großen Unterschied, ob sie auf Inhalte des allgemein zugänglichen Internets zugreife, das auch viel Unsinn verbreite, oder beispielsweise auf Inhalte eines Fachverlages für wissenschaftliche Publikationen, die nur gegen Bezahlung abrufbar seien. Während kostenlose Angebote meist keine Quellen als Belege für die Nachprüfbarkeit der Antworten ausweisen, sei das bei kostenpflichtigen Anbietern anders.

Wie wird sich die künstliche Intelligenz weiter entwickeln? Kleiber vermutet: „Der nächste große Produktivitätssprung hängt vermutlich stärker an der Digitalisierung und an der Prozessoptimierung als an der eigentlichen KI.“

Dass der Sozialwissenschaftler Elmar Nass eher die Risiken der KI beleuchten würde, war zu erwarten. In seinem Vortrag begann er allerdings mit zwei Beispielen, wie er selbst künstliche Intelligenz in der Praxis genutzt hat: zur Titel-Gestaltung seines jüngsten Buchumschlags und zur Durchführung einer wissenschaftlichen Untersuchung, bei der mehr als eine Million Datensätze ausgewertet werden mussten. Gleichzeitig stellte er seine Erwartungen und Anforderungen an die KI dar. Dazu gehören Akzeptabilität, eine begründete Wertebasis und die Anwendung dieser Wertebasis auf konkrete Zwickmühlen-Situationen. Als ethische Ziele proklamierte er Menschenwürde, Gerechtigkeit, Verantwortung, Demokratiefähigkeit und Christlichkeit.

Künstlichen Intelligenz und künstliche Moral böten keine Datensicherheit, Erklärbarkeit und Privatheit. Sie verfügten über keine Seele, kein Gewissen und keine Vernunft, sie böten keine Autonomie oder Freundschaft und auch keine zuverlässige Wahrheit, besonders in weltanschaulichen Fragen. Er warnte auch davor, Begriffe und Eigenschaften auf Maschinen anzuwenden, die Menschen vorbehalten seien.

Zu klären sei, wer die Verantwortung bei auftretenden Fehlern trage. Künstliche Moral biete keine Lösung. In der Mensch-Maschine-Kommunikation sei zu beachten, dass Maschinen konkret helfen können, aber keine menschlichen Kontakte ersetzen. Die enorme Rechenleistung der KI ermögliche Zeitersparnisse und die Erschließung neuer Forschungsgebiete. Das könne aber eine Verkümmerung menschlicher Fähigkeiten bewirken.

Nass wies auf viele ungelöste Fragen beim Einsatz künstlicher Intelligenz hin, ebenso auf Quellen für den nötigen Werte-Kompass, darunter auch kirchliche Verlautbarungen wie das diesjährige Dokument „Antiqua et nova“ des römischen Glaubens-Dikasteriums gemeinsam mit dem Dikasterium für Kultur und Bildung.

Der Priester plädierte intensiv für eine moralische Bildungsoffensive, um für die Chancen und ethischen Probleme sensibel zu machen. Entwickler und Anwender müssten ethisch unterrichtet werden. Der KI-Einsatz in Schulen und Seminaren soll nach Ansicht des Sozialwissenschaftlers dosiert angewendet werden. Der KI-Gebrauch müsse global reguliert werden, Verstöße müssten konsequent geahndet werden. Von zentraler Bedeutung sei, dass Menschen die Entscheider über einen KI-Einsatz bleiben. Und auch daran ließ Nass keinen Zweifel: „Gott allein ist Evidenz des Guten!“

Fazit der Veranstaltung: Technische Programme, Algorithmen und Robotik sind nicht aus sich heraus moralisch gut oder schlecht. Es kommt immer auf ihre Anwendung und deren Folgen an!

Posted in

Werden Sie Teil der EWTN-Familie. Abonnieren Sie unseren Newsletter!

*Ich möchte zukünftig den wöchentlichen Newsletter von EWTN.TV mit Impulsen, Programmtips und Informationen rund um Ihren katholischen Fernsehsender per E-Mail empfangen. Diese Einwilligung kann am Ende jedes Newsletters widerrufen werden. Weitere Informationen finden Sie in unseren Datenschutzbestimmungen.