Künstliche Intelligenz braucht klare Regeln

2Bilder

In mehr und mehr Bereichen unseres Lebens hält Künstliche Intelligenz (KI) Einzug. Durch mathematisch exakte Lösungen mittels Computer scheint menschliche Fehlerhaftigkeit überwunden zu sein. Trotz aller Chancen gibt es laut dem Sozialethiker Elmar Nass jedoch Grenzen. Er fordert klare Regeln und ethische Bildung.

Künstliche Intelligenz – KI genannt – ist derzeit in aller Munde. Was ist das, kurz erklärt?

Elmar Nass: KI wird in verschiedensten Bereichen als Instrument genutzt und kann uns unterstützen, um z. B. Problemstellungen zu lösen oder Arbeitsprozesse zu optimieren – in der Wirtschaft, in Wissenschaft und Technik, in der Sprache, in der Politik, in Religion und Ethik, in der Medizin. Ein positives Beispiel: Vor einer Operation im Krankenhaus speist der Mediziner bestimmte Informationen, also mathematische Daten bzw. Algorithmen, in einen Computer ein, etwa Erfahrungen über den anstehenden Eingriff, und es kommt anhand von Berechnungen automatisch ein Ergebnis heraus. Der Arzt kann sich nun bei der Operation von KI leiten und helfen lassen, wie er welche OP-Schritte ausführt. Da das Ergebnis mathematisch abgesichert ist – so das Versprechen –, wird die menschliche Fehlerhaftigkeit durch KI reduziert bzw. sie kommt nicht vor und wird ersetzt durch eine mathematisch perfekte Entscheidung.

Man hört, dass KI sozusagen auch dazulernt, ohne dass der Computer wieder neu programmiert werden muss. Wie geht das?

Nass: Dadurch, dass die Maschine mit den einmal eingespeisten Informationen in der Praxis weiter eingesetzt und auf neue Kontexte angewendet wird, „lernt“ sie und findet durch Berechnungen immer wieder eigenständig neue Antworten und Problemlösungen. Das erscheint uns wie ein Lernen des Menschen. Das System wird immer besser, entwickelt sich und erweitert ihr Wissen. So funktioniert das auch bei selbstlernenden Robotern, die vermeintlich menschliche Gefühle simulieren.

Wie der so genannte humanoide Roboter Sophia. Er wurde der menschlichen Gestalt nachempfunden, kann sprechen, singen, Gestik und Mimik imitieren. Aber echte Gefühle sind das nicht ...

Nass: Es ist erstaunlich, die Technik schreitet voran und mit zunächst plausiblen Erklärungen werden Betätigungsfelder in der Gesellschaft immer weiter konsensfähig gemacht. So wird z. B. argumentiert, ein humanoider Roboter, der im Pflegeheim zu den betagten einsamen Menschen geht, mit ihnen redet, ihnen die Hände streichelt, vermeintlich Gefühle zeigt, das sei wunderbar. Doch auf der anderen Seite müssen wir sehen, das sind keine ehrlichen Gefühle, das ist keine ehrliche Sprache, kein ehrliches Einfühlungsvermögen. Im Grunde ist es ein von einer Maschine gesteuerter Torso, kein Mensch. Wenn man den Stecker rauszieht, ist alles vorbei.

In bestimmten Bereichen sehen Sie als Theologe und Ethiker KI also auch kritisch?

Nass: Ja. Ein Gottes- und Menschenbild, das nur kalten Berechnungen folgt, hat nichts mit dem christlichen Glauben zu tun. Der Mensch ist natürlich mehr als eine Ansammlung verschiedener Daten. Er hat eine Seele. Ehrliche menschliche Begegnungen können nicht durch eine Maschine ersetzt werden. Deshalb muss beim Einsatz von KI die letzte Entscheidung immer bei einem Menschen liegen – verantwortungsbewusst und würdevoll. Wenn man blind nur mathematisch exakten Berechnungen vertraut, spielen Menschenwürde und Moral keine Rolle mehr und es besteht die Gefahr, dass es keine rationalen und demokratischen Diskussionen mehr braucht, weil die KI sagt mir, was zu tun ist, die sagt mir, welche Religion die richtige ist, ob ich die Ukraine unterstützen soll oder nicht etc. Das würde Tür und Tor öffnen für ein despotisches Regime, wo Menschen unterdrückt und gleichgeschaltet werden. Die Zukunft dessen, was wir unter Menschlichkeit, Verantwortung, Demokratie, Würde und Freiheit verstehen, steht dann auf dem Spiel.

Wo liegen weitere Gefahren der KI?

Nass: Etwa im Bereich Militär. So genannte autonome Waffen können, wenn sie einmal aktiviert sind, selber „Entscheidungen“ treffen, in welches Ziel sie hineinfliegen, ohne dass ein Mensch eingreift. Das heißt, wenn es zu unvorhergesehenen Truppenbewegungen beim Gegner kommt, dann nimmt diese Steuerung das wahr und entscheidet, die vorgegebene Route zu ändern und sich in ein neues Ziel hineinzubewegen. Ein Mensch kann das nicht mehr stoppen. Ich denke, diese Waffen müssten abgeschafft werden, denn so können Kriegsverbrechen passieren und keiner übernimmt dafür die Verantwortung.

Es gibt auch Sprachroboter, den ChatGPT, der Texte schreibt und u. a. für Predigten verwendet werden kann. Was halten Sie davon?

Nass: Was Sprache betrifft, so gibt es bis in die Wissenschaft hinein die Möglichkeit, ein Thema einzugeben und der Computer wirft eine Übersetzung, eine fertige Doktorarbeit oder eine Predigt aus, ohne dass ein Mensch einen Gedanken daran verschwendet hat. Ich selber benutze solche Predigthilfen nicht, finde es aber o. k., wenn sich jemand Ideen zum Evangelium mittels KI holt. Das Entscheidende ist aber, dass man diesen Text nicht kritiklos 1:1 übernimmt, sondern ihn als eine Anregung sieht und daraus etwas Eigenes schafft, denn Predigt ist Verkündigung, die aus dem Herzen, aus der Seele kommen muss.

Fake-Bilder, also Fälschungen mittels KI, nehmen zu, z. B. zeigt ein Foto den Papst mit weißer Daunenjacke. Welche Forderungen haben Sie hinsichtlich KI?

Nass: Ja, diese Fake-Bilder sind ein weiteres Feld, wo uns Realitäten vorgegaukelt werden. KI bietet aber auch große Chancen, vieles zu verbessern – wie gesagt in der Medizin und auch in der internationalen Kommunikation. Wenn ich Texte rasch übersetzen kann, ist es schneller möglich, mich mit jemandem zu unterhalten, dessen Sprache ich nicht beherrsche. Damit ein verantwortungsvoller Umgang mit KI aber nicht kippt, ist meiner Meinung nach zweierlei wichtig: Eine ethische Bildung in Forschung und Technik über das Menschenbild, über das Würdeverständnis, über Verantwortung, über Freiheit, aber auch ein Bewusstsein über die Gefahren, die mit KI zusammenhängen. Mit einbezogen werden müssen auch Universitäten und Schulen – nicht nur in den Fächern Mathematik, Informatik, Naturwissenschaften und Technik. Allein auf Ethikbildung zu setzen, ist allerdings zu wenig, denn es kann immer Menschen geben, die KI nutzen und weiterentwickeln, um Profit oder Macht zu haben. Deshalb braucht es zusätzlich international klare Regeln und Sanktionen, die Grenzen vorgeben. Das hat auch Papst Franziskus schon angeregt.

Nutzen Sie Künstliche Intelligenz auch selber?

Nass: Ja, ich bin gerade an einem Projekt dran, wo wir im Team mit KI arbeiten und erforschen wollen, über welche Themen und Bedürfnisse sich Menschen in Chatrooms im Internet unterhalten, die sie zwar nicht mit Kirche und Glauben in Verbindung bringen, die aber zutiefst christliche Sehnsüchte sind, die wir als Kirche und Christen anzubieten haben. Also wo sprechen Menschen über Sterben, über Vergebung, über Trost, über Ewigkeit, über Einsamkeit, über Sinn im Leben, ohne dass sie einen christlichen Bezug haben. Das hilft uns, um für die Pastoral wieder neue Schwerpunkte zu setzen mit Themen, die die Menschen wirklich interessieren. Da dieses Feld unendlich komplex ist, nutzen wir KI, um solche Chatrooms zu durchforsten, zu interpretieren und daraus Konsequenzen zu ziehen – natürlich mit menschlicher Intelligenz.

INTERVIEW: SUSANNE HUBER

Der katholische Priester, Theologe, Sozial- und Wirtschaftsethiker Elmar Nass ist seit 2021 Prorektor und Lehrstuhlinhaber für Christliche Sozialwissenschaften und gesellschaftlichen Dialog an der Kölner Hochschule für Katholische Theologie (KHKT). Zu seinen Forschungsschwerpunkten gehören unter anderem Wirtschaftsethik sowie Digitalisierung und Technikethik.

ELMAR NASS | Foto: privat
Autor:

martinus Redaktion aus Burgenland | martinus

Kommentare

online discussion

Sie möchten kommentieren?

Sie möchten zur Diskussion beitragen? Melden Sie sich an, um Kommentare zu verfassen.

add_content

Sie möchten selbst beitragen?

Melden Sie sich jetzt kostenlos an, um selbst mit eigenen Inhalten beizutragen.

Powered by PEIQ