pelikan

Ethik Künstlicher Intelligenz - Streiflichter aus theologischer Perspektive

von Hendrik Klinge

Von Künstlicher Intelligenz ist gegenwärtig häufig die Rede; man könnte sogar von einem Modethema sprechen. Was dabei jeweils unter „Künstlicher Intelligenz“ verstanden ist, variiert stark. Im Folgenden werde ich mich mit einer behelfsmäßigen Definition begnügen: Künstliche Intelligenz ist ein Sammelbegriff für Computersysteme und Maschinen, deren kognitiven Fähigkeiten dem, was wir bei Menschen Intelligenz nennen, zumindest ähneln.1  Der zweite Begriff, der im Zentrum dieses Artikels steht, ist nicht weniger mehrdeutig. Mit „Ethik“  wird manchmal ein allgemeiner Maßstab des Verhaltens bezeichnet („das ist ethisch richtig“), manchmal die Gesamtheit moralischer Überzeugungen. Philosophisch präzise gefasst, kann Ethik hingegen als die Wissenschaft vom „guten Leben“ definiert werden. Dazu gehören moralische Fragen, aber die Ethik erschöpft sich keineswegs in diesen. Moral und Ethik müssen daher voneinander unterschieden werden: Ethik ist eine Wissenschaft, zu deren Gegenständen (unter anderem) moralische Überzeugungen gehören.


Anthropozentrismus und Ethik

Die Beschäftigung mit der Ethik Künstlicher Intelligenz ist nicht zuletzt deshalb so faszinierend, weil damit ein echtes Novum in der Geschichte der Ethik auftritt. Alle großen Theorien der Ethik, von der Antike bis in die jüngere Vergangenheit, gehen davon aus, dass das einzige relevante Subjekt der Ethik der Mensch ist. Als ethische Subjekte werden dabei diejenigen Instanzen verstanden, die durch moralische Gebote adressiert werden, die Träger von Tugenden sein können und deren Verhalten als „moralisch richtig“, „gut“ etc. bewertet werden kann. Neben ethischen Subjekten gibt es auch Objekte der Ethik, also solche Instanzen, auf die sich das Handeln bezieht. So nimmt etwa die klassische Tierethik an, dass Tiere keine ethischen Subjekte sind, weil sie keine moralischen Überzeugungen ausbilden können, wohl aber ethische Objekte, da sie durch menschliches Handeln Schaden erleiden können. Ethisches Subjekt (oder „Akteur“) hingegen ist allein der Mensch als das einzige bekannte Wesen, welches moralische Überzeugungen auszubilden und Entscheidungen von ethischer Relevanz zu treffen vermag.

Dieser Anthropozentrismus der traditionellen Ethik erfährt gegenwärtig eine tiefgreifende Erschütterung. Die Debatte um Bewegungen wie Trans- und Posthumanismus, welche eine Überwindung des traditionellen Menschenbildes fordern, hat den Blick dafür geschärft, dass wir in einer „mehr als nur menschlichen Welt“ (more than human world) leben.2  Neben umweltethischen Fragen kommt dabei auch der Ethik Künstlicher Intelligenz eine Schlüsselrolle zu. In der Fachterminologie hat sich dafür der Ausdruck „Maschinenethik“ eingebürgert. Während die traditionelle Technikethik sich mit den moralischen Normen für den Umgang mit Maschinen beschäftigt, geht es in der Maschinenethik um eine Ethik für Maschinen. Damit stellt die Maschinenethik nicht nur eine neue Bereichsethik unter anderen, bereits besser etablierten dar, sondern einen ganz neuen Typus von Ethik: Eine Ethik, welche als Subjekt moralischer Entscheidungen nicht-biologische Entitäten voraussetzt. Der Akteursstatus von Maschinen ist dabei hoch umstritten. Teilweise wird sogar ein Angriff auf die Menschenwürde darin gesehen, Maschinen ein dem Menschen zumindest vergleichbares Vermögen der moralischen Deliberation zuzuschreiben. Akzeptiert man aber vorläufig die prinzipielle Möglichkeit einer Maschinenethik, stellen sich weitreichende Folgefragen.


Grundfragen der Maschinenethik

Als Standardbeispiel im Bereich der Maschinenethik kann das autonome Fahren gelten. Dabei geht es um Fahrzeuge, die nicht mehr von einem Menschen gesteuert werden, sondern selbstständig durch den Straßenverkehr navigieren. Diese Fahrzeuge können nun in Situationen kommen, die ethisch relevant sind. Im einfachsten Fall handelt es sich dabei um Varianten des sogenannten „Trolley-Problems“, bei denen einen Schaden unvermeidlich ist und sich für moralische Akteure die Frage stellt, welches Resultat sie durch ihr Handeln (oder Nichthandeln) herbeiführen sollen. Man stelle sich etwa einen PKW vor, der mit zwei Personen besetzt ist und auf eine Gruppe älterer Damen zusteuert. Dieser PKW steht nun, wenn er ein autonomes Fahrzeug ist, vor der „Entscheidung“, ob er entweder seine Fahrtrichtung beibehält, woraus resultieren würde, dass die alten Damen schwer verletzt werden, oder ob er ablenkt, was zur Folge hätte, dass er gegen einen Baum fährt und somit die Insassen einen erheblichen Schaden erfahren. Auf diese Frage mag man intuitive Antworten geben. Man kann auch fragen, wer die Insassen des Wagens sind: Handelt es sich dabei um zwei Schwerverbrecher, wird die Beurteilung dieser Situation wahrscheinlich anders ausfallen, als wenn zwei Krankenschwestern im PKW sitzen.

Forschende am MIT (Massachusetts Institute of Technology) haben genau solche intuitiven Bewertungen abgefragt, um herauszufinden, wie die meisten Menschen das Verhalten autonomer Fahrzeuge in derartigen Dilemma-Situationen beurteilen.3  Die Idee ist dabei, aufgrund dieser Bewertungen dem Fahrzeug einen entsprechenden moralischen Code einzuprogrammieren. Im wissenschaftlichen Diskurs wird hier vom Problem der Moralimplementation gesprochen, das als zentrales Thema der gegenwärtigen Maschinenethik angesehen werden kann. So sinnvoll das Vorgehen der Forschenden am MIT zunächst erscheint, kann doch dagegen eingewandt werden, dass moralische Intuitionen schlicht keine zuverlässige Quelle sind. Intuitionen können sich bei genauerer Reflexion auch als falsch erweisen, zumal sie stark gesellschafts- und kulturabhängig sind. Es wird daher erwogen, ob autonomen Fahrzeugen nicht besser eine ausgearbeitete Variante der normativen Ethik als moralischer Code einprogrammiert werden sollte. Dann stellt sich aber die Frage, für welche Theorie man sich entscheiden soll. Eine antike Tugendethik? Eine Pflichtethik im Stile Kants? Oder eine Variante des Utilitarismus? Die verschiedenen Vorschläge werden kontrovers diskutiert. Dass irgendwann abschließend geklärt ist, welche normative Ethik Maschinen implementiert werden sollte, erscheint aber äußerst unwahrscheinlich. Die Geschichte der Ethik zeigt vielmehr, dass die verschiedenen normativen Grundansätze bis heute vertreten werden, ohne dass sich einer endgültig durchsetzen könnte. Überspitzt formuliert: Bevor Maschinen ein normativer Code implementiert werden kann, der über alle Zweifel erhaben ist, müsste zuvor die Geschichte der Ethik an ein Ende gekommen sein.

Steht auch die Frage nach der Moralimplementation im Zentrum der gegenwärtigen Debatte um die Maschinenethik, gibt es hier doch zahlreiche andere Aspekte, die Berücksichtigung verdienten: Rechtliche Fragen ebenso wie praktische Anwendungen und kognitionswissenschaftliche Ansätze. Auf alle diese Fragen kann hier nicht näher eingegangen werden; Interessierte seien schlicht auf die exzellente Einführung in die Maschinenethik von Catrin Misselhorn verwiesen.4  Statt weitere Themenfelder der Maschinenethik vorzustellen, soll im Folgenden eine dezidiert theologische Perspektive auf die Ethik Künstlicher Intelligenz eingenommen werden.


Maschinenethik in theologischer Perspektive

Es ist ein kaum zu leugnender Reflex vornehmlich der älteren theologischen Ethik, auf neue Technologien zunächst mit Ablehnung zu reagieren. Die neuere theologische Technikethik hat solche Vorurteile mittlerweile überwunden; jene technikkritische Tendenz ist subkutan aber immer noch vorhanden. Was sich als „kritisches Bewusstsein“ ausgibt, erweist sich bei näherem Hinsehen oft als verschleierte Technikskepsis. Auch die Theologie ist daher dringend dazu aufgerufen, zunächst die Errungenschaften im Zusammenhang mit Künstlicher Intelligenz wertzuschätzen anstatt vorschnell ihr Verdikt zu sprechen und in jeder Form der Moralimplementation gleich einen Angriff auf die Menschenwürde zu sehen.

Autonome Fahrzeuge weisen beispielsweise viele Vorteile gegenüber menschlichen Fahrern auf: Sie werden nicht müde, kennen alle Verkehrsregeln und riskieren keine waghalsigen Manöver, um einige Minuten früher zuhause zu sein. In explizit ethischer Perspektive ließe sich ergänzen: Autonome Fahrzeuge können nicht wütend werden, sie sind primär nicht parteiisch und habe keine Vorurteile. Freilich gilt dies nicht uneingeschränkt. Der moralische Code, der ihnen einprogrammiert wird, kann durchaus Schwächen besitzen. So konnte gezeigt werden, dass bestimmte Algorithmen tendenziell rassistische Entscheidungen treffen.5  Nur sind diese Probleme eben solche des moralischen Codes, für die nicht die Maschine selbst, sondern die Menschen, die eben jenen Code einprogrammieren, verantwortlich zeichnen. Wenn also auch mit Künstlicher Intelligenz ausgestattete Maschinen die menschlichen Schwächen im Bereich der Moral nicht eliminieren können, so reduzieren sie diese doch weit mehr, als dass sie diese verstärken.

Die theologische Kritik an Künstlicher Intelligenz sollte m.E. daher auch nicht bei der Technik als solcher ansetzen, sondern bei den Implikationen, die damit verbunden sind, Maschinen als moralische Akteure anzusehen. Problematisch wird die Maschinenethik dort, wo sie, wie im gegenwärtigen Diskurs häufig, mit der Debatte um den Post- und Transhumanismus verbunden wird. Wenn Vertreter des Transhumanismus wie Ray Kurzweil von technologisch perfektionierten Übermenschen träumen,6  sollte die theologische Ethik in der Tat Protest einlegen. Auch die klassische theologische Ethik ist zweifelsohne anthropozentrisch; die Maschinenethik kann (ebenso wie die Tierethik) den Blick dafür schärfen, dass wir in einer „more than human world“ leben. Achtung und Respekt für nicht-menschliche Entitäten kann aber nicht bedeuten, die besondere Dignität des Menschen zu nivellieren. Und dies hat dezidiert theologische Gründe.

Einer, wenn nicht der zentrale Glaubensinhalt des Christentums ist die Menschwerdung Gottes in Jesus Christus. Wie auch immer man den Glauben an den Gottmenschen näher auslegen mag, bleibt doch unbestritten, dass dem Menschen dadurch eine besondere Würde zugeschrieben wird. Ich halte es für hilfreich, im theologischen Diskurs eher auf diese christologische Auszeichnung des Menschen zu rekurrieren statt auf seine schöpfungstheologisch verankerte Gottebenbildlichkeit. Praktisch folgt daraus, dass das ohnehin schwache Argument, dies oder jenes widerspreche „dem christlichen Menschenbild“ (worin auch immer dies bestehen mag), aufgegeben werden sollte, zumal daraus der problematische Herrschaftsauftrag (Gen 1,28) abgeleitet werden kann. Stattdessen könnte das christologische Dogma unter gegenwärtigen Bedingungen als Bekenntnis zum Humanum reinterpretiert werden. Nicht als Herrscher über die anderen Geschöpfe, sondern als dasjenige Wesen, dem Gott in Jesus Christus seine besondere Zuwendung versprochen hat, kommt der Mensch dann in der Ethik in den Blick. Die Theologie sollte sich nicht einer pauschalen Technikskepsis hingeben. Christologisch begründete Kritik am Übermenschen ist aber dringend geboten. Für die Auseinandersetzung mit dem technologisch inspirierten Trans- und Posthumanismus können daher die Worte Dietrich Bonhoeffers als Leitspruch dienen: „Während wir uns bemühen, über den Menschen hinauszuwachsen, den Menschen hinter uns zu lassen, wird Gott Mensch und wir müssen erkennen, dass Gott will, daß auch wir – Menschen, wirkliche Menschen seien.“7


Moralische Hilfsapparate

Aus der Perspektive der christlichen Theologie kommt dem Menschen eine Würde zu, die keine Maschine jemals besitzen kann. Zwar spricht grundsätzlich nichts dagegen, Maschinen im bedingten Rahmen ethische Entscheidungen zu übertragen; sie müssen dabei aber stets ihren Charakter als reine technische Hilfsmittel bewahren. Der Heidelberger Theologe Thorsten Moos hat den Kategorischen Imperativ Kants für die Maschinenethik daher in origineller Weise umgekehrt. Während der Kategorische Imperativ bekanntlich fordert, jeden anderen Menschen stets als Zweck an sich, niemals nur als Mittel anzusehen, sollte laut Moos für Maschinen genau das Gegenteil veranschlagt werden: „Treibe Ethik so, dass Du ein technisches System niemals als Zweck an sich, sondern  immer nur als Hilfsmittel begreifst“.8   Das Instrumentalisierungsverbot, das Menschen davor schützen soll, zu reinen Objekten degradiert zu werden, wird in der Maschinenethik zu einem Instrumentalisierungsgebot, welches laut Moos „animistischen“ Vorstellungen in Hinblick auf Künstliche Intelligenz wehren soll. Für die theologische Ethik Künstlicher Intelligenz ist dies m.E. von entscheidender Bedeutung: Es gilt, heilsamen Abstand von allen trans- und posthumanistischen Phantasien zu nehmen und den instrumentellen Charakter auch „hochintelligenter“ Maschinen zu betonen.

Es ist keineswegs ausgemacht, dass nur Personen Entscheidungen treffen können. So naheliegend es ist, beide Begriffe miteinander so zu assoziieren, gibt es hierfür doch keine zwingenden Gründe. Worauf es ankommt, ist daher nicht, Maschinen jegliche Entscheidungskompetenz in ethischen Fragen abzusprechen. Was vermieden werden sollte, ist vielmehr, ihnen Personalität zuzusprechen. Gerade die theologische Ethik sollte hier besonnen bleiben. Verabschiedet sie sich von allzu hochtrabenden Erwartungen an die Künstliche Intelligenz, kann sie hochintelligente Maschinen als moralische Hilfsapparate durchaus wertschätzen. Künstliche Intelligenz kann dem Menschen bestimmte ethische Entscheidungen abnehmen. Diese Fähigkeit sollte aber nicht dazu verführen, ihren Dingcharakter infrage zu stellen. Wird die prinzipielle Möglichkeit einer Maschinenethik zugestanden, stehen also zwei Wege offen: Entweder man billigt Maschinen eine wie auch immer geartete Form der Personalität zu oder man ist bereit zu der Annahme, dass die Fähigkeit, moralisch relevante Entscheidungen zu treffen, nicht auf Personen beschränkt ist. Die theologische Ethik, deren Stärke gerade in der Abwehr der Figur eines Übermenschen besteht, sollte m.E. die zweite Option wählen.

Anmerkungen

  1. Einen Überblick über unterschiedliche Verständnisse des Begriffs „Künstliche Intelligenz“ gibt: Babel, Wolfgang, Künstliche Intelligenz, Lösungsansätze und deren Möglichkeiten. KI, was kann sie leisten, was nicht, Wiesbaden 2024, 9–11.
  2. Zur Herkunft dieser gegenwärtig populären Wendung vgl. Abram, David, On the Origin of the Phrase „More than human“, in: César R. Garavito (Hg.), More than Human Rights. An Ecology of Law, Thought and Narrative for Earthly Flourishing, New York 2024, 341–347.
  3. Vgl. https://www.moralmachine.net, abgerufen am 25.11.2024.
  4. Vgl. Misselhorn, Catrin, Grundfragen der Maschinenethik, 5. Auflage, Stuttgart 2022.
  5. Vgl. dazu den Sammelband Adeso, Marie-Sophie et al. (Hg), Code und Vorurteil. Über Künstliche Intelligenz, Rassismus und Antisemitismus, Berlin 2024.
  6. Vgl. Kurzweil, Ray, Die nächste Stufe der Evolution. Wenn Mensch und Maschine eins werden, aus dem Englischen v. S. Schmid et al., München 2024.
  7. Bonhoeffer, Dietrich, Ethik, hg. von Ilse Tödt et al., 6. Auflage, Gütersloh 2020, 70.
  8. Moos, Thorsten, Digitaler Animismus. Theologische Bemerkungen zu einer Ethik der Digitalisierung, in: Benjamin Held/Frederike van Oorschot (Hg.), Digitalisierung: Neue Technik – neue Ethik?, Heidelberg 2021, 235–256, hier 244.

 

Literatur

  • Abram, David, On the Origin of the Phrase „More than human“, in: César R. Garavito (Hg.), More than Human Rights. An Ecology of Law, Thought and Narrative for Earthly Flourishing, New York 2024, 341–347.
  • Adeso, Marie-Sophie et al. (Hg), Code und Vorurteil. Über Künstliche Intelligenz, Rassismus und Antisemitismus, Berlin 2024.
  • Babel, Wolfgang, Künstliche Intelligenz, Lösungsansätze und deren Möglichkeiten. KI, was kann sie leisten, was nicht, Wiesbaden 2024, 9–11.
  • Bonhoeffer, Dietrich, Ethik, hg. von Ilse Tödt et al., 6. Auflage, Gütersloh 2020.
  • Kurzweil, Ray, Die nächste Stufe der Evolution. Wenn Mensch und Maschine eins werden, aus dem Englischen v. S. Schmid et al., München 2024.
  • Misselhorn, Catrin, Grundfragen der Maschinenethik, 5. Auflage, Stuttgart 2022.
  • Moos, Thorsten, Digitaler Animismus. Theologische Bemerkungen zu einer Ethik der Digitalisierung, in: Benjamin Held/Frederike van Oorschot (Hg.), Digitalisierung: Neue Technik – neue Ethik?, Heidelberg 2021, 235–256.