Künstliche Intelligenz (KI) ist in aller Munde. In praktisch sämtlichen Bereichen des privaten und beruflichen Lebens scheint KI inzwischen angekommen zu sein. Bisweilen dürfte es sich zwar (noch?) mehr um dem Zeitgeist geschuldetes Marketing handeln als um Künstliche Intelligenz. Die Fortschritte, die die Technologie im Bereich der Künstlichen Intelligenz macht, vor allem deren Geschwindigkeit, sind indes jetzt schon atemberaubend. Vieles hätte man vor wenigen Jahren ohne weiteres als Science Fiction bezeichnet. Wer hätte vor zwei Jahren gedacht, dass es jetzt schon Systeme gibt, die auf entsprechende Eingaben („Prompts“) hin Texte oder Bilder erzeugen, die durchaus so klingen bzw. aussehen, als seien sie von Menschen erschaffen?
Künstliche Intelligenz wird uns vor ganz erhebliche gesellschaftliche Herausforderungen stellen. Einigen rechtlichen Fragen geht dieser Beitrag nach.
Was ist Künstliche Intelligenz?
Exakt zu definieren, was „Künstliche Intelligenz“ ist, fällt schwer. Eine verbreitete Beschreibung geht dahin, darunter die Eigenschaft eines IT-Systems zu verstehen, „menschenähnliche“ intelligente Verhaltensweisen zu zeigen.1 In diese Richtung antwortet auch ChatGPT: „Künstliche Intelligenz (KI) ist ein Teilgebiet der Informatik, das sich mit der Entwicklung von Systemen beschäftigt, die menschenähnliche Fähigkeiten besitzen, wie Denken, Lernen, Problemlösen und Entscheidungsfindung. Dabei nutzt KI Algorithmen und Modelle, um Daten zu verarbeiten, Muster zu erkennen und autonom Aufgaben zu erledigen, die normalerweise menschliches Intelligenzverhalten erfordern.“2
Damit ist freilich noch nicht viel gewonnen. Vieles aus dem täglichen Leben, das auf diese Weise vermeintlich „künstlich intelligentes“ Verhalten zeigt, ist tatsächlich nicht der Künstlichen Intelligenz zuzuordnen.3 Oft handelt es sich lediglich um fortschrittliche(re) Formen der Automatisierung und Digitalisierung. Für die Auseinandersetzung aus rechtlicher Perspektive liegt es deshalb nahe, stattdessen auf die zentralen Merkmale von KI abzustellen, die diese von herkömmlichen Technologien unterscheiden.
Die „Verordnung über Künstliche Intelligenz“ (KI-VO)4 definiert für ihre Zwecke „KI-System“ als „ein maschinengestütztes System, das für einen in unterschiedlichem Grade autonomen Betrieb ausgelegt ist und das nach seiner Betriebsaufnahme anpassungsfähig sein kann und das aus den erhaltenen Eingaben für explizite oder implizite Ziele ableitet, wie Ausgaben wie etwa Vorhersagen, Inhalte, Empfehlungen oder Entscheidungen erstellt werden, die physische oder virtuelle Umgebungen beeinflussen können“ (Artikel 3 Nummer 1 KI-VO).
Im Kern geht es darum, dass KI-Systeme aus Eingabedaten selbständig („autonom“) Ausgaben „ableiten“, ohne dass der Zusammenhang zwischen Eingabe und Ausgabe streng-algorithmisch vorgegeben ist. Eine herkömmliche Software arbeitet ihr Programm Schritt für Schritt ab und kommt so von einer bestimmten Eingabe zu einer bestimmten Ausgabe. Zumindest theoretisch kann, wer den Algorithmus kennt, sowohl die zu erwartende Ausgabe vorhersagen als auch rückblickend die erhaltene Ausgabe erklären. Demgegenüber leiten KI-Systeme ihre Ausgaben auf Grundlage selbsttätig aus den Eingaben entwickelter Modelle oder Algorithmen ab.5 Anders als bei der Datenverarbeitung herkömmlicher Art mit vorab programmierten Algorithmen kommen Lern-, Schlussfolgerungs- und Modellierungsprozesse zum Einsatz.6 KI-Systeme erlangen damit eine Art (technische) Autonomie, indem sie in gewissem Umfang unabhängig von menschlichem Zutun agieren.7
Daraus folgt zum einen, dass Ausgaben von KI-Systemen nicht notwendigerweise (vollständig) vorhersehbar sind; zwar sind die Lern-, Schlussfolgerungs- und Modellierungsprozesse als solche bekannt, nicht aber deren konkrete Ergebnisse während des Einsatzes („Lernfähigkeit“ oder „Autonomie“). Zum anderen ist es rückblickend oft nicht erklärbar, wie und warum ein KI-System zu einem bestimmten Ergebnis gekommen ist (sog. „Black-Box-Effekt“ oder „Opazität“).
Rechtliche Konsequenzen
Diese zentralen Eigenschaften von KI stellen uns als Gesellschaft vor zahlreiche Herausforderungen.
Einige Beispiele:
In der Medizin gibt es bereits seit einiger Zeit bildverarbeitende Systeme, die mittels maschinellen Lernens in der Lage sind, bösartige Strukturen im Gewebe (etwa der Haut) ebenso gut oder sogar besser als erfahrene Ärzte zu erkennen.8 Jenseits dessen, ob wir eine medizinische Behandlung durch eine KI akzeptieren wollen, wäre in rechtlicher Hinsicht unter anderem zu klären, ob dies erlaubt wäre und wer dafür verantwortlich wäre, wenn eine KI fehlerhaft behandelt. Ganz allgemein geht es häufig um Verantwortung. Wenn eine konkrete Entscheidung einer KI nicht mehr auf die Programmierung durch einen Menschen zurückgeführt werden kann, wer ist dann dafür verantwortlich? Der Hersteller der KI? Der Nutzer der KI? Gar die KI selbst?
KI kann selbständig Entscheidungen treffen, etwa entscheiden, wer einen Ausbildungsplatz bekommt. Problematisch ist dabei unter anderem, dass nicht ohne weiteres nachvollziehbar ist, warum die Entscheidung genau so ausgefallen ist. Möglicherweise beruht die Entscheidung der KI auf sachfremden, gar diskriminierenden Gründen. Das kann insbesondere passieren, wenn schon die Daten, mit denen die KI „trainiert“ wurde, entsprechende Verzerrungen aufwiesen, beispielsweise vorurteilsbehaftet sind. Doch was folgt daraus? Darf man eine solche KI einsetzen? Wie stellt man sicher, dass KI nicht diskriminiert? Wie schafft man Vertrauen in KI?
KI kann „kreativ“ sein; sie kann Texte, Bilder etc. generieren. Neben der Frage, wie weit man solchen KI-generierten Ergebnissen inhaltlich „trauen“ kann (Stichwort „Deepfakes“, „KI-Halluzination“9 etc.), drohen Rechtsverletzungen in Bezug auf fremdes geistiges Eigentum. Wer einen Text verfasst oder ein Bild malt, erlangt daran unter bestimmten Voraussetzungen ein Urheberrecht (siehe § 2 Urheberrechtsgesetz). Bis zum Ablauf der Schutzfrist (70 Jahre nach dem Tod des Urhebers) dürfen andere den Text und das Bild grundsätzlich nicht ohne Erlaubnis des Erstellers nutzen. Wer sich von einem generativen KI-System Texte oder Bilder erstellen lässt und diese außerhalb seines privaten Bereichs nutzt, kann also mit dem Urheberrecht in Konflikt geraten. Weitere Rechtsfragen betreffen die Nutzung geschützter Inhalte zum Training der KI und den Schutz KI-generierter Inhalte.
Die KI-Verordnung
Weltweit wird über den gesellschaftlichen Umgang mit Künstlicher Intelligenz nachgedacht. Vorreiter bei der rechtlichen Erfassung ist indes die Europäische Union. Mitte des vergangenen Jahres trat die „Verordnung über Künstliche Intelligenz“ in Kraft. Einheitlich und unmittelbar geltend schafft sie die Grundlagen für die Regulierung von Künstlicher Intelligenz in der gesamten Europäischen Union. Wer in der EU KI-Systeme anbieten und einsetzen möchte, muss sich zukünftig an die Vorgaben der KI-VO halten. Die KI-VO schafft damit innerhalb der EU ein „Level playing field“; aufgrund ihrer Anknüpfung an das Inverkehrbringen bzw. Anwenden in der EU hat sie möglicherweise sogar das Potenzial, zum globalen Vorbild in der KI-Regulierung zu werden (sog. „Brussels Effect“).
Die KI-VO soll die Einführung von auf den Menschen ausgerichteter und vertrauenswürdiger KI fördern und ein hohes Schutzniveau für Gesundheit, Sicherheit und Grundrechte, Demokratie, Rechtsstaatlichkeit und Umweltschutz sicherstellen (Artikel 1 Absatz 1 KI-VO). Sie verfolgt dabei einen risikobasierten Ansatz: Je riskanter der Einsatz von KI ist, desto höher sind die regulatorischen Anforderungen an KI-Systeme.10
Manches ist generell verboten, wie etwa bestimmte KI-Systeme zur Manipulation des Verhaltens von Menschen, zur Bewertung von Menschen anhand von persönlichen Merkmalen wie dem Alter, dem Geschlecht, der Religion etc. (sog. „Social Scoring“), zur Erkennung von Emotionen am Arbeitsplatz oder in Bildungseinrichtungen und einiges mehr (siehe Artikel 5 KI-VO). Bei diesen Praktiken sind die drohenden Auswirkungen auf die davon betroffenen Menschen derart gravierend, dass sie schlechthin nicht vertretbar sind. Wer solche verbotenen Praktiken gleichwohl einsetzt, dem drohen Geldbußen bis zu 35 Millionen Euro bzw. bis zu sieben Prozent des gesamten weltweiten Jahresumsatzes, je nachdem, was höher ist (Artikel 99 Absatz 3 KI-VO).
Jenseits dessen agiert die KI-VO dagegen mit Geboten statt Verboten. Die meisten Vorschriften der KI-VO befassen sich mit sog. „Hochrisiko-KI-Systemen“ (Artikel 6 KI-VO). Diese unterliegen zahlreichen Vorgaben, die von den Anbietern (Herstellern) der KI-Systeme bei deren Entwicklung und Inverkehrgabe eingehalten werden. Beispielsweise bedarf es eines Risikomanagementsystems in Form eines kontinuierlichen iterativen Prozesses über den gesamten Lebenszyklus des Hochrisiko-KI-Systems (Artikel 9 KI-VO). Da die KI-VO Hochrisiko-KI-Systeme ungeachtet etwaiger (Rest-)Risiken nicht verbietet, sondern diese im Interesse des technischen Fortschritts in Kauf nimmt, soll auf diese Weise sichergestellt werden, dass Risiken später erkannt werden, um darauf zu reagieren.11 Für viele KI-Systeme spielen hochwertige Daten beim Training eine zentrale Rolle. Fehler in den Trainingsdaten, etwa Verzerrungen der Realität (sog. „Biases“), können sich in der trainierten KI fortsetzen und dann beispielsweise zu den im Ausbildungsplatzbeispiel genannten Diskriminierungen führen. Artikel 10 KI-VO macht deshalb konkrete Vorgaben für die eingesetzten Trainings-, Validierungs- und Testdaten („Datenqualität“). KI-Systeme müssen so konzipiert und entwickelt werden, dass ihr Betrieb hinreichend transparent ist, damit Nutzer die Ergebnisse angemessen interpretieren können (Artikel 13 KI-VO). Dies soll insbesondere dem Black-Box-Effekt entgegenwirken, Vertrauen schaffen und dem Anwender ermöglichen, die Stärken und Grenzen des KI-Systems zu erfassen.12 Noch weiter geht Artikel 14 KI-VO. Dieser schreibt vor, dass KI-Systeme so gestaltet und entwickelt sein müssen, dass sie während ihrer Verwendung von Menschen wirksam beaufsichtigt werden können.
Fazit
Die Menschheitsgeschichte hat gezeigt, dass Technologien eingesetzt werden, wenn sie verfügbar sind. Künstliche Intelligenz zu verbieten, wäre deshalb nicht nur utopisch, sondern würde zugleich Potentiale verschenken, deren wir in vielen Bereichen bedürfen. Bei allem Fortschritt gilt es aber sicherzustellen, dass
der Mensch nicht auf der Strecke bleibt. Technik muss dem Menschen dienen, nicht umgekehrt.
Der von der Europäischen Union mit der KI-VO gewählte Ansatz, nur unzumutbar beeinträchtigende KI-Systeme zu verbieten, jenseits dessen aber konkrete und durchaus herausfordernde Vorgaben für die Entwicklung und den Einsatz von KI-Systemen zu machen, erscheint als ausgesprochen weitsichtig. Die KI-VO könnte und sollte auch außerhalb Europas Schule machen.
Anmerkungen
- Bitkom e.V./DFKI (Hg.), Künstliche Intelligenz, 28; siehe schon McCarthy u.a., A Proposal for the Dartmouth Summer Research Project on Artificial Intelligence, 11: „… making a machine behave in ways that would be called intelligent if a human were so behaving“.
- ChatGPT, Prompt „Was ist Künstliche Intelligenz?“, (13.01.2025 im kostenfreien Zugang von OpenAI).
- Bitkom e.V./DFKI (Hg.): Künstliche Intelligenz, 2017, 28.
- Verordnung (EU) 2024, 1689; hier abgekürzt „KI-VO“, auch bekannt unter ihrer englischen Bezeichnung „AI Act“, http://data.europa.eu/eli/reg/2024/1689/oj (13.01.2025).
- Vgl. Erwägungsgrund 12 Satz 4 der KI-VO.
- Vgl. Erwägungsgrund 12 Satz 6 der KI-VO.
- Vgl. Erwägungsgrund 12 Satz 11 der KI-VO.
- Vgl. Brinker u.a., Deep neural networks.
- Vgl. Siebert, Halluzinationen von generativer KI und großen Sprachmodellen.
- Vgl. Erwägungsgrund 26 der KI-VO.
- Vgl. Erwägungsgrund 65 Satz 2 der KI-VO.
- Vgl. Erwägungsgrund 72 der KI-VO.
Literatur
- Brinker, Titus J. u.a.: Deep neural networks are superior to dermatologists in melanoma image classification, European Journal of Cancer 119, 11ff. (2019), DOI: https://doi.org/10.1016/j.ejca. 2019.05.023 (13.02.2025)
- Bundesverband Informationswirtschaft, Telekommunikation und neue Medien e.V. (Bitkom e.V.) / Deutsches Forschungszentrum für Künstliche Intelligenz GmbH (DFKI) (Hrsg.), Künstliche Intelligenz. Wirtschaftliche Bedeutung, gesellschaftliche Herausforderungen, menschliche Verantwortung, 2017, https://www.dfki.de/fileadmin/user_upload/import/9744_171012-KI-Gipfelpapier-online.pdf (13.02.2025)
- McCarthy, J. / Minsky, M.L. / Rochester, N. / Shannon, C.E.: A Proposal for the Dartmouth Summer Research Project on Artificial Intelligence, 1955, http://jmc.stanford.edu/articles/dartmouth/dartmouth.pdf (13.02.2025)
- Siebert, Julien, Halluzinationen von generativer KI und großen Sprachmodellen (LLMs), 2024, Blog des Fraunhofer-Institut für Experimentelles Software Engineering vom 20.09.2024 https://kurzlinks.de/yd6w (13.02.2025)
- Verordnung (EU) 2024/1689 des Eurpopäischen Parlaments und des Rates vom 13. Juni 2024 zur Festlegung harmonisierter Vorschriften für künstliche Intelligenz: http://data.europa.eu/eli/reg/2024/1689/oj (13.01.2025)
- Erwägungsgründe, https://artificialintelligenceact.eu/de/ai-act-explorer (13.01.2025)