Wie ist der Einsatz Künstlicher Intelligenz in der Medizin zu bewerten? – Eine kurze medizinethische Betrachtung

Von Marcel Mertz

 

Computer sind aus unserem heutigen Alltag kaum noch wegzudenken, weder in der Freizeit noch vor allem im Berufsleben. Auch gerade in der Medizin bzw. im Gesundheitswesen spielen Computer und computerbasierte Gesundheitstechnologien längst eine beachtliche Rolle. Daher ist es nicht verwunderlich, dass auch Künstliche Intelligenz (KI) in der Medizin eingesetzt wird – oder zunehmend eingesetzt werden soll.

Wie aber ist der Einsatz einer solchen Technologie zu bewerten? Die ELSI-Forschung1, die (neue) Gesundheitstechnologien auf ihre ethischen, rechtlichen und sozialen Implikationen hin prüft, neigt nicht selten zu einer zusammenfassenden Aussage, dass eine Gesundheitstechnologie zwar große Chancen, aber eben auch bedenkenswerte Risiken mit sich bringen wird. Dies trifft auch auf KI zu.

Doch soll es im Folgenden nicht bei einer solchen allgemeinen Aussage bleiben. Vielmehr sollen beispielhaft ethische Aspekte von KI in der Medizin dargestellt werden. Zuerst muss aber genauer bestimmt werden, was „KI“ ist und wofür sie in der Medizin eingesetzt werden kann.

 

Künstliche Intelligenz in der Medizin

Was ist Künstliche Intelligenz?

„Intelligenz“ zu definieren erweist sich allgemein als schwierig. Die Verbindung mit „künstlich“ erleichtert eine Definition keineswegs, da neben eher technische auch philosophische Fragen treten. Eine Gemeinsamkeit lässt sich aber in verschiedenen Definitionsversuchen ausmachen: KI „[…] ist der Versuch, ein System zu entwickeln, das eigenständig komplexe Probleme bearbeiten kann“.2

Dabei soll es hier ausschließlich um „schwache KI“ gehen, d.h. um ein Hard-Softwaresystem, das nur ganz spezifische Probleme intelligent lösen kann und nicht (wie der Mensch) allgemein Probleme („starke KI“).3 Eine solche KI erlernt das spezifische Problemlösen z. B. über maschinelles Lernen, bei dem – im Gegensatz zu einem statischen Programm – „Entscheidungsregeln über eine Rückkoppelung an das Erlernte“ angepasst werden können, oder über tiefes Lernen anhand künstlicher neuronaler Netze (Netzstrukturen, die Nervenzellen nachbilden).4

Wofür wird KI in der Medizin eingesetzt?

KI unterstützt die Dateninterpretation, so z. B. in der Epidemiologie, um Zusammenhänge zwischen gesundheitsrelevanten Merkmalen in einer Bevölkerung zu bestimmen, oder in der pharmazeutischen Forschung, um große Mengen von Substanzen biochemisch oder genetisch auszuwerten (Hochdurchsatz-Screening). Dadurch kann KI auch die Diagnostik verbessern (z. B. bessere Erkennung von Krebszellen bei bildgebenden Verfahren, oder Tracking-Wearables wie Smartwatches, die auf Grundlage der Messung der Herzfrequenz Hinweise auf das Bestehen von Diabetes geben können). Ferner kann KI auch die Erstellung von Prognosen und die Behandlungsplanung unterstützen, bspw. in Form von Expertensystemen, die anhand einer Wissensbasis (Fachwissen, Daten) Handlungsempfehlungen für z. B. eine Therapie geben können. Neben diesen die ärztliche Tätigkeit unterstützenden Anwendungen wird KI bei der Steuerung von Robotern eingesetzt, wie z. B. bei Pflege-Assistenzrobotern, die entweder die Pflegenden in ihrer Tätigkeit unterstützen oder unmittelbar pflegebedürftige Personen im täglichen Leben, bspw. im Haushalt, helfen sollen (z. B. der Care-O-bot des Fraunhofer Instituts).5

Ethische Aspekte von KI in der Medizin

Um nun ethische Aspekte von KI in der Medizin zu betrachten, bietet es sich an, sich an etablierten medizinethischen Prinzipien und Werten zu orientieren (wie bspw. Nutzenchancen, Schadensrisiken, Selbstbestimmung oder Gerechtigkeit):

Nutzenchancen Patient*innen

Ein zweifellos zentrales Prinzip in der Diskussion um KI in der Medizin ist jenes, welches den potenziellen Nutzen für die Patient*innen in den Vordergrund stellt; denn der (gesteigerte) Nutzen stellt die grundlegende Legitimationsquelle jeder neuen Gesundheitstechnologie dar.

Welche möglichen Nutzenchancen werden bei KI gesehen? Mit dem Einsatz von KI wird die Hoffnung verbunden, dass auf Grundlage riesiger Datenmengen – das vielbeschworene „Big Data“ – ein KI-System eher die richtige Diagnose fällen oder eher die beste Behandlungsweise bestimmen können wird, als menschliche Ärzt*innen es jemals könnten.6 Krankheiten können so frühzeitig und präziser erkannt und eine Behandlung rechtzeitig begonnen werden. Dadurch sollen die Heilungschancen der Patient*innen steigen. Ein Beispiel ist die Brustkrebsfrüherkennung durch eine KI-gestützte Analyse von Röntgenbildern. Ferner sollen (menschliche) Behandlungs- und Entscheidungsfehler reduziert werden, die nicht nur die Nutzenchancen reduzieren, sondern zudem Schaden anrichten können.7

Assistenzroboter sollen pflegebedürftige Menschen darin unterstützen, sich im größeren Rahmen selbst versorgen zu können (inkl. Waschen, Kleiden, Mobilität).8 Durch den Einsatz von Robotern – statt fremden Menschen – kann auch die Intimsphäre bei Pflegehandlungen unter Umständen besser gewahrt bleiben.9

Die entscheidende Frage bleibt allerdings, ob tatsächlich ein Nutzen generiert und nicht nur versprochen wird. Gegenwärtig dürfte die Evidenzlage diesbezüglich oft unklar sein, und auch die gemessenen Outcome-Kriterien sind fraglich. So könnte es zwar sein, dass eine KI insgesamt besser Brustkrebs erkennen kann. Sie wird aber auch klinisch wenig relevante Krebsformen identifizieren, die zeitlebens keinen Einfluss auf die Gesundheit haben werden, und kann so Überbehandlung fördern und unnötige Ängste bei Patient*innen verursachen.

Nutzenchancen Gesundheitspersonal /Versorgung

Neben Nutzenchancen für Patient*innen kann KI in der Medizin auch Nutzen für das Gesundheitspersonal oder die Versorgung allgemein haben. Einen solchen Nutzen kann bereits der verbesserte Datenzugriff darstellen, d.h. eine einfachere und schnellere Zusammenführung von Daten der Patient*innen.10  Insgesamt kann die Versorgung dadurch verbessert werden, dass dem Personal mehr Zeit für die Interaktion mit Patient*innen zur Verfügung steht, weil eine KI Routinearbeiten übernehmen könnte. Zudem könnten bei hochansteckenden Patient*innen Roboter eingesetzt werden, um so die Infizierung des Gesundheitspersonals (und der Bevölkerung) einzudämmen – was gerade angesichts von Pandemien wie aktuell COVID-19 vorteilhaft sein könnte.

Aber auch hier bleibt zu fragen, inwieweit so ein Nutzen für das Gesundheitspersonal tatsächlich besteht. Insbesondere bei Pflegerobotern wird kritisch diskutiert, ob sie nur ein Hilfsmittel für das Pflegepersonal oder am Ende doch eher ein Ersatz sein werden11, mit allen damit verbunden Folgen wie Arbeitsplatzverluste und verringerter menschlicher Kontakt zu den Patient*innen.

Schadensrisiken Patient*innen

Selbst wenn der Einsatz von KI grundsätzlich einen gesundheitlichen Nutzen mit sich bringen könnte, könnte es dennoch auch Risiken geben. Insbesondere wird diskutiert, ob der verminderte (emotionale) Kontakt zu Patient*innen langfristig zu einem Solidaritätsverlust führen würde.12 Ebenso kann ein übersteigertes Sich-verlassen auf eine KI problematisch werden13: Eine KI kann aufgrund unzureichender Daten Variationen von Krankheiten möglicherweise nicht erkennen und selbst mit gutem Training falsche Ergebnisse liefern. So kann eine KI mit 10.000 Bildern darauf trainiert werden, Anzeichen für das Vorliegen von Brustkrebs zu erkennen, und sollte danach in der Lage sein, bei neuen unbekannten Bildern Brustkrebs zu identifizieren; aber selbst dann wird eine KI gelegentlich falsch entscheiden.14 Darüber hinaus könnte eine KI wie jedes Computersystem auch absichtlich manipuliert werden (Hacking, Computer-Viren).15

Ähnlich wie bei den Nutzenchancen bleibt zu fragen, inwieweit die angesprochenen Risiken tatsächlich (und in einem relevanten Ausmaß) auftreten werden. Bestehen die Risiken tatsächlich, muss geklärt werden, inwieweit sie durch „flankierende Maßnahmen“ wie bessere KI-Systeme, angepasste Strukturen oder Handlungsrichtlinien ausreichend abgemildert werden können.

Selbstbestimmung und Privatsphäre

Wem die (gesundheitsbezogenen) Daten gehören, die erhoben und verarbeitet werden, ist eine Frage, die die Privatsphäre betreffen. Es kann bspw. schwierig werden zu verhindern, dass die Patient*innen anhand der gewonnenen Daten wieder identifiziert werden können.16 Zudem besteht eine Gefahr der Kommerzialisierung, wenn Daten von privaten Firmen erhoben und weitergegeben werden.17 Allerdings braucht es große Datenmengen für effiziente KI, weshalb oft private Firmen involviert sein werden. Letztlich muss die Privatheit der Daten mit Werten wie Gerechtigkeit und Wohltätigkeit abgewogen werden, da mit den Daten prinzipiell (fremden) Menschen geholfen werden könnte.18 Dies kann auch zum (provokanten) Vorschlag führen, dass manche Daten von Patient*innen eingefordert werden können müssten.19

Bei der Selbstbestimmung der Patient*innen ist problematisch, dass KI kaum die medizinischen Präferenzen von Patient*innen berücksichtigen kann, sowohl bei Behandlungsmethoden (z. B. Präferenz von Pillen gegenüber Spritzen) als auch bei persönlichen Werten (z. B. hohe Gewichtung der Familie).20  Ferner haben Patient*innen i.d.R. keinen Zugriff auf die Daten und auf den Algorithmus, sodass eine KI eine mangelnde Transparenz hinsichtlich ihrer Entscheidungswege aufweist21 ; der Fairness halber muss man allerdings festhalten, dass auch Entscheidungen von Ärzt*innen aus Sicht der Patient*innen oft genug eine „Black Box“ darstellen. Eine gemeinsame Entscheidung von Ärzt*in und Patient*in zu (weiterer) Diagnostik und v.a. Therapie (shared decision-making) scheint jedenfalls bei KI vorerst nicht oder nur eingeschränkt möglich zu sein.

Angesichts der doch nicht wenigen ungeklärten Fragen im Zusammenhang mit einer KI bleibt wichtig, dass Patient*innen das Recht haben sollten, sowohl Diagnose als auch die Behandlungsplanung durch (nur) eine KI abzulehnen.22

Gerechtigkeit

Als Teil eines gerechten Umgangs mit knappen Ressourcen kann eine KI den Ressourcenbedarf senken, weil schneller mehr Daten verarbeitet werden können.23  Auch könnte eine KI im Prinzip Menschen unterschiedlicher Herkunft und sozialen Standes fairer behandeln. Jedoch gibt es bereits Fälle, in denen sich gezeigt hat, dass Algorithmen z. B. aufgrund einseitiger Daten oder unzureichenden Trainings verzerrt sein können, sodass sie bei der Anwendung zu Diskriminierung bestimmter Bevölkerungsgruppen führen.24 Bei Pflegerobotern muss sich eine Gesellschaft ferner die Frage stellen, ob sich teure und effiziente Systeme am Ende doch nur wohlhabende Bürger*innen privat leisten könnten oder inwieweit die Solidargemeinschaft auch diese Leistung mitzutragen hat.25 


Ausblick

Man kann sich leicht darauf einigen, dass es ethisch unverantwortlich wäre, neue Technologien – wie KI – nicht zu verwenden, wenn dadurch Leben gerettet oder die Lebensqualität verbessert werden können. Die „ketzerische“ Frage bei KI bleibt aber, ob sie das tatsächlich bereits tut und ob mögliche schädliche Nebeneffekte, auch in Bezug auf Selbstbestimmung und Gerechtigkeit, ausreichend abgemildert werden können. Dies verdeutlicht die Wichtigkeit vertiefter empirisch-sozialwissenschaftlicher Forschung zu den genannten medizinethischen Aspekten.

Aber über die Medizinethik hinausreichende Fragen dürfen nicht ausgeblendet werden: Was könnte ein Gesundheitssystem, bei dem KI eine zentrale Rolle übernimmt, langfristig mit unserem Menschenbild machen – mit unserem Verständnis von Freiheit, Rationalität, Verantwortlichkeit oder Moralität?26 Diese Fragen bedürfen noch stärker als die medizinethischen Aspekte eines gesellschaftlichen Diskurses, um die Rahmenbedingungen eines zukünftigen und breiteren Einsatzes von KI in der Medizin vernünftig und sozial legitimiert gestalten zu können.

Anmerkungen

  1. ELSI = Ethical, Legal and Social Issues
  2. Kirste/Schürholz: Entwicklungswege zur KI, 21.
  3. Ebd., 21.
  4. Ebd., 24. 29.
  5. Vgl. dazu Unterrichtsideen von Kirsten Rabe unter https://www.rpi-loccum.de/material/pelikan/pel2-18/2-18_rabe.
  6. Ploug/Holm: The right to refuse diagnostics and treatment planning by artificial intelligence, 107f.
  7. Sahm: Digitale Anthropologie, 928.
  8. Vandemeulebrouke/de Casterlé/Gastmans: The use of care robots in aged care, 15.
  9. Sahm: Digitale Anthropologie, 928.
  10. Manzeschke/Brink: Ethik der Digitalisierung im Gesundheitswesen, 2.
  11. Vandemeulebrouke/de Casterlé/Gastmans: The use of care robots in aged care, 22.
  12. Manzeschke/Brink: Ethik der Digitalisierung im Gesundheitswesen, 10f.
  13. Ebd., 6.
  14. Beispiel leicht verändert übernommen aus: Kirste/Schürholz: Entwicklungswege zur KI, 32.
  15. Manzeschke/Brink: Ethik der Digitalisierung im Gesundheitswesen, 6.
  16. Jaremko u.a.: Canadian association of radiologists white paper, 108f.
  17. Ebd., 110.
  18. Ebd., 109.
  19. Wiens u.a.: Do no harm: a roadmap for responsible machine learning for health care, 1338.
  20. Ploug/Holm: The right to refuse diagnostics and treatment planning by artificial intelligence, 109.
  21. Manzeschke/Brink: Ethik der Digitalisierung im Gesundheitswesen, 8f.
  22. Vgl. Ploug/Holm: The right to refuse diagnostics and treatment planning by artificial intelligence.
  23. Jaremko u.a.:Canadian association of radiologists white paper, 109.
  24. Wiens u.a.: Do no harm: a roadmap for responsible machine learning for health care, 1338.
  25. Manzeschke/Brink: Ethik der Digitalisierung im Gesundheitswesen, 10.
  26. Ebd., 11f.

Literatur

  • Jaremko, Jacob L. u.a.: Canadian association of radiologists white paper on ethical and legal issues related to artificial Intelligence in radiology, in: Canadian Association of Radiologists Journal (70) 2019, 107-118
  • Kirste, Moritz/Schürholz, Markus: Entwicklungswege zur KI. in: Wittpahl, Volker (Hg.): Künstliche Intelligenz, Berlin/Heidelberg 2019
  • Manzeschke, Aren/Brink, Alexander: Ethik der Digitalisierung im Gesundheitswesen, in: Frenz, Walter (Hg.): Handbuch Industrie 4.0: Recht, Technik, Gesellschaft, Berlin/Heidelberg 2020
  • Ploug, Thomas/Holm, Søren: The right to refuse diagnostics and treatment planning by artificial intelligence, in: Medicine, Health Care and Philosophy (23) 2020, 107-114
  • Sahm, Stephan: Digitale Anthropologie: Ethische Probleme der Anwendung künstlicher Intelligenz und Robotik in der Pflege und Medizin, in: Medizinrecht (37) 2019, 927-933
  • Vandemeulebrouke, Tijs/de Casterlé, Bernadette D./Gastmans, Chris: The use of care robots in aged care: A systematic review of argument-based ethics literature, in: Archives of Gerontology and Geriatrics (74) 2018, 15-25
  • Wiens, Jenna u.a.: Do no harm: a roadmap for responsible machine learning for health care, in: Nature Medicine (25) 2019, 1337-1340