# taz.de -- Künstliche Intelligenz in der Medizin: Algorithmus auf Rezept | |
> Künstliche Intelligenz wird Ärzt:innen nicht ersetzen. Die Technologie | |
> kann sie aber entscheidend entlasten, sagt die Medizinethikerin Alena | |
> Buyx. | |
Bild: Direkte Kommunikation zwischen Arzt und Patient | |
wochentaz: Frau Buyx, wie wichtig ist es für Menschen, dass sie nicht von | |
einem Computersystem, sondern von einem anderen Menschen behandelt werden? | |
Alena Buyx: Das ist sehr individuell. Menschen stehen [1][Technik sehr | |
unterschiedlich offen gegenüber]. Die einen fühlen sich wohler damit, | |
vermeintlich peinliche Sachen einer Maschine zu erzählen. Andere erwarten | |
von ihr mehr Präzision. Wieder andere wollen unbedingt den Kontakt zu | |
Menschen und von KI gar nichts hören. Viele stehen dem Einsatz von | |
künstlicher Intelligenz in diagnostischen Anwendungen offener gegenüber als | |
in der eigentlichen Behandlung. Es wird eine große Herausforderung, auf | |
diese verschiedenen Bedürfnisse einzugehen. | |
Wie kann das gelingen? | |
Die Medizin ist grundsätzlich gut darin, mit verschiedenen Optionen zu | |
arbeiten, vor allem in der Behandlung. Um den Menschen Vorbehalte zu | |
nehmen, muss Patientinnen und Patienten gegenüber viel erklärt werden. | |
KI ist erst mal ein Werkzeug, das sich überall anwenden lässt. Was macht | |
sie besonders in der Medizin? | |
Künstliche Intelligenz ist ein Instrument, nicht mehr, nicht weniger. Diese | |
aktuelle Überhöhung ist problematisch. Für die Anwendung haben [2][wir im | |
Ethikrat eine ethische Faustregel entwickelt]: KI muss die Handlungs- und | |
Entfaltungsmöglichkeiten des Menschen erweitern und nicht verringern, und | |
sie darf den Menschen nicht ersetzen. Diese Aspekte sind sehr relevant für | |
die Medizin. Wenn man KI sinnvoll einsetzt, kann das Verhältnis von Nutzen | |
und Risiko in der Medizin aber positiv sein, weil die Möglichkeiten vor | |
allem der prädiktiven Mustererkennung so hoch sind. Das hilft in der | |
Forschung oder auch der Diagnostik und Prävention. | |
Welche Rolle spielt KI heute schon in der Medizin? | |
In der medizinischen Praxis in Deutschland ist der Einsatz noch nicht | |
etabliert. Sehr gut funktioniert KI aber beispielsweise schon in der | |
Medikamentenentwicklung. | |
In welchem Bereich könnte der Einsatz am besten wirken? | |
Menschen in Gesundheitsberufen verbringen bis zu vierzig Prozent ihrer | |
Arbeitszeit mit Verwaltungsaufgaben am Computer. Ich wünsche mir, dass KI | |
die Leute freispielt. Es ist eine falsche Zielsetzung, direkt in den Kern | |
des Arzt-Patienten-Verhältnisses reinzugehen. Dieser Aspekt der Behandlung | |
ist zentral und zu Recht stark geschützt. Eine viel weniger problematische, | |
echte Erleichterung wäre es, wenn die KI-Modelle etwa [3][Arztbriefe | |
vorschreiben], Akten vorauswerten, Dokumentation vorbereiten. | |
Es gibt auch Anwendungsbeispiele bei der Diagnose und | |
Behandlungsempfehlungen. Wo ist da das Potenzial? | |
Hier geht es ins [4][Arzt-Patienten-Verhältnis], also müssen wir | |
vorsichtig sein. Bei diagnostischen Befundungssystemen, etwa in der | |
Bildgebung von Röntgen- oder CT-Aufnahmen, können Algorithmen helfen, | |
Muster zu erkennen, und auf veränderte Strukturen hinweisen. Und im Bereich | |
der Vorhersage ist irre viel Musik drin. Zum Beispiel in der frühen | |
Erkennung von akutem Nierenversagen auf der Intensivstation, das sehr | |
gefährlich sein kann. Eine KI konnte diese Komplikation in 48 Stunden mit | |
guter Präzision vorhersagen, zeigte zuletzt ein wissenschaftliches Paper. | |
Der Datensatz war allerdings verzerrt, er stammte zum Großteil von | |
männlichen Patienten. Das ist ein wichtiges Problem beim Training von | |
KI-Systemen, so was muss vermieden werden. | |
Künstliche Intelligenz darf keine Menschen ersetzen, sagten Sie. Wie viel | |
Macht dürfen solche Systeme haben? Braucht es dafür bestimmte Regeln, die | |
etwa festlegen, dass die letzte Entscheidung immer ein*e Ärzt*in treffen | |
muss? | |
Die Letztverantwortung eines gesamten Behandlungsprozesses muss bei der | |
Ärztin, dem Arzt liegen. Dennoch kann es in bestimmten Bereichen eine Art | |
geteilter Verantwortung geben. Dort, wo es angemessen machbar ist, können | |
Algorithmen einzelne Entscheidungsaspekte überlassen werden – aber nur | |
eingebettet in den gesamten Prozess. | |
Selbst wenn Ärzt*innen die letzte Entscheidung treffen, beeinflusst ihr | |
Vertrauen in Technik sie. Dieses darf nicht blind sein. Wie können sie beim | |
Einsatz von KI mit diesem Problem, dem sogenannten Automation Bias, | |
umgehen? | |
Menschen haben die Tendenz, stark an Technologie zu glauben. In Kliniken | |
fehlt außerdem oft die Zeit, das verstärkt die Gefahr, dass Ergebnisse | |
eines Algorithmus nicht hinterfragt werden. Bei der Etablierung von KI im | |
medizinischen Alltag sollte daher sowohl daran geforscht werden, wie gut | |
die Methode funktioniert, als auch daran, wie sie Ärztinnen und Ärzte | |
beeinflusst und wie ein Automation Bias vermieden werden kann. | |
Es gibt Studien, die einen [5][Unterschied bei Automation Bias zeigen,] je | |
nachdem, wann Mediziner*innen Informationen von der KI bekommen, | |
abhängig davon, ob sie sich erst ein eigenes Bild gemacht haben. | |
Genau. Wann und wie sie Informationen erhalten, sollte miterforscht werden. | |
Ansätze, dem zu begegnen, liegen etwa im Design der Benutzeroberflächen und | |
wie dabei Unsicherheiten im Ergebnis kommuniziert werden. Oder man baut | |
Zwischenchecks ein, die Ärztinnen und Ärzte auffordern, Ergebnisse noch mal | |
zu überprüfen. Ein Thema, das sich dem direkt anschließt, ist zudem das | |
De-skilling. | |
Was heißt das? | |
Menschen verlernen bestimmte Dinge, wenn sie sich immer auf ein System | |
verlassen können. An sich ist das keine Katastrophe. Die Medizin kennt | |
solche Prozesse. Früher hat man beispielsweise viel mehr offen operiert, | |
dann kam die minimalinvasive Chirurgie. Es folgt eine Übergangsphase, heute | |
operiert man bei vielen Indikationen standardmäßig minimalinvasiv. Die | |
Fähigkeiten verschieben sich und das ist okay. Die Regeln dafür, welche | |
Fähigkeiten wie erhalten werden müssen, sollten von der medizinischen | |
Community selbst entwickelt werden. | |
Wo wird KI bereits in der Praxis eingesetzt? | |
Es gibt schon länger Assistenzsysteme, die auf Algorithmen basieren, etwa | |
in der Vorbefundung von Lungen-Röntgenaufnahmen. Auch in der Psychotherapie | |
wird KI im Ausland bereits teils breit angewendet. In der | |
Verhaltenstherapie gibt es Chatbots, mit denen Patienten alleine arbeiten | |
können. Solche Tools sollten aber von Therapeuten als Instrument in einem | |
professionellen therapeutischen Kontext eingesetzt werden. Der Behandler | |
bleibt verantwortlich für den gesamten Prozess. | |
Damit sind also nicht Psychotherapie-Apps aus dem App-Store gemeint. | |
Inwieweit sind diese positiv zu sehen? | |
Nun, es gibt die sozusagen in besser. Die Software, die es im App-Store | |
frei oder für 3,50 Euro gibt, sind am ehesten Beta-Versionen. Sie sind | |
dort, um Daten zu sammeln für ihr Training. Später verlassen sie den Store | |
wieder und werden spezifisch trainiert, verbessert und dann teils als | |
professionelle, medizinische Anwendung angeboten. Um als Medizintechnik | |
zugelassen zu werden, müssen sie ohnehin einen entsprechenden | |
Zulassungsprozess durchlaufen. In Deutschland sind nur wenige KI-basierte | |
Medizin-Apps im Gebrauch. In den USA etwa gibt es aber einzelne | |
Krankenhäuser, die nur noch technologisierte Psychotherapien anbieten. Da | |
gibt es keine Psychotherapeuten mehr. | |
Das klingt dystopisch. | |
Genau so darf es eben nicht passieren, selbst mit spezifischen, gut | |
trainierten Systemen. Deshalb sollte vor allem die medizinische Community | |
sich genau überlegen, was sie entwickeln wollen. | |
Das heißt? | |
Entwickler sehen oft mal einen Datensatz und fragen sich: Was kann ich | |
damit Tolles machen? Sinnvoll wäre es andersherum. Was brauchen wir in der | |
Medizin wirklich? Was wollen wir der KI gegebenenfalls teilweise | |
überlassen? Deswegen ist es hochproblematisch, wenn nur noch Algorithmen | |
Psychotherapie abwickeln. Das sind die vier Schritte zu weit. | |
Aktuell sprechen viele Forschende davon, dass sie sich in einer | |
Zwischenphase befinden. KI-Systeme sind teils noch nicht gut genug und es | |
ist unklar, welche Regeln es genau braucht. Ist das auch eine politische | |
Frage? | |
Auch, aber selbst Fachpolitikerinnen und Fachpolitiker wissen teilweise | |
nicht genau, was die Bedarfe auf Station sind. Wo brauchen wir die Leute am | |
meisten? Welche Handlungsbereiche wollen wir wirklich schützen? Das wissen | |
die Menschen aus der Praxis am besten. Sie sollten entsprechend die | |
internen Standards jedenfalls mitentwickeln. Die Politik kann ja nicht | |
vorgeben, wann und wie etwa Informationen an einen Arzt kommuniziert werden | |
sollen. Das wäre etwas absurd. Politik ist für die Leitplanken da, die | |
Fachcommunitys für die internen Standards von Entwicklung und Anwendung. | |
Ein politisches Thema ist aber die Nutzung von Daten, von denen künstliche | |
Intelligenz sehr viele braucht. Dazu traten im März erst das Digitalgesetz | |
und das Gesundheitsdatennutzungsgesetz in Kraft. Sie sehen vor, dass | |
künftig [6][eine Widerspruchslösung] für die Datennutzung ausgearbeitet | |
wird. Wie sinnvoll könnte das sein? | |
Das ist sehr sinnvoll, wenn es verantwortlich gemacht wird. Wenn man diese | |
Technologie in ihrer besten Ausprägung haben will, braucht man unbedingt | |
gute, eigene Daten. Wir sind in Deutschland diesbezüglich bisher sehr | |
restriktiv gewesen. Das zu korrigieren halte ich für sehr wichtig. Wir | |
brauchen unsere eigenen Daten. | |
China oder die USA sind in der Erforschung von künstlicher Intelligenz | |
schon viel weiter. Ihre Systeme können wir hier aber nicht nutzen? | |
Es braucht Daten von Menschen und Verwaltungen in Deutschland, das ist ein | |
anderer Kontext und sind andere Patienten. Plakative Berichte über eine KI, | |
die in irgendeinem Bereich besser als ein Facharzt war, zeigen lediglich | |
das Potenzial der Technologie auf. Und tatsächlich ist ja eine prinzipiell | |
bessere Diagnose oder Behandlung auch das Mindeste, was wir von KI erwarten | |
– wir würden ja nicht etwas einführen, was schlechter ist. Die Systeme | |
müssen sich dann aber auch noch in der echten Situation, in der echten | |
Praxis bewähren. Und das sicher zu gewährleisten ist die große Hürde, die | |
in meiner Wahrnehmung noch nicht wirklich genommen ist. | |
6 Jul 2024 | |
## LINKS | |
[1] https://www.bertelsmann-stiftung.de/de/publikationen/publikation/did/deutsc… | |
[2] https://www.ethikrat.org/fileadmin/Publikationen/Stellungnahmen/deutsch/ste… | |
[3] https://www.fraunhofer.de/de/presse/presseinformationen/2023/august-2023/ku… | |
[4] https://www.coe.int/en/web/bioethics/report-impact-of-ai-on-the-doctor-pati… | |
[5] https://www.ncbi.nlm.nih.gov/pmc/articles/PMC10916499/ | |
[6] https://www.bundesgesundheitsministerium.de/presse/pressemitteilungen/bunde… | |
## AUTOREN | |
Adefunmi Olanigan | |
## TAGS | |
Zukunft | |
GNS | |
Medizin | |
wochentaz | |
Schwerpunkt Künstliche Intelligenz | |
Ethikrat | |
Hannover | |
Ethikrat | |
Zukunft | |
Zukunft | |
Schwerpunkt Künstliche Intelligenz | |
GNS | |
## ARTIKEL ZUM THEMA | |
Künstliche Intelligenz in der Medizin: Ambivalente Datenmassen | |
KI in der Medizin ist überlegen, wenn es um winzige Abweichungen geht. Aber | |
ihr Einsatz kann auch zu weit gehen. Zwei KI-Projekte in Kiel und Hannover. | |
Deutscher Ethikrat vollständig: Ampel besinnt sich auf die Ethik | |
Monatelang war der Deutsche Ethikrat nicht arbeitsfähig – weil die | |
Ampelregierung keine Mitglieder benannte. Das hat sich jetzt geändert. | |
KI in der Medizin: Für Körper, Kopf und Herz | |
Bereits heute kann künstliche Intelligenz die medizinische Behandlung | |
unterstützen und sogar Leben retten. Drei Beispiele aus der Praxis. | |
KI und die frühe Krebserkennung: Besser als das menschliche Auge | |
Eine Künstliche Intelligenz soll die Behandlungschancen von Tumoren | |
verbessern. Erste Studienergebnisse sind vielversprechend. | |
Umgang mit künstlicher Intelligenz: Akzeptanz braucht Transparenz | |
KI bietet Chancen. Um einen guten Umgang mit ihr zu finden, muss es noch | |
viel mehr Transparenz über ihren Einsatz und ihre Risiken geben. | |
Künstliche Intelligenz in der Medizin: Hatschi? KI! | |
Künstliche Intelligenz hält zunehmend Einzug in die Medizin. Das ist kein | |
Problem. Richtig eingesetzt kann sie Patient:innen wie Ärzt:innen | |
helfen. |