Introduction
Introduction Statistics Contact Development Disclaimer Help
# taz.de -- Künstliche Intelligenz in der Medizin: Algorithmus auf Rezept
> Künstliche Intelligenz wird Ärzt:innen nicht ersetzen. Die Technologie
> kann sie aber entscheidend entlasten, sagt die Medizinethikerin Alena
> Buyx.
Bild: Direkte Kommunikation zwischen Arzt und Patient
wochentaz: Frau Buyx, wie wichtig ist es für Menschen, dass sie nicht von
einem Computersystem, sondern von einem anderen Menschen behandelt werden?
Alena Buyx: Das ist sehr individuell. Menschen stehen [1][Technik sehr
unterschiedlich offen gegenüber]. Die einen fühlen sich wohler damit,
vermeintlich peinliche Sachen einer Maschine zu erzählen. Andere erwarten
von ihr mehr Präzision. Wieder andere wollen unbedingt den Kontakt zu
Menschen und von KI gar nichts hören. Viele stehen dem Einsatz von
künstlicher Intelligenz in diagnostischen Anwendungen offener gegenüber als
in der eigentlichen Behandlung. Es wird eine große Herausforderung, auf
diese verschiedenen Bedürfnisse einzugehen.
Wie kann das gelingen?
Die Medizin ist grundsätzlich gut darin, mit verschiedenen Optionen zu
arbeiten, vor allem in der Behandlung. Um den Menschen Vorbehalte zu
nehmen, muss Patientinnen und Patienten gegenüber viel erklärt werden.
KI ist erst mal ein Werkzeug, das sich überall anwenden lässt. Was macht
sie besonders in der Medizin?
Künstliche Intelligenz ist ein Instrument, nicht mehr, nicht weniger. Diese
aktuelle Überhöhung ist problematisch. Für die Anwendung haben [2][wir im
Ethikrat eine ethische Faustregel entwickelt]: KI muss die Handlungs- und
Entfaltungsmöglichkeiten des Menschen erweitern und nicht verringern, und
sie darf den Menschen nicht ersetzen. Diese Aspekte sind sehr relevant für
die Medizin. Wenn man KI sinnvoll einsetzt, kann das Verhältnis von Nutzen
und Risiko in der Medizin aber positiv sein, weil die Möglichkeiten vor
allem der prädiktiven Mustererkennung so hoch sind. Das hilft in der
Forschung oder auch der Diagnostik und Prävention.
Welche Rolle spielt KI heute schon in der Medizin?
In der medizinischen Praxis in Deutschland ist der Einsatz noch nicht
etabliert. Sehr gut funktioniert KI aber beispielsweise schon in der
Medikamentenentwicklung.
In welchem Bereich könnte der Einsatz am besten wirken?
Menschen in Gesundheitsberufen verbringen bis zu vierzig Prozent ihrer
Arbeitszeit mit Verwaltungsaufgaben am Computer. Ich wünsche mir, dass KI
die Leute freispielt. Es ist eine falsche Zielsetzung, direkt in den Kern
des Arzt-Patienten-Verhältnisses reinzugehen. Dieser Aspekt der Behandlung
ist zentral und zu Recht stark geschützt. Eine viel weniger problematische,
echte Erleichterung wäre es, wenn die KI-Modelle etwa [3][Arztbriefe
vorschreiben], Akten vorauswerten, Dokumentation vorbereiten.
Es gibt auch Anwendungsbeispiele bei der Diagnose und
Behandlungsempfehlungen. Wo ist da das Potenzial?
Hier geht es ins [4][Arzt-Patienten-Verhältnis], also müssen wir
vorsichtig sein. Bei diagnostischen Befundungssystemen, etwa in der
Bildgebung von Röntgen- oder CT-Aufnahmen, können Algorithmen helfen,
Muster zu erkennen, und auf veränderte Strukturen hinweisen. Und im Bereich
der Vorhersage ist irre viel Musik drin. Zum Beispiel in der frühen
Erkennung von akutem Nierenversagen auf der Intensivstation, das sehr
gefährlich sein kann. Eine KI konnte diese Komplikation in 48 Stunden mit
guter Präzision vorhersagen, zeigte zuletzt ein wissenschaftliches Paper.
Der Datensatz war allerdings verzerrt, er stammte zum Großteil von
männlichen Patienten. Das ist ein wichtiges Problem beim Training von
KI-Systemen, so was muss vermieden werden.
Künstliche Intelligenz darf keine Menschen ersetzen, sagten Sie. Wie viel
Macht dürfen solche Systeme haben? Braucht es dafür bestimmte Regeln, die
etwa festlegen, dass die letzte Entscheidung immer ein*e Ärzt*in treffen
muss?
Die Letztverantwortung eines gesamten Behandlungsprozesses muss bei der
Ärztin, dem Arzt liegen. Dennoch kann es in bestimmten Bereichen eine Art
geteilter Verantwortung geben. Dort, wo es angemessen machbar ist, können
Algorithmen einzelne Entscheidungsaspekte überlassen werden – aber nur
eingebettet in den gesamten Prozess.
Selbst wenn Ärzt*innen die letzte Entscheidung treffen, beeinflusst ihr
Vertrauen in Technik sie. Dieses darf nicht blind sein. Wie können sie beim
Einsatz von KI mit diesem Problem, dem sogenannten Automation Bias,
umgehen?
Menschen haben die Tendenz, stark an Technologie zu glauben. In Kliniken
fehlt außerdem oft die Zeit, das verstärkt die Gefahr, dass Ergebnisse
eines Algorithmus nicht hinterfragt werden. Bei der Etablierung von KI im
medizinischen Alltag sollte daher sowohl daran geforscht werden, wie gut
die Methode funktioniert, als auch daran, wie sie Ärztinnen und Ärzte
beeinflusst und wie ein Automation Bias vermieden werden kann.
Es gibt Studien, die einen [5][Unterschied bei Automation Bias zeigen,] je
nachdem, wann Mediziner*innen Informationen von der KI bekommen,
abhängig davon, ob sie sich erst ein eigenes Bild gemacht haben.
Genau. Wann und wie sie Informationen erhalten, sollte miterforscht werden.
Ansätze, dem zu begegnen, liegen etwa im Design der Benutzeroberflächen und
wie dabei Unsicherheiten im Ergebnis kommuniziert werden. Oder man baut
Zwischenchecks ein, die Ärztinnen und Ärzte auffordern, Ergebnisse noch mal
zu überprüfen. Ein Thema, das sich dem direkt anschließt, ist zudem das
De-skilling.
Was heißt das?
Menschen verlernen bestimmte Dinge, wenn sie sich immer auf ein System
verlassen können. An sich ist das keine Katastrophe. Die Medizin kennt
solche Prozesse. Früher hat man beispielsweise viel mehr offen operiert,
dann kam die minimalinvasive Chirurgie. Es folgt eine Übergangsphase, heute
operiert man bei vielen Indikationen standardmäßig minimalinvasiv. Die
Fähigkeiten verschieben sich und das ist okay. Die Regeln dafür, welche
Fähigkeiten wie erhalten werden müssen, sollten von der medizinischen
Community selbst entwickelt werden.
Wo wird KI bereits in der Praxis eingesetzt?
Es gibt schon länger Assistenzsysteme, die auf Algorithmen basieren, etwa
in der Vorbefundung von Lungen-Röntgenaufnahmen. Auch in der Psychotherapie
wird KI im Ausland bereits teils breit angewendet. In der
Verhaltenstherapie gibt es Chatbots, mit denen Patienten alleine arbeiten
können. Solche Tools sollten aber von Therapeuten als Instrument in einem
professionellen therapeutischen Kontext eingesetzt werden. Der Behandler
bleibt verantwortlich für den gesamten Prozess.
Damit sind also nicht Psychotherapie-Apps aus dem App-Store gemeint.
Inwieweit sind diese positiv zu sehen?
Nun, es gibt die sozusagen in besser. Die Software, die es im App-Store
frei oder für 3,50 Euro gibt, sind am ehesten Beta-Versionen. Sie sind
dort, um Daten zu sammeln für ihr Training. Später verlassen sie den Store
wieder und werden spezifisch trainiert, verbessert und dann teils als
professionelle, medizinische Anwendung angeboten. Um als Medizintechnik
zugelassen zu werden, müssen sie ohnehin einen entsprechenden
Zulassungsprozess durchlaufen. In Deutschland sind nur wenige KI-basierte
Medizin-Apps im Gebrauch. In den USA etwa gibt es aber einzelne
Krankenhäuser, die nur noch technologisierte Psychotherapien anbieten. Da
gibt es keine Psychotherapeuten mehr.
Das klingt dystopisch.
Genau so darf es eben nicht passieren, selbst mit spezifischen, gut
trainierten Systemen. Deshalb sollte vor allem die medizinische Community
sich genau überlegen, was sie entwickeln wollen.
Das heißt?
Entwickler sehen oft mal einen Datensatz und fragen sich: Was kann ich
damit Tolles machen? Sinnvoll wäre es andersherum. Was brauchen wir in der
Medizin wirklich? Was wollen wir der KI gegebenenfalls teilweise
überlassen? Deswegen ist es hochproblematisch, wenn nur noch Algorithmen
Psychotherapie abwickeln. Das sind die vier Schritte zu weit.
Aktuell sprechen viele Forschende davon, dass sie sich in einer
Zwischenphase befinden. KI-Systeme sind teils noch nicht gut genug und es
ist unklar, welche Regeln es genau braucht. Ist das auch eine politische
Frage?
Auch, aber selbst Fachpolitikerinnen und Fachpolitiker wissen teilweise
nicht genau, was die Bedarfe auf Station sind. Wo brauchen wir die Leute am
meisten? Welche Handlungsbereiche wollen wir wirklich schützen? Das wissen
die Menschen aus der Praxis am besten. Sie sollten entsprechend die
internen Standards jedenfalls mitentwickeln. Die Politik kann ja nicht
vorgeben, wann und wie etwa Informationen an einen Arzt kommuniziert werden
sollen. Das wäre etwas absurd. Politik ist für die Leitplanken da, die
Fachcommunitys für die internen Standards von Entwicklung und Anwendung.
Ein politisches Thema ist aber die Nutzung von Daten, von denen künstliche
Intelligenz sehr viele braucht. Dazu traten im März erst das Digitalgesetz
und das Gesundheitsdatennutzungsgesetz in Kraft. Sie sehen vor, dass
künftig [6][eine Widerspruchslösung] für die Datennutzung ausgearbeitet
wird. Wie sinnvoll könnte das sein?
Das ist sehr sinnvoll, wenn es verantwortlich gemacht wird. Wenn man diese
Technologie in ihrer besten Ausprägung haben will, braucht man unbedingt
gute, eigene Daten. Wir sind in Deutschland diesbezüglich bisher sehr
restriktiv gewesen. Das zu korrigieren halte ich für sehr wichtig. Wir
brauchen unsere eigenen Daten.
China oder die USA sind in der Erforschung von künstlicher Intelligenz
schon viel weiter. Ihre Systeme können wir hier aber nicht nutzen?
Es braucht Daten von Menschen und Verwaltungen in Deutschland, das ist ein
anderer Kontext und sind andere Patienten. Plakative Berichte über eine KI,
die in irgendeinem Bereich besser als ein Facharzt war, zeigen lediglich
das Potenzial der Technologie auf. Und tatsächlich ist ja eine prinzipiell
bessere Diagnose oder Behandlung auch das Mindeste, was wir von KI erwarten
– wir würden ja nicht etwas einführen, was schlechter ist. Die Systeme
müssen sich dann aber auch noch in der echten Situation, in der echten
Praxis bewähren. Und das sicher zu gewährleisten ist die große Hürde, die
in meiner Wahrnehmung noch nicht wirklich genommen ist.
6 Jul 2024
## LINKS
[1] https://www.bertelsmann-stiftung.de/de/publikationen/publikation/did/deutsc…
[2] https://www.ethikrat.org/fileadmin/Publikationen/Stellungnahmen/deutsch/ste…
[3] https://www.fraunhofer.de/de/presse/presseinformationen/2023/august-2023/ku…
[4] https://www.coe.int/en/web/bioethics/report-impact-of-ai-on-the-doctor-pati…
[5] https://www.ncbi.nlm.nih.gov/pmc/articles/PMC10916499/
[6] https://www.bundesgesundheitsministerium.de/presse/pressemitteilungen/bunde…
## AUTOREN
Adefunmi Olanigan
## TAGS
Zukunft
GNS
Medizin
wochentaz
Schwerpunkt Künstliche Intelligenz
Ethikrat
Hannover
Ethikrat
Zukunft
Zukunft
Schwerpunkt Künstliche Intelligenz
GNS
## ARTIKEL ZUM THEMA
Künstliche Intelligenz in der Medizin: Ambivalente Datenmassen
KI in der Medizin ist überlegen, wenn es um winzige Abweichungen geht. Aber
ihr Einsatz kann auch zu weit gehen. Zwei KI-Projekte in Kiel und Hannover.
Deutscher Ethikrat vollständig: Ampel besinnt sich auf die Ethik
Monatelang war der Deutsche Ethikrat nicht arbeitsfähig – weil die
Ampelregierung keine Mitglieder benannte. Das hat sich jetzt geändert.
KI in der Medizin: Für Körper, Kopf und Herz
Bereits heute kann künstliche Intelligenz die medizinische Behandlung
unterstützen und sogar Leben retten. Drei Beispiele aus der Praxis.
KI und die frühe Krebserkennung: Besser als das menschliche Auge
Eine Künstliche Intelligenz soll die Behandlungschancen von Tumoren
verbessern. Erste Studienergebnisse sind vielversprechend.
Umgang mit künstlicher Intelligenz: Akzeptanz braucht Transparenz
KI bietet Chancen. Um einen guten Umgang mit ihr zu finden, muss es noch
viel mehr Transparenz über ihren Einsatz und ihre Risiken geben.
Künstliche Intelligenz in der Medizin: Hatschi? KI!
Künstliche Intelligenz hält zunehmend Einzug in die Medizin. Das ist kein
Problem. Richtig eingesetzt kann sie Patient:innen wie Ärzt:innen
helfen.
You are viewing proxied material from taz.de. The copyright of proxied material belongs to its original authors. Any comments or complaints in relation to proxied material should be directed to the original authors of the content concerned. Please see the disclaimer for more details.