Page 14 - xpress_Ausgabe 23.4
P. 14
Titelgeschichte
INTERVIEW „CHANCEN DER KI WERDEN GESEHEN“
Die Plattform „Lernende Systeme“ (Anm.: ein vom Bundesministerium für Bildung und Forschung gegründetes Netzwerk für
KI-Expertinnen und -Experten) hat Gesundheitsfachkräfte für ein Whitepaper nach ihren Erwartungen an KI-Systeme gefragt.
Prof. Dr. Klemens Budde von der Nephrologie der Charité Berlin hat das Projekt geleitet.
Î Was sind für Sie die Kernbotschaften Ihrer Befragung? Î Sie haben an Ihrer Klinik ein Tool trainiert und PROF. DR. KLEMENS Abb.: Charité
Eine Kernbotschaft ist, dass Gesundheitsfachkräfte der KI sehr aufgeschlos- klinisch getestet, das das Risiko von Komplikationen BUDDE
sen gegenüberstehen. Die Chancen für die Versorgung werden ganz klar ge- nach einer Nierentransplantation anzeigt. Wie ist Nephrologie
Charité Berlin
sehen. Es werden aber auch Risiken und Probleme erkannt. Das betrifft zum der Stand bei diesem Projekt?
Beispiel Modelle, die nicht zu dem Kontext passen, in dem sie angewandt Wir haben diese KI auf Basis von mehreren Tausend eigenen, longitudinalen
werden. Wir haben auch diskutiert, warum wir überhaupt KI im Gesund- Datensätzen trainiert, für Deutschland recht ungewöhnlich. Sie dient der Vor-
heitswesen anwenden sollen. Weil wir einen Nutzen entweder für unsere hersage von Abstoßung, Transplantatverlust und Tod. Wir konnten zeigen,
Patientinnen und Patienten oder für uns selbst haben wollen. Wenn das dass der KI diese Vorhersage besser gelingt als Ärztinnen und Ärzten. Wie
nicht erreicht wird, brauchen wir den Gesundheitsfachkräften mit KI nicht klinisch relevant das ist, ist dann die andere Frage. Interessant fand ich, dass
zu kommen. Das impliziert, dass KI keine Mehrarbeit produzieren darf, das die jungen Ärztinnen und Ärzte die KI deutlich besser angenommen haben
kam auch sehr deutlich heraus. und auch mehr von der KI profitiert haben. Vielleicht brauchen wir in der
Umsetzung verschiedene Herangehensweisen für verschiedene Gruppen. Ich
Î Angst vor KI gibt es nicht? vergleiche das immer mit einem Lautstärkeregler: Der eine braucht die Hin-
Nein, eher eine sehr realistische Einschätzung, was KI leisten kann und was weise lauter, der andere weniger laut. Interessant fand ich auch, dass erfah-
nicht. Letztlich wollen Gesundheitsfachkräfte und übrigens auch Patientinnen rene Ärztinnen und Ärzte teilweise Problemkonstellationen erkannt haben,
und Patienten, dass die KI nicht autonom vor sich hinarbeitet, sondern dass die die KI nicht auf dem Schirm hatte. Eine KI kann also von ärztlichem Input
sie unterstützt beziehungsweise dass wir als Gesundheitsfachkräfte die Kon- profitieren. Klar ist: Diese naive Hoffnung, wir machen jetzt KI und alles wird
trolle haben. Wir reden in dem Zusammenhang von „meaningful human cont- besser, das ist Unsinn.
rol“. Wenn wir diese Kontrolle ausüben sollen, brauchen wir KI-Kompetenz.
Î Haben Sie im beruflichen Kontext schon mal mit großen Sprachmodel-
Î Wie lässt sich KI-Kompetenz vermitteln? len herumgespielt?
Eine Möglichkeit ist eine Art Beipackzettel für KI-Lösungen. Dieser müsste Ich hatte letztens einen Vortrag zu KI und Transplantation und habe ChatGPT
die spezifischen Use Cases der jeweiligen KI aufschlüsseln, quasi die Indika- gefragt, was ich vortragen soll. Da waren zwei ganz gute Ideen dabei, unter
tionen, bei denen sie zugelassen ist. Gleichzeitig müssten dort auch Limita- anderem dass KI beim Donor-Matching helfen könnte. Aber dann kam noch
tionen und potenzielle Risiken kommuniziert werden, beispielsweise die Po- irgendwas zu KI bei der Vorhersage chronischer Nierenerkrankungen, das
pulation, auf deren Basis die Anwendung trainiert wurde. Es gibt eine KI für war Themaverfehlung. Was aber auch nicht verwunderlich ist, denn es sind
akute Niereninsuffizienz, die im amerikanischen Veteranen-System trainiert ja nur Sprachmodelle, die flüssig Texte formulieren können. Ich glaube, dass
wurde. Die ist nicht schlecht, aber die Veterans sind zu 95 Prozent männlich. solche Tools künftig vor allem bei der Dokumentenerstellung in definierten
Das ist eine Limitation, die man kennen sollte. Kontexten hilfreich sein können.<
in die Fähigkeiten von medizinischer KI – insbe- und Arzte medizinische Fragen von Laien be- Inhaltlich gut oder sehr gut waren 22,1 Prozent
�
sondere bei jüngeren Ärztinnen und Ärzten. antworten. Die Wissenschaftler nahmen 195 der ärztlichen Antworten, aber 78,5 Prozent
Differenzialdiagnostische Fähigkeiten könnten Chatprotokolle, in denen reale A� rztinnen und der ChatGPT-Antworten.
dadurch verloren gehen: „Da werden wir uns A� rzte auf Patientenfragen geantwortet hatten, Dass sich hier für die Zukunft der Praxis-IT
überlegen müssen, wie wir damit umgehen.“ als Ausgangsmaterial. Sie ließen ChatGPT die- interessante Szenarien andeuten, braucht nicht
selben Fragen beantworten. Dann bewerteten eigens erwähnt werden. Nicht nur könnten
Mein Bot war heute wieder sehr empathisch drei geblindete Heilberufler – sie wussten IT-Systeme künftig mit Hilfe von Ambient
Gleichzeitig kann KI natürlich auch Kompeten- nicht, von wem die Antworten stammten – die Recognition vermehrt Dokumentationsaufga-
zen erweitern – auf fachlicher und auf kommu- jeweiligen Chatverläufe hinsichtlich Informa- ben übernehmen. Vielleicht wird es ja sogar
nikativer Ebene. Ein eindrucksvolles Beispiel tionsqualität sowie Empathie der Kommuni- „Empathie-Module“ geben, die eine (zu) kurze
lieferte eine im April 2023 in der Fachzeit- kation. Ergebnis? In acht von zehn Fällen be- persönliche Interaktion ergänzen – vor Ort und
schrift JAMA Internal Medicine publizierte kam der ChatGPT-Dialog bessere Noten – und über den Praxisbesuch hinaus. Künstliche Intel-
Forschungsarbeit von KI-Wissenschaftlern der zwar auf beiden Ebenen. Empathische oder ligenz würde dann dazu beitragen, dass Patien-
Johns Hopkins University in Baltimore. In der sehr empathische Antworten gelangen A� rztin- tinnen und Patienten sich besser aufgehoben
�
Studie wurden Anfragen von Nutzern im „Ask- nen und Arzten nur in 4,6 Prozent der Dialoge. fühlen. Software mal keine Nervensäge, sondern
Docs-Forum“ des sozialen Mediums Reddit Bei ChatGPT-Dialogen wurden 45,1 Prozent als ein echter Partner? Das wäre doch was.<
genutzt, einem Chatforum, in dem Arztinnen empathisch oder sehr empathisch bewertet. $ PHILIPP GRÄTZEL
�
14 x.press 23.4