Page 14 - xpress_Ausgabe 23.4
P. 14

Titelgeschichte




        INTERVIEW         „CHANCEN DER KI WERDEN GESEHEN“

          Die Plattform „Lernende Systeme“ (Anm.: ein vom Bundesministerium für Bildung und Forschung gegründetes Netzwerk für
          KI-Expertinnen und -Experten) hat Gesundheitsfachkräfte für ein Whitepaper nach ihren Erwartungen an KI-Systeme gefragt.
          Prof. Dr. Klemens Budde von der Nephrologie der Charité Berlin hat das Projekt geleitet.


          Î 	Was sind für Sie die Kernbotschaften Ihrer Befragung?  Î 	Sie haben an Ihrer Klinik ein Tool trainiert und   PROF. DR. KLEMENS   Abb.: Charité
          Eine Kernbotschaft ist, dass Gesundheitsfachkräfte der KI sehr aufgeschlos-  klinisch getestet, das das Risiko von Komplikationen   BUDDE
          sen gegenüberstehen. Die Chancen für die Versorgung werden ganz klar ge-  nach einer Nierentransplantation anzeigt. Wie ist   Nephrologie
                                                                                                   Charité Berlin
          sehen. Es werden aber auch Risiken und Probleme erkannt. Das betrifft zum   der Stand bei diesem Projekt?
          Beispiel Modelle, die nicht zu dem Kontext passen, in dem sie angewandt   Wir haben diese KI auf Basis von mehreren Tausend eigenen, longitudinalen
          werden. Wir haben auch diskutiert, warum wir überhaupt KI im Gesund-  Datensätzen trainiert, für Deutschland recht ungewöhnlich. Sie dient der Vor-
          heitswesen anwenden sollen. Weil wir einen Nutzen entweder für unsere   hersage von Abstoßung, Transplantatverlust und Tod. Wir konnten zeigen,
          Patientinnen und Patienten oder für uns selbst haben wollen. Wenn das   dass der KI diese Vorhersage besser gelingt als Ärztinnen und Ärzten. Wie
          nicht erreicht wird, brauchen wir den Gesundheitsfachkräften mit KI nicht   klinisch relevant das ist, ist dann die andere Frage. Interessant fand ich, dass
          zu kommen. Das impliziert, dass KI keine Mehrarbeit produzieren darf, das   die jungen Ärztinnen und Ärzte die KI deutlich besser angenommen haben
          kam auch sehr deutlich heraus.                     und auch mehr von der KI profitiert haben. Vielleicht brauchen wir in der
                                                             Umsetzung verschiedene Herangehensweisen für verschiedene Gruppen. Ich
          Î 	Angst vor KI gibt es nicht?                     vergleiche das immer mit einem Lautstärkeregler: Der eine braucht die Hin-
          Nein, eher eine sehr realistische Einschätzung, was KI leisten kann und was   weise lauter, der andere weniger laut. Interessant fand ich auch, dass erfah-
          nicht. Letztlich wollen Gesundheitsfachkräfte und übrigens auch Patientinnen  rene Ärztinnen und Ärzte teilweise Problemkonstellationen erkannt haben,
          und Patienten, dass die KI nicht autonom vor sich hinarbeitet, sondern dass   die die KI nicht auf dem Schirm hatte. Eine KI kann also von ärztlichem Input
          sie unterstützt beziehungsweise dass wir als Gesundheitsfachkräfte die Kon-   profitieren. Klar ist: Diese naive Hoffnung, wir machen jetzt KI und alles wird
          trolle haben. Wir reden in dem Zusammenhang von „meaningful human cont-  besser, das ist Unsinn.
          rol“. Wenn wir diese Kontrolle ausüben sollen, brauchen wir KI-Kompetenz.
                                                             Î 	Haben Sie im beruflichen Kontext schon mal mit großen Sprachmodel-
          Î 	Wie lässt sich KI-Kompetenz vermitteln?         len herumgespielt?
          Eine Möglichkeit ist eine Art Beipackzettel für KI-Lösungen. Dieser müsste   Ich hatte letztens einen Vortrag zu KI und Transplantation und habe ChatGPT
          die spezifischen Use Cases der jeweiligen KI aufschlüsseln, quasi die Indika-  gefragt, was ich vortragen soll. Da waren zwei ganz gute Ideen dabei, unter
          tionen, bei denen sie zugelassen ist. Gleichzeitig müssten dort auch Limita-  anderem dass KI beim Donor-Matching helfen könnte. Aber dann kam noch
          tionen und potenzielle Risiken kommuniziert werden, beispielsweise die Po-  irgendwas zu KI bei der Vorhersage chronischer Nierenerkrankungen, das
          pulation, auf deren Basis die Anwendung trainiert wurde. Es gibt eine KI für   war Themaverfehlung. Was aber auch nicht verwunderlich ist, denn es sind
          akute Niereninsuffizienz, die im amerikanischen Veteranen-System trainiert   ja nur Sprachmodelle, die flüssig Texte formulieren können. Ich glaube, dass
          wurde. Die ist nicht schlecht, aber die Veterans sind zu 95 Prozent männlich.  solche Tools künftig vor allem bei der Dokumentenerstellung in definierten
          Das ist eine Limitation, die man kennen sollte.    Kontexten hilfreich sein können.<





        in die Fähigkeiten von medizinischer KI – insbe-  und Arzte medizinische Fragen von Laien be-  Inhaltlich gut oder sehr gut waren 22,1 Prozent
                                               �
        sondere bei jüngeren Ärztinnen und Ärzten.  antworten. Die Wissenschaftler nahmen 195  der ärztlichen Antworten, aber 78,5 Prozent
        Differenzialdiagnostische Fähigkeiten könnten  Chatprotokolle, in denen reale A� rztinnen und  der ChatGPT-Antworten.
        dadurch verloren gehen: „Da werden wir uns  A� rzte auf Patientenfragen geantwortet hatten,   Dass sich hier für die Zukunft der Praxis-IT
        überlegen müssen, wie wir damit umgehen.“  als Ausgangsmaterial. Sie ließen ChatGPT die-  interessante Szenarien andeuten, braucht nicht
                                           selben Fragen beantworten. Dann bewerteten  eigens erwähnt werden. Nicht nur könnten
        Mein Bot war heute wieder sehr empathisch  drei  geblindete  Heilberufler  –  sie  wussten  IT-Systeme künftig mit Hilfe von Ambient

        Gleichzeitig kann KI natürlich auch Kompeten-  nicht, von wem die Antworten stammten – die   Recognition vermehrt Dokumentationsaufga-
        zen erweitern – auf fachlicher und auf kommu-  jeweiligen Chatverläufe hinsichtlich Informa-  ben übernehmen. Vielleicht wird es ja sogar
        nikativer Ebene. Ein eindrucksvolles Beispiel  tionsqualität sowie Empathie der Kommuni-  „Empathie-Module“ geben, die eine (zu) kurze
        lieferte eine im April 2023 in der Fachzeit-  kation. Ergebnis? In acht von zehn Fällen be-  persönliche Interaktion ergänzen – vor Ort und
        schrift JAMA Internal Medicine publizierte  kam der ChatGPT-Dialog bessere Noten – und  über den Praxisbesuch hinaus. Künstliche Intel-
        Forschungsarbeit von KI-Wissenschaftlern der  zwar auf beiden Ebenen. Empathische oder  ligenz würde dann dazu beitragen, dass Patien-
        Johns Hopkins University in  Baltimore. In der  sehr empathische Antworten gelangen A� rztin-  tinnen und Patienten sich besser aufgehoben
                                                  �
        Studie wurden Anfragen von Nutzern im „Ask-  nen und Arzten nur in 4,6 Prozent der Dialoge.  fühlen. Software mal keine Nervensäge, sondern
        Docs-Forum“ des sozialen Mediums  Reddit  Bei ChatGPT-Dialogen wurden 45,1 Prozent als  ein echter Partner? Das wäre doch was.<
        genutzt, einem Chatforum, in dem Arztinnen  empathisch oder sehr empathisch bewertet.           $ PHILIPP GRÄTZEL
                                   �
    14   x.press 23.4
   9   10   11   12   13   14   15   16   17   18   19