
Künstliche Intelligenz in der Medizin
Berichterstattung im Nachgang des DGIM-Kongresses 2024

Berichterstattung im Nachgang des DGIM-Kongresses 2024
Von Wirtschaft bis Medizin, kaum ein Thema beschäftigt die Gesellschaft so sehr, wie der Fortschritt bei künstlichen Intelligenzen (KI). Auch der ärztliche Alltag wird sich verändern. Doch was ist heute bereits möglich und wie weit geht dabei das Vertrauen in die Technik?
Durch die zunehmende Internationalisierung der Gesellschaft und die damit verbundenen Sprachbarrieren wird das Behandlungsgespräch herausfordernder. Der Bedarf nach intelligenten Echtzeit-Übersetzern, die eine fachliche Validität gewährleisten, ist daher sehr hoch und Unternehmen bieten bereits erste Lösungsversuche an. Die größte Herausforderung dabei besteht jedoch noch im Datenschutz, da die aufgenommenen Gespräche meist online auf Übersetzungsplattformen hochgeladen werden und das Nachvollziehen des Datenweges meist undurchsichtig ist. (1)
Ein weiterer Lösungsansatz könnte auch die Auskopplung von anamnestischen Fragen, für die es nicht den persönlichen Kontakt mit Arzt oder Ärztin benötigt, sein. Das Universitätskrankenhaus Basel hat bereits 2017 einen möglichen Lösungsansatz präsentiert. Durch „Smart-Self-Check-In-Schalter“ sollen vor allem einfache administrative Aufgaben wie das Einlesen der Krankenkassenkarte aber auch das Eingeben von Beschwerden übernommen werden. Mit Hilfe von KI-basierten Algorithmen erhält der Erkrankte dann zeitnah eine erste Verdachtsdiagnose mit Sicherheits- und Dringlichkeitsabwägung. Diese Idee wurde von der Universität Marburg weiterentwickelt. Mit Hilfe eines simulierten KI-Gespräches ist es nun möglich, mehr als nur Textinformationen zu gewinnen und die Anamnese für die Erkrankten angenehmer zu gestalten.
Folgende Einsatzfelder sind dabei möglich: (1)
Eine grundsätzliche Unterscheidung muss bei der Arbeit und der Bewertung der Ergebnisse mit KI hinsichtlich der Erklärbarkeit getroffen werden. Bei erklärbaren KI-Modellen, wie z. B. einem Diagnosediagramm, der Analyse und Messung bei Auskultations- oder mobilen Ultraschall-Untersuchungen ist es möglich zu verstehen, wie der Algorithmus das Ergebnis erstellt.
Dem gegenüber stehen aktuell die nicht-erklärbaren KI-Modelle. Ein Beispiel hierfür zeigte die Gruppe um Dr. Attia in einer retrospektiven Studie, in der die EKGs (hier speziell der Sinusrhythmus) von Patientinnen und Patienten mit und ohne bekanntes Vorhofflimmern gegenübergestellt wurden. Die angelernte KI konnte aus den Ergebnissen einen verlässlichen Test (Area under the Curve: 0,9) entwickeln, der vorhersagen konnte, ob ein unentdecktes Vorhofflimmern in der Vergangenheit vorlag oder ob eines in der Zukunft möglich ist. (2) Das Problem dabei: Es ist nicht erklärbar, wie der Algorithmus die Ergebnisse auseinanderhalten kann. (1)
Aus diesen Erkenntnissen entwickelt sich häufig die Fragestellung, inwieweit man einer KI, insbesondere einer nicht-erklärbaren KI, Vertrauen schenken kann und wie mit den Ergebnissen umgegangen werden soll. Die Beantwortung der Vertrauensfrage muss sorgfältig überlegt und mit stetem Blick auf das Wohl der Patientinnen und Patienten gerichtet sein. Ein zu hohes Vertrauen in KI-basierte Systeme könnte zu einem unkritischen Hinterfragen der Ergebnisse führen. Auf der anderen Seite, wenn Ärztinnen und Ärzte den technologischen Möglichkeiten grundlegend misstrauen, könnten Vorteile verpasst werden. (3)

Die Frage müsste lauten: Entspricht das Vertrauen in die KI dem, was sie leisten kann? Wie bei jedem Hilfsmittel, das in der Medizin genutzt wird, muss die oder der Behandelnde sich im Klaren darüber sein, was die Hilfe leisten kann – und was eben nicht.
Prof. Dr. Martin Hirsch, Leiter des Instituts für künstliche Intelligenz in der Medizin, Phillips Universität in Marburg
Hier finden Sie eine Auswahl an Vorträgen zu KI in der Medizin (Login erforderlich):
Über 200.000 Ärztinnen und Ärzte nutzen coliquio – zum kollegialen Austausch über fachliche News, interessante Patientenfälle, hilfreiche Praxistipps und vieles mehr. Werden Sie Teil der Community und nutzen Sie das geschlossene Forum, um noch bessere medizinische Entscheidungen treffen zu können.

Dieser Beitrag basiert auf der Sitzung „KI, ChatGPT und die Vertrauensfrage in der Medizin“ auf dem 130. Kongress der Deutschen Gesellschaft für Innere Medizin e.V.
Titelbild: gettyimages, pcess609
Quellen: