Lesezeit: 3 min.

Wie verändert Künstliche Intelligenz den ärztlichen Alltag?

Zeit, sich mit Künstlicher Intelligenz zu beschäftigen! Mit Chat GPT wird KI konkret. Hier sind einige Anwendungsmöglichkeiten, aber auch einige Limitationen für die ärztliche Praxis.

Frauch mit Cybermuster im Kopf

Das zentrale Versprechen des digitalen Zeitalters für die Medizin: Arbeitserleichterung und mehr Zeit für die Patient:innen. Bislang blieb es abstrakt. Mit Sprachmodellen oder auch Large-Language-Modellen (LLM) wie ChatGPT hat sich das geändert: Erstmals konnte jede:r selbst sehen, was Künstliche Intelligenz kann.

Was bedeuten solche Large-Language-Modelle (LLM) aber für die Arbeit von Ärzt:innen? Prof. Dr. med. Stefan Kluge, Leiter der Klinik für Intensivmedizin am Universtitätsklinikum Hamburg-Eppendorf, hat mit zwei seiner Kollegen in einem Fachartikel eine Einordnung gegeben. Der Artikel selbst versteht sich als Aufruf, sich mit der neuen Technologie auseinanderzusetzen. Wir haben die darin genannten Anwendungsmöglichkeiten, Fallstricke und Limitationen sowie Chancen einmal zusammengefasst.

Unterstützung bei der wissenschaftlichen Arbeit

Large Language Models wie ChatGPT können wissenschaftliche Publikationen zusammenfassen, vorhandene Informationen zusammentragen, Forschungslücken identifizieren, Textentwürfe verfassen und zur Auswahl des richtigen Studiendesigns und bei der Identifikation von Studienpatienten und deren Rekrutierung genutzt werden.

Ärztliche Dokumentation

LLMs eigenen sich auch für die Dokumentation von Behandlungen, klinische Notizen, Verlaufsdokumentation, Entlassungszusammenfassungen und Arztbrieferstellung. Denkbar ist auch, dass sie zur Patienteninformation und -kommunikation eingesetzt werden – dies vor allem auch im Hinblick auf fremdsprachliche Information.

Diagnoseunterstützung

GPT 4 beantwortete Fragen des US-Medizinexamens (United States Medical Licensing Examination) in über 90 Prozent korrekt und konnte seine Antwortauswahl begründen. Da Künstliche Intelligenz ungleich mehr Informationen als Menschen verarbeiten kann, Muster und Verbindungen erkennt, könnte sie künftig in vielen Bereichen als Diagnoseunterstützungssystem eingesetzt werden.

Die Risiken

Neben der Verfestigung von Vorurteilen, so genannte Bias, durch die sich fortsetzende Wiederholung von Ungenauigkeiten oder Falschinformationen, beschäftigt Entwickler derzeit auch das Phänomen der Halluzination: Die KI macht falsche Aussagen, die aber völlig glaubwürdig wirken und zum Kontext passen. Neben solch einer Fehlerquelle besteht mit Blick auf wissenschaftliche Texte die Gefahr von Plagiaten, Urheberrechtsverletzungen und Betrug. Noch gibt es nicht die entsprechende Plagiats- und KI-Erkennungssoftware und auch qualifiziertes medizinisches Personal kann solche Fakes nicht sicher detektieren.

 

Stefan Kluge, Michael Sonntagbauer, Markus Haar: Künstliche Intelligenz: Wie werden ChatGPT und andere KI-Anwendungen unseren ärztlichen Alltag verändern? PubMed (nih.gov). DOI: 10.1007/s00063-023-01019-6 Foto: Shutterstock

Abonnieren Sie unseren Newsletter!