Die Entwicklung der KI ist rasant. Was hat Sie zuletzt überrascht?
Wirklich überrascht hat mich – und ich denke auch die gesamte wissenschaftliche Community –, wie gut große Sprachmodelle wie ChatGPT in der Lage sind, diverse Aufgaben zu lösen. Bisher hatten wir nur sogenannte Single-Purpose-Systemen im Einsatz, also Software, die genau für einen einzigen Anwendungsfall gebaut ist. Solch eine „enge KI“ (‚narrow AI‘) wertet dann beispielsweise Pathologiebilder von Prostatabiopsien oder Mammografie-Röntgenbilder vom Brustkrebs-Screening aus. Sie hat also jeweils nur einen Zweck.
Mit den aktuellen neuen großen Sprachmodellen haben wir nun zum ersten Mal eine generalistische KI, also eine Technologie, die prinzipiell viele Aufgaben auf einmal lösen kann (‚multipurpose AI‘): Sie kann dann beispielsweise nicht nur eine Auffälligkeit im Röntgenbild diagnostizieren, sondern dazu noch einen leitlinienbasierten Behandlungsplan sowie einen Arztbrief verfassen. Bis zum klinischen Einsatz ist es noch ein weiter Weg, aber die Technologie ist jetzt vorhanden.
Also wird KI vor allem in der Radiologie und der Pathologie eingesetzt werden?
Nein. Das haben zwar viele gedacht, weil KI in der Bilderkennung so stark ist. Aber die Liste der ärztlichen Berufe, deren Profil sich ändert, wird immer länger. Denken Sie beispielsweise an die Krebsmedizin, die sich immer weiter ausdifferenziert. Heute werden so viele Biomarker berücksichtigt und gibt es so viele Therapienoptionen und Therapiekombinationen, dass kein:e Krebsmediziner:in mehr den Überblick behalten kann. KI hat außerdem das Potenzial, vorauszusagen, wie aggressiv ein Tumor ist oder welche Mutationen im Tumor vorliegen. Sie wird die ärztliche Tätigkeit künftig massiv unterstützen.
Inwiefern verändert KI auch die Tätigkeit von Allgemeinmediziner:innen?
Für sämtliche Berufsgruppen, auch jenseits der Medizin, wird sich der Umgang mit Wissen grundlegend ändern. Ärzt:innen können beispielsweise Leitlinien, Arztbriefe und weitere Informationen als PDF-Dokument in einen Chatbot geben und ihm dann Fragen stellen.
Kann man der Antwort trauen? Sprachbots halluzinieren doch auch.
Wenn Large Language Models entsprechend trainiert sind, dann kommen fundierte Inhalte. Wir haben beispielsweise die Leitlinien der beiden großen Krebskongresse ASCO und ESMO für Leberzellkrebs und Darmkrebs in ChatGPT4 eingegeben. Schon nach dem ersten häppchenweisen Training für diese Leitlinien beantwortete der Sprachbot 84 % der Fragen korrekt. Die Entwicklung ist rasant.
Wenn Maschinen diagnostizieren und Therapien vorschlagen – wo bleibt da der Arzt oder die Ärztin?
Es braucht immer noch den Menschen, die beurteilen, ob der Vorschlag der Maschine schlüssig ist. Weder die Radiolog:innen noch die Patholog:innen – wo KI heute schon zum Einsatz kommt – wurden abgeschafft.
Wir stehen an einem Punkt wie einst bei der industriellen Revolution: Mit der Dampfmaschine war körperliche Arbeit plötzlich automatisierbar. Das hat die Tätigkeiten von uns Menschen komplett verändert, hat es unserer Gesellschaft allerdings ermöglicht, in neue Bereiche vorzudringen, die vorher undenkbar waren.
Genauso ist nun die intellektuelle Arbeit durch KI automatisierbar, wenn auch nicht komplett. Diese Tatsache wird Berufsfelder verändern. Ich rechne mit einer Restrukturierung von Arbeit hin zu kreativeren und stärker wertschöpfenden Arbeiten.
An der Universitätsklinik Marburg wurde ein Avatar in der Notaufnahme eingesetzt: Er erfasste über Sensoren Vitalparameter, stellte Fragen und las unter anderem an der Mimik seines Gegenübers ab, wie dringlich der Fall ist. Glauben Sie, dass Patient:innen in solch ein Prozedere vertrauen?
Es gibt tatsächlich Studien, dass KI-basierte Chatbots wie Chat-GPT in der Arzt-Patienten-Kommunikation als empathischer und kompetenter eingeschätzt werden, als menschliche Ärzt:innen. Klar ist aber auch, dass wir auf diesem Feld jetzt klinische Evidenz erzeugen müssen und uns auch für sinnvolle Regulierung einsetzen sollten, denn wir werden in den nächsten Jahren noch enorme Fortschritte erleben. Medizinische Software, die außerhalb von Studien vermarktet wird, muss zwingend als Medizinprodukt zugelassen sein, alles andere wäre unethisch und illegal. Es wäre allerdings auch unethisch, vorhandene Daten nicht zum Wohle von Patient:innen zu nutzen.
Prof. Dr. med. Jakob Nikolas Kather ist Facharzt für Innere Medizin und hat den Lehrstuhl „Clinical Artificial Intelligence“ am Else Kröner Fresenius Zentrum (EKFZ) für Digitale Gesundheit am Universitätsklinikum Dresden inne. Mit seinem Team erforscht er verbesserte Diagnose- und Behandlungsansätze mithilfe von KI beispielsweise bei Krebserkrankungen. Die Besonderheit des EKFZ für Digitale Gesundheit ist das Miteinander von High-Tech-Expert:innen und Mediziner:innen sowie die Anbindung an den realen Versorgungsalltag. Dabei müssen beide Seiten beides können: Ärztinnen sowie Ärzte lernen Programmieren und Forschende aus Informatik oder technischen Fächern lernen im Gegenzug, relevante Probleme in der Klinik zu identifizieren und zu lösen.
Kommentare