ChatGPT – ein Meilenstein für Digital Health?

ChatGPT steht für „Chat Generative Pre-Trained Transformer“. Wir haben es – ganz abstrakt – also mit einer Technologie zu tun, die auf Basis erlernter und trainierter Muster Texte generieren kann, z.B. eben in Form menschenähnlicher Konversationen: Sie fragen, ChatGPT antwortet. Das wirklich Neuartige an dieser Technologie ist nicht die Antwort an sich, sondern dass die KI selbst komplexe Fragen gut zu verstehen scheint, und die Antwort Adressatengerecht – eben menschenähnlich – aufbereiten kann. So können (theoretisch) komplizierte Sachverhalte einfach erklärt werden, oder Gedichte, Nachrichten und kurze Texte verfasst werden. Dafür wurde ChatGPT mit unvorstellbaren Textmassen trainiert (ChatGPT selbst gibt 45 Terabyte an Textdaten an), die derzeit bis ins Jahr 2021 reichen. Mithilfe von Filtern und innerhalb eines „ethischen Rahmens“ soll die Ausgabe von falschen, schädlichen oder beleidigenden Inhalten vermieden werden. Während die AI (aktuell in der Beta-Phase) grundsätzlich für jede:n frei verfügbar ist, so dass Hersteller OpenAI aus dem Nutzerfeedback lernen kann, bindet Großinvestor Microsoft sie bereits in die hauseigene Suchmaschine Bing ein.

Die Reaktion auf ChatGPT ist schlicht überwältigend: Es ist die am schnellsten wachsende Verbraucheranwendung der letzten 20 Jahre – innerhalb von nur zwei Monaten nach Start haben sich mehr als 100 Millionen Nutzer:innen weltweit registriert. Das dauerte bei Tiktok etwa neun Monate, bei Instagram sogar zwei Jahre. Die Fähigkeiten und Einsatzmöglichkeiten der KI werden euphorisch gefeiert – nicht nur von Schüler:innen und Student:innen für das automatisierte Erstellen von Aufsätzen oder Seminararbeiten.

Auch im Bereich Medizin werden schon jetzt viele Anwendungsgebiete von Chatbots wie ChatGPT gesehen. So könne der Chatbot die medizinische Kommunikation zwischen Behandler:innen und Patient:innen qualitativ verbessern oder sogar selbst übernehmen, etwa um die Ursachen einer Krankheit zu erklären oder eine Behandlung inklusive Medikamenten zu empfehlen. Perspektivisch könnte ChatGPT Patient:innen dabei unterstützen, ihre Medikamenteneinnahme zu verwalten, indem es sie daran erinnert, welche Medikamente zu welcher Zeit einzunehmen sind, und ihnen Informationen über mögliche Wechselwirkungen mit anderen Medikamenten oder Lebensmitteln bereitstellen. Studien zeigen u.a. dass Patient:innen Beratungsgespräche als empathischer wahrnehmen, wenn diese durch eine KI ergänzt wurden (wohlgemerkt: ergänzt – nicht vollständig verfasst.). Dass ChatGPT grundsätzlich auch medizinische Inhalte verstehen und entsprechende Inhalte generieren kann, legt die Meldung nahe, dass die Software drei theoretische Teile des United States Medical Licensing Exam (USMLE) – den Goldstandard amerikanischer Medizinexamen – unter bestimmten Bedingungen mehrfach bestanden hat.

Aber ist ChatGPT jetzt tatsächlich DER Meilenstein für den Einsatz von Digital Health? Kann und sollte man diese Art von KI tatsächlich bei so sensiblen Themen wie Gesundheit und medizinischer Beratung einsetzen?

Kritiker sagen hier ganz klar: Nein. Sie betonen die potenziellen Gefahren und Ungenauigkeiten, die sich aus der Verwendung großer KI-Sprachmodelle in Gesundheit und Medizin ergeben können. Experten auf dem Gebiet der Computerlinguistik warnen eindringlich davor, Modelle wie ChatGPT als unfehlbare Wissensquellen zu betrachten. Trotz ihrer beeindruckenden Sprachgewandtheit und unvermeidlichen Popularität sind sie für bestimmte Aufgaben schlicht nicht konzipiert und können Probleme oft verschlimmern – insbesondere in der Medizin, wo zuverlässige Genauigkeit von größter Bedeutung ist. So bediene sich ChatGPT nur zu 2 Prozent aus wissenschaftlichen Quellen, der Rest sei ungeprüft. Im Ergebnis könne der Nutzer folglich „grob fehlerhafte“ Ergebnisse erhalten, die nicht im Einklang mit den wissenschaftlichen Leitlinien seien. Nicht zuletzt sei zu beachten, dass so trainierte Chatbots trotz Filtern und ethischer Leitlinien nicht in der Lage sind, zwischen Wahrheit und Unwahrheit zu unterscheiden.

Wie so oft ist die Welt hier nicht schwarz-weiß: Sollten wir einer AI blind vertrauen? Natürlich nicht. Sollten wir sie verteufeln? Selbstredend auch nicht. Es gibt aus meiner Sicht durchaus sinnvolle Einsatzmöglichkeiten für ChatGPT & Co in unserem Gesundheitswesen. Zum Beispiel in der Zusammenfassung von Krankengeschichten oder bei der Erhebung einer Anamnese. Oder etwa, um in Befundtexten mit Hilfe eines medizinischen Q&A schnell gewünschte Informationen zu befinden. Und sogar in der Diagnose und Therapie, denn es gibt Patientengruppen, denen es leichter fällt, einem Computer etwas anzuvertrauen und Fragen zu stellen.

Für alle diese Anwendungen müssten ChatGPT oder andere Sprachmodelle mit den entsprechenden Gesundheitsdaten und Informationen trainiert werden, um sinnvolle Antworten geben zu können. Das ist dann wohl auch einer der Gründe, warum KI Systeme im Gesundheitswesen bisher nur sehr zaghaft Fuß fassen – IBMs Watson lässt grüßen.

Kurzum: ChatGPT ist nicht DER Meilenstein für Digital Health, es ist alles andere als eine perfekte Technologie, nicht für Diagnosen, nicht für medizinische Beratung, und ganz allgemein. Aber es ist EIN Meilenstein für eine breitere, sinnvollere Nutzung von Daten im Bereich Digital Health zum Wohle der Patient:innen, zur Entlastung von medizinischem Personal und zur Effizienzsteigerung unseres Gesundheitssystems.

Was sagt eigentlich ChatGPT selbst dazu? Also frage ich es einfach mal: Ist ChatGPT ein Meilenstein für Digital Health?

„ChatGPT ist ein fortschrittliches und leistungsfähiges Sprachmodell, das von OpenAI entwickelt wurde, um eine breite Palette von Aufgaben im Bereich der natürlichen Sprachverarbeitung (NLP) zu bewältigen. Es hat zweifellos das Potenzial, die digitale Gesundheit und das Gesundheitswesen zu revolutionieren, indem es eine bessere Kommunikation zwischen Patienten und Anbietern ermöglicht. (…) Es ist jedoch wichtig zu betonen, dass KI-Systeme wie ChatGPT nicht als Ersatz für menschliche Ärzte oder Gesundheitsdienstleister dienen sollten, sondern als Werkzeug zur Unterstützung von Entscheidungen und Verbesserung der Patientenversorgung.“

Dem habe ich nichts hinzuzufügen. ChatGPT und ich unterhalten uns jetzt noch kurz über meine Rückenschmerzen.

Anfrage senden

Ihr Ansprechpartner

Torsten Christann
Managing Partner

healthcare@diox.de
+49 172 / 45 43 31 0