Dr. Algorithmus bittet in die Sprechstunde

Liebe Leserinnen und Leser,

wie schön, dass Sie wieder gemeinsam mit mir durch meine Digital Health Notizen blättern.

Neulich saß ich nachts um halb eins mit pochendem Hals und leichtem Fieber vor dem Laptop und stand vor einer existenziellen Frage: Soll ich meine Symptome googeln? Mit dem Risiko, nach zwölf Minuten überzeugt zu sein, entweder zu sterben oder zumindest Patient Null einer neuen Pandemie zu sein?

230 Millionen Menschen stellen ChatGPT jede Woche Gesundheitsfragen. Das berichtet OpenAI in einem aktuellen Bericht. Und nun plant der Konzern ein eigenes Produkt: ChatGPT Health.

Was hier passiert, ist größer als nur eine bequemere Symptomanalyse. KI-gestützte Systeme machen medizinisches Wissen rund um die Uhr zugänglich, niedrigschwellig, sprachlich angepasst, ohne Wartezimmer, ohne Terminvergabe.

Für Menschen mit eingeschränktem Zugang zur Versorgung ist das revolutionär. Für überlastete Gesundheitssysteme womöglich entlastend. Für uns alle aber auch ein zweischneidiges Schwert.

Denn eines ist klar: ChatGPT Health ersetzt keinen Arzt. Es simuliert einen.

Das System versteht keine Krankheit. Es erkennt Muster in Texten. Es weiß nicht, wie sich eine Lunge anhört. Es riecht keine Ketone im Atem. Es sieht keinen Ausschlag. Es sieht nur Worte. Und Worte sind in der Medizin notorisch unzuverlässig:

„Mir ist schwindelig“ kann Dehydrierung bedeuten. Oder einen Schlaganfall.

Zwischen Empowerment und Selbstüberschätzung

Befürworter sagen: Informierte Patient:innen sind bessere Patient:innen. Wer Symptome vorab einordnet, geht strukturierter ins Gespräch. Wer Nebenwirkungen erklärt bekommt, versteht Therapien besser. Wer Fachbegriffe übersetzt bekommt, fühlt sich ernst genommen.

Das stimmt.

Aber KI erzeugt auch eine trügerische Sicherheit. Die Antworten sind ruhig, logisch, sprachlich souverän. Genau das macht sie so überzeugend und potenziell so gefährlich.

Wir verwechseln gute Formulierungen mit inhaltlicher Wahrheit.

Wenn eine Maschine sagt: „Das klingt eher nach einer harmlosen viralen Infektion“, dann beruhigt das. Vielleicht zu sehr.

Medizin lebt von Unsicherheit, von Wahrscheinlichkeiten, von klinischer Erfahrung. KI lebt von Datenmustern. Das ist nicht dasselbe.

Das unterschätzte Risiko: Unsere intimsten Daten

Gesundheit ist eines der sensibelsten Datenfelder überhaupt.

Wer ChatGPT Health mit Symptomen, Diagnosen, Medikamentenplänen oder psychischen Belastungen füttert, gibt mehr preis als nur Informationen: man teilt Verwundbarkeit.

OpenAI verspricht verschlüsselte Speicherung und Trennung von anderen Chats. Das klingt beruhigend. Aber selbst höchste Sicherheitsstandards sind kein Garant gegen reale Risiken: Datenlecks, Cyberangriffe, technische Fehler gehören zur digitalen Realität.

Und anders als ein vergessenes Passwort lassen sich Gesundheitsdaten nicht zurücksetzen. Eine psychische Diagnose oder ein genetisches Risiko verschwindet nicht, wenn man „Abmelden“ klickt.

Die entscheidende Frage lautet also nicht nur: Wie gut ist die medizinische Antwort?

Sondern auch: Wo landen meine Daten – und was passiert, wenn sie dort nicht bleiben?

Dass GPT-Health bisher nicht für Europa angekündigt ist, dürfte kein Zufall sein. Datenschutz-Grundverordnung und EU-Medizinprodukte-Regulierung sind keine freundlichen Spielplätze für schnelle Produktstarts.

Wer trägt die Verantwortung?

Wenn ein Arzt sich irrt, gibt es Haftung, Leitlinien, Berufsrecht. Wenn ChatGPT Health sich irrt, gibt es ein Update.

Die Verantwortung wird höflich zurück an den Nutzer delegiert: „Bitte konsultieren Sie bei ernsten Symptomen medizinisches Fachpersonal.“ Juristisch sauber. Gesellschaftlich unbefriedigend.

Denn realistisch betrachtet werden Menschen KI nicht nur als Informationsquelle nutzen – sondern als Entscheidungshilfe. Und zwar genau dann, wenn sie unsicher sind.

Das eigentliche Potenzial

Und trotzdem: Das Potenzial ist enorm.

KI kann medizinische Informationen verständlich übersetzen, Therapiepläne strukturieren, bei chronischen Erkrankungen an Medikamente erinnern, Fragen beantworten, die man sich beim Arzt nicht zu stellen traut, oder eine Zweitmeinung einordnen.

Richtig eingesetzt könnte ChatGPT Health ein Navigationssystem durch ein komplexes Gesundheitssystem sein. Kein Ersatz für Ärzt:innen – sondern ein intelligenter Wegweiser.

Die entscheidende Frage lautet deshalb nicht:Darf KI medizinische Fragen beantworten?

Sondern: Wie integrieren wir sie verantwortungsvoll in bestehende Strukturen?

Fazit: Zwischen digitalem Hausarzt und gefährlicher Illusion

ChatGPT im Gesundheitsbereich ist weder Heilsbringer noch Bedrohung. Es ist ein Werkzeug. Das Problem ist nicht die KI. Das Problem ist unsere Neigung, Kompetenz mit Sprachgewandtheit zu verwechseln.

Vielleicht werden Ärzt:innen der Zukunft kein Konkurrent der KI sein, sondern ihr Interpret. Vielleicht wird medizinische Kompetenz künftig auch darin bestehen, zu wissen, wann man der Maschine vertraut – und wann eben nicht.

Und bis es so weit ist, ist es vielleicht keine schlechte Idee, wenn ich mich krank fühle, nachts um halb eins nicht vor dem Laptop zu sitzen, sondern im Bett zu liegen und mich ganz analog auszukurieren.

In diesem Sinne: bleiben Sie gesund. Und bleiben Sie kritisch aufgeschlossen.

Bis zum nächsten Mal, Ihr Torsten Christann

Anfrage senden

Ihr Ansprechpartner

Torsten Christann
Managing Partner

diga@diox.de
+49 172 / 45 43 31 0