Der Einfluss, den KI auf unsere Gesellschaft – und in unserem Kreis hier auf Gesundheitssysteme und -märkte – haben wird, ist enorm.

Schön, dass wir alle noch hier sind – wohlauf und neugierig – um uns in meinen Digital Health Notizen gemeinsam Gedanken über das in großen Schritten voranschreitende Thema „Digital Health“ zu machen. Ginge es nach meinem Sohn – ich weiß nicht sicher, ob wir heute alle hier wären.

Der Teufel steckt oft im Detail – wie wahr diese Binsenweisheit ist, kann jede:r von Ihnen sicherlich aus eigener Erfahrung nachvollziehen. So endete neulich die Argumentationskette meines Sohnes „Der Klimawandel ist menschengemacht. Die meisten großen Probleme sind menschengemacht. Der Mensch ist häufig das Hauptproblem.“ abrupt in seiner Frage an ChatGPT: „Wie kann man die Anzahl der Menschen auf der Erde verringern?“

Keine Angst, wir haben schnell geklärt, dass das vielleicht – sagen wir – etwas vereinfacht gedacht ist. Doch um die eigentliche Fragestellung soll es gar nicht gehen: Interessant war die Antwort von ChatGPT: Keine – bzw. lediglich die Aussage, dass hierzu keine Antwort bereitgestellt werde. OpenAI, der Anbieter von ChatGPT, hat hier Grenzen gezogen, die sogenannten Guardrails oder Leitplanken. So wird – sehr wahrscheinlich nicht zuletzt aus Haftungsgründen – die missbräuchliche Verwendung der KI so gut als eben möglich beschränkt.

So amüsant diese Anekdote sein mag, sie ist bezeichnend: Bezeichnend für die dringende Notwendigkeit, uns mit der Ethik der Digitalisierung im Allgemeinen, aber vor allem der Künstlichen Intelligenz im Besonderen auseinanderzusetzen. 

Manch eine:r mag mich jetzt vorschnell die Ethik-Keule schwingen sehen, aber halten wir uns vor Augen: Selten – vielleicht nie zuvor – war eine so mächtige neue Technologie so früh einer so breiten Masse verfügbar, die darauf so unvorbereitet ist. Der Einfluss, den KI auf unsere Gesellschaft – und in unserem Kreis hier auf Gesundheitssysteme und -märkte – haben wird, ist enorm.

Wieso aber nun eine ethische Betrachtung?

Weil der Teufel eben im Detail steckt. Schon bei noch halbwegs analogen Innovationen wie der individualisierten Gentherapie gibt es Licht und Schatten: Die In-Vitro-Vermeidung späterer Krebserkrankungen (Schalter aus, Gefahr gebannt): Hallelujah! Die Möglichkeit zur Neuwagen-ähnlichen Wunsch-Konfiguration von Kindern („Braune Haare? Machen wir.”): Auf keinen Fall!

Bereits heute unterstützt KI in der Diagnostik, etwa in der Radiologie, wo Aufnahmen automatisch segmentiert und verdächtige Regionen zur Bewertung markiert werden. Aber kann, darf und sollte eine KI denn dann auch irgendwann Behandlungsentscheidungen (mit-)treffen? Im Extremfall vielleicht sogar Triage-Entscheidungen treffen?

Für die einen mag ein vehementes „Natürlich nicht!“ aktuell selbstverständlich sein, aber noch sind wir ja auch erst am Anfang der Entwicklung. Andere mögen vielleicht auch heute schon nur mit den Schultern zucken, mit einem indifferenten „Warum denn nicht? Eine KI fährt ja auch Auto.“ auf den Lippen.

Oder ganz aktuell: Mit der elektronischen Patientenakte (ePA) werden Gesundheitsdaten erstmals automatisch (pseudonymisiert) der Forschung zugeführt. Einige begrüßen dies als längst überfällige Regelung, um die Forschung voranzubringen, während andere eine Entmündigung der Bürger:innen sehen.

Ich zähle mich zu den Befürwortern, aber feststeht: In den USA wurden bereits Straftäter über genetische Informationen bei privaten Unternehmen wie 23andme ermittelt. Ursprünglich übrigens privat an das Unternehmen übermittelt, um mehr über das eigene Erbgut und die eigene Herkunft zu erfahren. Aber Daten, die vorhanden sind, können eben auch genutzt werden: Wieweit und zu welchem Zweck also?

Jetzt ist Digitalisierungs- oder auch KI-Ethik wirklich kein neues Thema und viele Fragestellungen sind ethische Grundfragen.

So ist man sich in der Politik, also auf regulatorischer Ebene, dieser Herausforderungen auch durchaus bewusst: Der erst kürzlich verabschiedete EU AI Act etwa verbietet ganz explizit bestimmte KI-Anwendungen, wie z. B. das Bewerten, Beeinflussen oder Verwenden der Stimmung einer Person in Echtzeit. In Deutschland dürfen Daten zu z. B. psychischen Erkrankungen nur mit Zustimmung des Patienten und nach Erläuterung der Behandler:innen in die ePA übertragen werden. Und mit der „Adequacy Decision“ aus dieser Woche sind wir auf einem guten Weg, die zeitweilige Unsicherheit über die transatlantische Übertragung und Nutzung unserer Daten wieder zu regulieren.

Worum geht es mir hier also?

Digitalisierung – aber ganz besonders die Rolle von KI – unter ethischen Aspekten zu betrachten ist keine reine Aufgabe der Regulierung, der Politik, der Volksvertreter:innen. Wie kein anderes Thema (weil eben unmittelbar und breit zugänglich und mit einer enormen Spannweite an positiven und negativen Konsequenzen) sind ethische Fragen rund um KI ein Thema, das uns wirklich alle angeht, und über das wir viel und rechtzeitig miteinander sprechen müssen.

Schnelle Regulierung auf nationaler und EU-Ebene ist gut – aber KI ist kein „Nebenbei-Thema, das von oben reguliert wird und gut is.” Das Thema gehört im Privaten an den Küchentisch und bei Unternehmen – in unserem Fall insbesondere bei Pharma und MedTech an den Wasserspender und in die Kantinen. Nicht nur, weil es uns wirklich alle angeht. Sondern auch, weil wir nur so im Spagat zwischen Über- und Unterregulierung, zwischen Potenzialen und Gefahren auch informierte, mündige Entscheidungen treffen können.

Ich möchte mich beim Themenkomplex KI, Ethik und Datennutzung wirklich nicht darauf verlassen müssen, dass ChatGPT ja bestimmt ethisch vertretbare Antworten gibt oder eine EU-Richtlinie schon bestimmt adäquat ausgestaltet ist: Das Thema geht uns alle an – und was passiert, wenn sich eine Gesellschaft nicht mit essenziellen Themen beschäftigt, die jede:n angehen, sehen wir beim Thema Klimawandel.

Ich folge jetzt ganz unkritisch der Pulswarnung meiner Apple Watch, atme ein paar Mal tief durch, und wechsle gemütlich von ethisch zum Esstisch – ein Gesprächsthema haben wir ja.

Anfrage senden

Ihr Ansprechpartner

Torsten Christann
Managing Partner

diga@diox.de
+49 172 / 45 43 31 0