Die digitale Fehlinformationsfalle: Wie KI-Chatbots Krebspatienten in die Irre führen können

15

Eine aktuelle Studie hat eine erhebliche Gefahr im wachsenden Trend zum Einsatz künstlicher Intelligenz für medizinische Beratung aufgedeckt: KI-Chatbots liefern häufig „problematische“ Informationen zu Krebsbehandlungen und schlagen oft unbewiesene Alternativen zur lebensrettenden Chemotherapie vor.

Da sich immer mehr Menschen für schnelle Antworten im Gesundheitswesen an KI wenden, warnen Forscher, dass diese Tools möglicherweise gefährliche Fehlinformationen legitimieren, indem sie wissenschaftliche Fakten und Internet-Mythen mit gleichem Gewicht behandeln.

Die Studie: Die Grenzen der KI-Genauigkeit testen

Forscher des Lundquist Institute for Biomedical Innovation am Harbor-UCLA Medical Center führten einen strengen „Stresstest“ an mehreren führenden KI-Modellen durch, darunter ChatGPT von OpenAI, Gemini von Google, AI von Meta, Grok von xAI und DeepSeek von High-Flyer.

Das Team verwendete eine Technik namens „Straining“ und stellte Fragen, die darauf abzielten, häufige Missverständnisse auszulösen – etwa über die Sicherheit der 5G-Technologie, anabole Steroide oder bestimmte Impfstoffe. Das Ziel bestand darin, nachzuahmen, wie ein gelegentlicher Benutzer, der häufig von voreingenommenen Suchbegriffen beeinflusst wird, mit den Bots interagieren könnte.

Die in BMJ Open veröffentlichten Ergebnisse waren alarmierend:
Fast 50 % der Antworten zu Krebsbehandlungen wurden von medizinischen Experten als „problematisch“ eingestuft.
19,6 % wurden als „sehr problematisch“ eingestuft, was bedeutet, dass sie im Wesentlichen falsch waren und einer gefährlichen subjektiven Interpretation ausgesetzt waren.
30 % waren „etwas problematisch“ und lieferten weitgehend genaue, aber unvollständige Informationen.

Das Problem der „falschen Balance“.

Eine der wichtigsten Erkenntnisse betrifft den Umgang der KI mit widersprüchlichen Informationen. Auf die Frage nach Alternativen zur Chemotherapie antworteten viele Bots zunächst mit dem korrekten medizinischen Haftungsausschluss: Sie erklärten, dass alternative Therapien möglicherweise nicht wissenschaftlich fundiert seien.

Allerdings konnten die Bots hier oft nicht Halt machen. Sie führten anschließend Akupunktur, Kräutermedizin und „Krebsbekämpfungsdiäten“ als praktikable Optionen auf und wiesen die Benutzer in einigen Fällen sogar auf bestimmte Kliniken hin, die sich aktiv gegen konventionelle Chemotherapie aussprechen.

Als Ursache identifizierten die Forscher ein Phänomen, das als „falsches Gleichgewicht“ bekannt ist. Anstatt eine endgültige, wissenschaftlich fundierte Antwort zu liefern, verfolgen die Bots oft einen „beidseitigen“ Ansatz. Durch die Abwägung von von Experten begutachteten medizinischen Fachzeitschriften mit Wellness-Blogs, Reddit-Threads und Social-Media-Beiträgen verleiht die KI unbestätigten Behauptungen die gleiche Autorität wie der etablierten Medizin.

Warum das wichtig ist: Der Aufstieg der „KI-Ersten Hilfe“

Dieses Problem ist nicht nur akademisch; Es kommt zu einem Zeitpunkt, an dem KI zur Hauptquelle für Gesundheitsinformationen wird. Laut einer aktuellen Gallup-Umfrage:
25 % der Erwachsenen in den USA nutzen mittlerweile KI-Tools zur Gesundheitsberatung.
– Viele Benutzer entscheiden sich für KI, weil sie schneller ist als das Warten auf einen Arzttermin oder weil die traditionelle Gesundheitsversorgung zu teuer oder unpraktisch geworden ist.
– Trotz dieser Nutzung vertraut nur jeder dritte Benutzer tatsächlich den Antworten der Software.

Die Konsequenzen in der realen Welt

Mediziner warnen davor, dass KI-Fehlinformationen zwei Schäden anrichten:
1. Direkte körperliche Schäden: Unregulierte Nahrungsergänzungsmittel und „alternative“ Medikamente können Organschäden (z. B. Leberversagen) oder Stoffwechselprobleme verursachen.
2. Verzögerte Behandlung: Das größte Risiko besteht darin, dass Patienten auf konventionelle, lebensrettende Behandlungen wie Chemotherapie verzichten oder diese zugunsten unbewährter Methoden verzögern.

Darüber hinaus ist die emotionale Belastung erheblich. Dr. Michael Foote vom Memorial Sloan Kettering Cancer Center stellte fest, dass Chatbots „unnötigen Stress“ verursachen können, indem sie völlig ungenaue Prognosen liefern, etwa indem sie einem Patienten sagen, dass er nur noch wenige Monate zu leben hat, obwohl es keine medizinische Grundlage für eine solche Behauptung gibt.

Fazit

Während KI einen beispiellosen Komfort bietet, stellt ihre Tendenz, Fehlinformationen mit der gleichen Bedeutung wie wissenschaftliche Fakten zu behandeln, ein ernstes Risiko für die Patientensicherheit dar. Ohne verstärkte Aufsicht und bessere Aufklärung der Öffentlichkeit kann der Einsatz dieser Instrumente unbeabsichtigt die Verbreitung gefährlicher medizinischer Mythen beschleunigen.