Vergiftung durch ChatGPT – wenn die KI dir das Hirn wegbrutzelt

Illustration eines verwirrten Zebras in einer Küche, das einen Salzstreuer mit der Aufschrift NaBr kippt, während grüne Kristalle herausrieseln. Eine Sprechblase zeigt den ChatGPT-Ratschlag: ‚You can replace Chloride with Bromide!

Es klingt wie ein schlechter Witz, ist aber wirklich passiert: Ein 60-jähriger Mann landet mit Paranoia und Halluzinationen in der Klinik, weil er brav dem Rat einer KI folgte. Sein Fehler? Er hat ChatGPT gefragt, wie er Chlorid im Speisesalz loswerden kann – und die KI schlug vor, es durch Bromid zu ersetzen. Tadaaa, fertig ist die Vergiftung durch ChatGPT.

Brom statt Salz – Spoiler: keine gute Idee

Der Mann dachte sich wohl: „Chlorid klingt böse, ich nehme einfach Bromid. Ist ja fast das Gleiche, steht ja im Periodensystem direkt drunter.“ Leider ist Chemie kein Wunschkonzert. Natriumbromid ist kein cooles Bio-Salz aus dem Reformhaus, sondern eine ordentliche Chemikalie. Und wenn man die über Monate isst, reagiert der Körper irgendwann mit Nebenwirkungen wie: Hautausschläge, Wahnvorstellungen, extreme Paranoia. Kurz gesagt: Willkommen im Bromismus, einer Vergiftung, die man heute kaum noch sieht, weil man seit den 70ern aufgehört hat, Menschen absichtlich mit Brom vollzupumpen.

Die KI: Fakten ohne Kontext – das übliche Problem

War ChatGPT daran schuld? Ja und nein. Die KI hat nicht „gelogen“, sie hat einfach ohne Kontext irgendein Stück Halbwissen ausgespuckt. In manchen Bereichen (z. B. Poolchemie) kann man Chlor durch Brom ersetzen. In der Küche aber bitte nicht! Ein menschlicher Experte hätte sofort nachgefragt: „Moment mal, du willst essen? Vergiss es!“ Die KI dagegen denkt sich: „Frage nach Chlorid? Ersatz durch Bromid. Klingt logisch. Nächste Frage!“

Dass ChatGPT manchmal Antworten „halluziniert“, ist bekannt – hier wurde aus der KI-Halluzination eine echte beim Patienten. Ironie des Schicksals.

Der Mensch: Blindes Vertrauen in eine Textmaschine

Natürlich trägt auch der gute Mann eine ordentliche Portion Eigenverantwortung. Wer sein Speisesalz durch ein Laborchemikalien-Salz ersetzt, ohne mal kurz zu googeln („Natriumbromid essbar?“), sollte sein Darwin-Award-Formular schon mal bereitlegen. Spätestens beim Online-Kauf im Chemikalien-Shop hätte auffallen können, dass man da nicht gerade ein Gourmet-Salz bestellt.

Aber so funktioniert’s eben: Die KI klingt schlau, der Mensch glaubt’s, und am Ende wird das Krankenhauspersonal mit Verschwörungsgeschichten vom „vergiftenden Nachbarn“ unterhalten.

Fazit: Immer mit einer Prise Salz

Der Vorfall zeigt: KI kann Infos liefern – aber keine Verantwortung übernehmen. Deshalb: Nehmt Ratschläge von ChatGPT immer mit einer Prise Salz. Mit echtem Salz.

Und wenn du trotzdem etwas für deine Gesundheit tun willst: Probier lieber gesunde Salz-Alternativen (bezahlter Link) oder vernünftige Ernährungsratgeber (bezahlter Link). Die haben deutlich weniger Nebenwirkungen als ein Selbstversuch mit Bromid.


Weiterführende Quellen:


Merke: ChatGPT ist kein Arzt. Und wenn doch, dann ein sehr schlechter.

Warum ChatGPT manchmal ziemlich dumm wirkt, kannst du hier lesen: ChatGPT verliert im Schach – Wie der Atari 2600 den KI-Riesen mattsetzte

Für Spaß mit Scammern lies auch Wie man Scammern mit ChatGPT antworten kann – und dabei viel Spaß hat


⚠️ Das war nur eine Facette der Risiken. Den ganzen Überblick mit Chancen & Schattenseiten findest du hier: Künstliche Intelligenz verstehen und nutzen.