$ curl /chcial-ograniczyc-sol-dieta-z-ai-doprowadzila-go-do-psychozy_

Chciał ograniczyć sól. Dieta z AI doprowadziła go do psychozy

Piotr Cichosz @ 14 sierpnia 2025 2min

Chatboty są dzisiaj bardzo popularne. Ludzie używają ich do przeróżnych rzeczy. Jedni się uczą, drudzy tworzą grafiki a jeszcze inni próbują się leczyć z AI. Czasami to nie kończy się dobrze.

  • Pacjent stosował dietę opartą na sugestiach ChatGPT, co doprowadziło do hospitalizacji.
  • Zamiast soli, AI zasugerowało bromek sodu, co było niebezpieczne.
  • Poziom bromku pacjenta był dużo powyżej norm, co spowodowało bromizm.

Przykładem jest mężczyzna, który postanowił poprawić swoje zdrowie stosując się do diety stworzonej przez AI. Niestety, ale zakończyło się to hospitalizacją po tym jak doprowadził się do rzadkiej formy toksyczności.

Hej AI, co zamiast soli?

Historia zaczyna się, gdy pacjent postanawia ograniczyć spożycie soli, czyli chlorek sodu. Aby znaleźć substytut, zwrócił się do ChataGPT. Taka jest tendencja, że nie używa się wyszukiwarek, skoro AI może dać odpowiedź od razu.

Chatbot OpenAI zasugerował mu bromek sodu, który mężczyzna zamówił online i od razu wprowadził do swojej diety.

Sęk w tym, że bromek sodu może być substytutem chlorku sodu. W całej tej konwersacji zabrakło jednego szczegółu – kontekstu. Bromek sodu jest używany m.in jako środek do czyszczenia wanien czy jako środek uspokajający, a nie do przyprawiania frytek. AI nie podało jednak tego kluczowego kontekstu. Równie dobrze nasz bohater mógł nie podać dodatkowych informacji w swoim pytaniu.

Czytaj również: Jak tworzyć dobre prompty?

Po trzech miesiącach pacjent trafił na oddział ratunkowy z paranoją, wierząc, że jego sąsiad próbuje go otruć. „W ciągu pierwszych 24 godzin od przyjęcia pacjent wykazywał coraz większą paranoję oraz halucynacje słuchowe i wzrokowe” – opisują lekarze.

Diagnoza po diecie z AI – bromizm

Po leczeniu środkami przeciwpsychotycznymi mężczyzna uspokoił się na tyle, aby wyjaśnić swój dietetyczny reżim inspirowany AI. Ta informacja, wraz z wynikami badań, pozwoliła na postawienie diagnozy bromizmu, toksycznego nagromadzenia bromku.

Wniosek z tej historii?

Należy pamiętać, że ChatGPT i inne systemy AI mogą generować nieścisłości naukowe, nie potrafią krytycznie dyskutować o wynikach i w końcu przyczyniają się do rozprzestrzeniania dezinformacji.

Badanie zostało opublikowane w czasopiśmie Annals of Internal Medicine: Clinical Cases.

$ post meta
categories: ["Njusy", "Zdrowie"]
tags: ["AI"]
$ whoami
Piotr Cichosz
Piotr Cichosz
Od ponad 10 lat jestem zaangażowany w świat elektroniki użytkowej, zdobywając szeroką wiedzę i doświadczenie w testowaniu oraz recenzowaniu najnowszych technologii. Moja kariera obejmuje pracę w wiodących firmach technologicznych, gdzie specjalizowałem się w rozwiązywaniu złożonych problemów technicznych oraz doradzaniu w kwestiach wyboru sprzętu. Na moim blogu publikuję dokładne poradniki oraz recenzje urządzeń takich jak smartfony, routery i słuchawki, oferując czytelnikom rzetelne informacje oparte na wieloletnim doświadczeniu i skrupulatnych testach. Moim celem jest dostarczanie treści, które pomagają w podejmowaniu świadomych decyzji zakupowych oraz pełnym wykorzystaniu możliwości nowoczesnej elektroniki.
$ git log --neighbors
[PREV] OpenAI wycofuje udostępnianie rozmów po tym jak użytkownicy źle zrozumieli tą funkcję 11 sierpnia 2025 [NEXT] Idź do parku, do lasu – tam gdzie jest dużo zieleni. Dzięki temu nasz mózg odpocznie od internetu i doomscrollingu 21 sierpnia 2025