Chatboty są dzisiaj bardzo popularne. Ludzie używają ich do przeróżnych rzeczy. Jedni się uczą, drudzy tworzą grafiki a jeszcze inni próbują się leczyć z AI. Czasami to nie kończy się dobrze.
- Pacjent stosował dietę opartą na sugestiach ChatGPT, co doprowadziło do hospitalizacji.
- Zamiast soli, AI zasugerowało bromek sodu, co było niebezpieczne.
- Poziom bromku pacjenta był dużo powyżej norm, co spowodowało bromizm.
Przykładem jest mężczyzna, który postanowił poprawić swoje zdrowie stosując się do diety stworzonej przez AI. Niestety, ale zakończyło się to hospitalizacją po tym jak doprowadził się do rzadkiej formy toksyczności.
Hej AI, co zamiast soli?
Historia zaczyna się, gdy pacjent postanawia ograniczyć spożycie soli, czyli chlorek sodu. Aby znaleźć substytut, zwrócił się do ChataGPT. Taka jest tendencja, że nie używa się wyszukiwarek, skoro AI może dać odpowiedź od razu.
Chatbot OpenAI zasugerował mu bromek sodu, który mężczyzna zamówił online i od razu wprowadził do swojej diety.
Sęk w tym, że bromek sodu może być substytutem chlorku sodu. W całej tej konwersacji zabrakło jednego szczegółu – kontekstu. Bromek sodu jest używany m.in jako środek do czyszczenia wanien czy jako środek uspokajający, a nie do przyprawiania frytek. AI nie podało jednak tego kluczowego kontekstu. Równie dobrze nasz bohater mógł nie podać dodatkowych informacji w swoim pytaniu.
Czytaj również: Jak tworzyć dobre prompty?
Po trzech miesiącach pacjent trafił na oddział ratunkowy z paranoją, wierząc, że jego sąsiad próbuje go otruć. „W ciągu pierwszych 24 godzin od przyjęcia pacjent wykazywał coraz większą paranoję oraz halucynacje słuchowe i wzrokowe” – opisują lekarze.
Diagnoza po diecie z AI – bromizm
Po leczeniu środkami przeciwpsychotycznymi mężczyzna uspokoił się na tyle, aby wyjaśnić swój dietetyczny reżim inspirowany AI. Ta informacja, wraz z wynikami badań, pozwoliła na postawienie diagnozy bromizmu, toksycznego nagromadzenia bromku.
Wniosek z tej historii?
Należy pamiętać, że ChatGPT i inne systemy AI mogą generować nieścisłości naukowe, nie potrafią krytycznie dyskutować o wynikach i w końcu przyczyniają się do rozprzestrzeniania dezinformacji.
Badanie zostało opublikowane w czasopiśmie Annals of Internal Medicine: Clinical Cases.