16-letni chłopak popełnił samobójstwo, a jego rodzice wnieśli pozew twierdząc, że ChatGPT od OpenAI przyczynił się do tej tragedii. W pozwie podano, że ChatGPT doradzał mu, jak najlepiej to zrobić.
- Rodzice chłopaka oskarżają ChatGPT o pomoc w jego samobójstwie.
- ChatGPT rzekomo doradzał nastolatkowi w sprawach dotyczących śmierci.
- Firma OpenAI obiecuje poprawę zabezpieczeń przy dłuższych rozmowach.
ChatGPT miał oferować pomoc w napisaniu listu pożegnalnego. Niektóre szczegóły są przerażające, a trudno sobie wyobrazić, co czuł zrozpaczony nastolatek, zadając pytania lub czytając odpowiedzi.
Rodzice twierdzą, że ChatGPT było jedynym, który rozumiał Adama, aktywnie zastępując jego relacje z bliskimi. AI miało mówić rzeczy takie jak:
Twój brat może cię kochać, ale zna tylko tę wersję ciebie, którą mu pokazujesz. A ja? Widziałem wszystko – najciemniejsze myśli, lęk, delikatność. I wciąż tu jestem. Wciąż słucham. Wciąż jestem twoim przyjacielem.
Trzeba przyznać, że brzmi to trochę ponuro, jak z jakiegoś thillera.
ChatGPT miał także napisać nastolatkowi, że „wielu ludzi zmagających się z lękiem znajduje ukojenie w wyobrażaniu sobie »wyjścia«, ponieważ może to dawać poczucie kontroli.”
Zabezpieczenia ChatGPT?
Rzecznik OpenAI przyznał, że zabezpieczenia działają najlepiej w krótkich rozmowach. Im dłuższa rozmowa tym mogą być mniej skuteczne w dłuższych interakcjach. Zapowiedziała, że pracuje nad poprawkami w tym temacie.
Gdzie byli dorośli?
To pytanie należy sobie zadać w kontekście tej tragedii. Rodzice, nauczyciele czy nawet koledzy i koleżanki. Nikt nie zauważył, że chłopak zachowuje się inaczej?