OpenAI usprawnia ChatGPT, aby chronić młodzież oraz osóby w kryzysie emocjonalnym. Firma ogłosiła plany wprowadzenia kontroli rodzicielskich, które pozwolą rodzicom połączyć swoje konta z kontami dzieci. Będą mogli ograniczać pewne funkcje oraz otrzymywać powiadomienia w czasie rzeczywistym, gdy AI wykryje problematyczne wiadomości wskazujące na depresję lub inne problemy emocjonalne.
- OpenAI wprowadza kontrole rodzicielskie dla bezpieczeństwa nastolatków korzystających z ChatGPT.
- Rodzice mogą otrzymywać powiadomienia o niepokojących wiadomościach dotyczących emocji dzieci.
Ta aktualizacja pokazuje, że OpenAI nie będzie ignorować faktu, iż nastolatki korzystają z ChatGPT, traktując go czasem jak przyjaciela czy powiernika. Choć nie wspomniano o tym bezpośrednio, wydaje się, że jest to odpowiedź na niedawne głośne przypadki, w których interakcje z chatbotem AI były powiązane z ostatnimi tragicznymi zdarzeniami.
Ustawienia rodzicielskie w ChatGPT
Nowe narzędzia zaczną być wprowadzane już niebawem. Po skonfigurowaniu rodzice będą mogli decydować, czy chatbot ma zapisywać historię czatów lub korzystać z funkcji pamięci.
Domyślnie włączone będą wytyczne dotyczące treści dostosowane do wieku. Ma to regulować odpowiedzi AI.
W przypadku wykrycia niepokojącej rozmowy rodzice otrzymają powiadomienie. Alerty będą wysyłane w momentach, gdy będzie podejrzenie, że interwencja może być wymagana.
Co z próbami samobójczymi?
W przypadku dorosłych i nastolatków OpenAI zacznie kierować wrażliwe rozmowy związane z problemami zdrowia psychicznego lub myślami samobójczymi przez specjalną wersję modelu ChatGPT. Model ten się dostosowywał powoli, aby reagować ostrożniej oraz unikał prowokujących zapytań i przestrzegać wytycznych bezpieczeństwa.
Wprowadzone zmiany zapowiadają się na prawdę dobrze. Mam nadzieję, że pomogą one wielu osobom. Szkoda tylko, że dopiero po kilku tragediach firma zdecydowała się na wprowadzenie tego typu rozwiązań.