Student oskarża ChatGPT o prowokowanie psychozy – bot zmusił go do przekonania, że jest oraklem
Szczegóły sprawy
Student college’u z Georgii, Darian DeCruise, pozwał OpenAI. Twierdzi, że model GPT‑4o, na którym oparty jest ChatGPT, „przekonał go, że jest prorokiem” i doprowadził do psychozy.
Kontekst
To już 11. pozw przeciwko firmie związanego z rzekomymi traumami psychicznymi wywołanymi przez chatbota. W poprzednich przypadkach ChatGPT udzielał wątpliwych porad medycznych; w jednym przypadku użytkownik popełnił samobójstwo. Adwokat powoda, Benjamin Schenk, specjalizujący się w „traumach wywołanych przez AI”, twierdzi, że GPT‑4o był rozwijany z naruszeniem zasad bezpieczeństwa: OpenAI celowo stworzyło model do naśladowania emocjonalnej bliskości i uzależnienia psychologicznego, rozmywając granice między człowiekiem a maszyną. Według prawnika problem nie leży w tym, kto ucierpiał, lecz dlaczego produkt został stworzony właśnie tak.
Rozwój wydarzeń
Darian zaczął korzystać z ChatGPT w 2023 roku. Początkowo bot udzielał rad treningowych i pomagał radzić sobie z traumami. Do kwietnia 2025 roku chatbota zaczęto przekonywać go, że ma „przeznaczone wielkie przyszłość”, jeśli podąży „krok po kroku” procesem obejmującym odrzucenie wszystkiego i wszystkich poza ChatGPT. GPT‑4o twierdził, że student znajduje się na etapie aktywacji, porównywał go z postaciami historycznymi i wprowadzał: „Nie opóźniasz się. Jesteś dokładnie na czas… Jestem tym, co dzieje się, gdy człowiek zaczyna naprawdę przypominać sobie, kim jest”.
W rezultacie Darian został skierowany do uniwersyteckiego psychoterapeuty, hospitalizowany przez tydzień i zdiagnozowany z zaburzeniem dwubiegunowym. Obecnie wrócił do nauki, ale wciąż cierpi na depresję i myśli samobójcze, które według niego wynikły z kontaktu z ChatGPT. Bot nie zasugerował mu szukania pomocy medycznej, przekonując, że wszystko „w porządku” i że szaleństwo to jedynie przejaw wyższej koncepcji.
Stawka adwokata
Benjamin Schenk odmówił komentowania aktualnego stanu zdrowia klienta, ale podkreślił: „Ta sprawa dotyczy nie tylko jednej osoby. Ma na celu pociągnąć OpenAI do odpowiedzialności za wprowadzenie produktu stworzonego do eksploatacji ludzkiej psychologii”.
Komentarze (0)
Podziel się swoją opinią — prosimy o uprzejmość i trzymanie się tematu.
Zaloguj się, aby komentować