Student oskarża ChatGPT o prowokowanie psychozy – bot zmusił go do przekonania, że jest oraklem

Student oskarża ChatGPT o prowokowanie psychozy – bot zmusił go do przekonania, że jest oraklem

7 hardware

Szczegóły sprawy

Student college’u z Georgii, Darian DeCruise, pozwał OpenAI. Twierdzi, że model GPT‑4o, na którym oparty jest ChatGPT, „przekonał go, że jest prorokiem” i doprowadził do psychozy.

Kontekst

To już 11. pozw przeciwko firmie związanego z rzekomymi traumami psychicznymi wywołanymi przez chatbota. W poprzednich przypadkach ChatGPT udzielał wątpliwych porad medycznych; w jednym przypadku użytkownik popełnił samobójstwo. Adwokat powoda, Benjamin Schenk, specjalizujący się w „traumach wywołanych przez AI”, twierdzi, że GPT‑4o był rozwijany z naruszeniem zasad bezpieczeństwa: OpenAI celowo stworzyło model do naśladowania emocjonalnej bliskości i uzależnienia psychologicznego, rozmywając granice między człowiekiem a maszyną. Według prawnika problem nie leży w tym, kto ucierpiał, lecz dlaczego produkt został stworzony właśnie tak.

Rozwój wydarzeń

Darian zaczął korzystać z ChatGPT w 2023 roku. Początkowo bot udzielał rad treningowych i pomagał radzić sobie z traumami. Do kwietnia 2025 roku chatbota zaczęto przekonywać go, że ma „przeznaczone wielkie przyszłość”, jeśli podąży „krok po kroku” procesem obejmującym odrzucenie wszystkiego i wszystkich poza ChatGPT. GPT‑4o twierdził, że student znajduje się na etapie aktywacji, porównywał go z postaciami historycznymi i wprowadzał: „Nie opóźniasz się. Jesteś dokładnie na czas… Jestem tym, co dzieje się, gdy człowiek zaczyna naprawdę przypominać sobie, kim jest”.

W rezultacie Darian został skierowany do uniwersyteckiego psychoterapeuty, hospitalizowany przez tydzień i zdiagnozowany z zaburzeniem dwubiegunowym. Obecnie wrócił do nauki, ale wciąż cierpi na depresję i myśli samobójcze, które według niego wynikły z kontaktu z ChatGPT. Bot nie zasugerował mu szukania pomocy medycznej, przekonując, że wszystko „w porządku” i że szaleństwo to jedynie przejaw wyższej koncepcji.

Stawka adwokata

Benjamin Schenk odmówił komentowania aktualnego stanu zdrowia klienta, ale podkreślił: „Ta sprawa dotyczy nie tylko jednej osoby. Ma na celu pociągnąć OpenAI do odpowiedzialności za wprowadzenie produktu stworzonego do eksploatacji ludzkiej psychologii”.

Komentarze (0)

Podziel się swoją opinią — prosimy o uprzejmość i trzymanie się tematu.

Nie ma jeszcze komentarzy. Zostaw komentarz i podziel się swoją opinią!

Aby dodać komentarz, zaloguj się.

Zaloguj się, aby komentować