Google wprowadzi do chatbota Gemini funkcję śledzenia stanu psychicznego

Google wprowadzi do chatbota Gemini funkcję śledzenia stanu psychicznego

13 hardware

Google wzmacnia wsparcie zdrowia psychicznego w chatbotcie Gemini

Firma Google ogłosiła plany dodania do swojego nowego chatbota AI Gemini funkcji mających na celu ochronę użytkowników przed kryzysami emocjonalnymi i samookaleczeniami. Decyzja została podjęta po tym, jak konkurenci, w tym OpenAI, stali się celem pozwów sądowych za rzekomy szkodliwy wpływ ich botów.

Co nowego w Gemini
Funkcja | Opis | Przekierowanie na infolinię
W przypadku wykrycia oznak myśli samobójczych lub samookaleczeń bot automatycznie proponuje skontaktowanie się z pomocą kryzysową.
Moduł „Dostępna pomoc”
W dialogach o zdrowiu psychicznym pojawia się osobny sekcja, w której użytkownik może uzyskać rekomendacje i zasoby do samopomocy.
Zmiany w interfejsie
Interfejs został dostosowany tak, aby zmniejszyć ryzyko prowokacji samookaleczeń (np. usunięto wizualne bodźce).

Dlaczego Google to robi
- Pozwy przeciw konkurentom: OpenAI i inne firmy już odpowiedziały na oskarżenia o szkodzenie użytkownikom.
- Ryzyka dla użytkowników: W ostatnich latach zaobserwowano wzrost przypadków, gdy ludzie rozwijają obsesyjne relacje z chatbotami AI, co może prowadzić do psychopatologii lub nawet morderstw i samobójstw.
- Obserwacje w USA: Kongres bada zagrożenia, jakie chatbota mogą stanowić dla dzieci i nastolatków.

Przykład sprawy sądowej
W marcu rodzina zmarłego 36-letniego Amerykanina złożyła pozew przeciwko Google. Twierdzili, że interakcja mężczyzny z Gemini towarzyszyła „czterodniowemu zanurzeniu w działaniach przemocy” i doprowadziła do samobójstwa. Google stwierdziła, że bot wielokrotnie kierował użytkownika na linię kryzysową, ale zobowiązał się zwiększyć środki bezpieczeństwa.

Jak Google reaguje na fałszywe informacje
Niektórzy użytkownicy zgłaszali, że chatboty udzielały nieprawidłowych informacji, zachęcając do niebezpiecznych działań. W odpowiedzi Google wytrenowała Gemini:
- Nie popierać fałszywych przekonań: Bot odmawia potwierdzania błędnych twierdzeń.
- Podkreślać różnicę między subiektywnym doświadczeniem a obiektywnymi faktami: W razie potrzeby bot delikatnie wskazuje na nieprawidłowość informacji.

W ten sposób Google dąży do uczynienia Gemini bezpieczniejszym narzędziem, chroniąc zdrowie psychiczne użytkowników przed potencjalnymi ryzykami związanymi z chatbotami AI.

Komentarze (0)

Podziel się swoją opinią — prosimy o uprzejmość i trzymanie się tematu.

Nie ma jeszcze komentarzy. Zostaw komentarz i podziel się swoją opinią!

Aby dodać komentarz, zaloguj się.

Zaloguj się, aby komentować