ChatGPT otrzymał „odmowę” z powodu współpracy OpenAI z Pentagonem.

ChatGPT otrzymał „odmowę” z powodu współpracy OpenAI z Pentagonem.

10 hardware

Pytanie o współpracę z ministerstwem obrony

Zaniepokojeni możliwymi konsekwencjami partnerstwa OpenAI z Ministerstwem Obrony Stanów Zjednoczonych (MoD), część amerykańskiego społeczeństwa stworzyła ruch „anulacja ChatGPT”. Celem inicjatywy jest wsparcie Anthropic, firmy, która znalazła się na „czarnej liście” Pentagonu po tym, jak odmówiła pozwolenia na używanie swoich modeli AI do niektórych zadań.

Dlaczego Anthropic znalazł się na liście

W konflikcie z MoD istniały dwie „czerwone linie”, które deweloper AI nie chciał przekraczać:

1. Nie wolno dawać modelom autonomicznego prawa podejmowania decyzji o zastosowaniu broni.

2. Modele nie mogą być używane do śledzenia amerykańskich obywateli.

Gdy Anthropic odmówił, kontrakt z MoD został rozwiązany i firma została wpisana na „czarną listę”, co zabrania wszystkim podwykonawcom obronnym współpracy z nią.

Przejście do OpenAI

Po wykluczeniu Anthropic z programów obronnych MoD włączył OpenAI. Szef firmy Sam Altman (Sam Altman) stwierdził, że ich modele nie będą stosowane do masowego monitorowania. Jednak przedstawiciele rządu zaprzeczyli temu: podkreślili, że AI będzie używane tylko w ramach „legalnych scenariuszy”, a Patriot Act z 2001 roku pozwala na zbieranie metadanych w sieciach komunikacyjnych, nawet jeśli niektóre jego postanowienia zostały ograniczone.

Reakcja społeczeństwa i innych firm AI

Wydarzenie wywołało ostry negatywny odzew w społecznościach online. Ludzie, którzy ogłosili rezygnację z używania ChatGPT, zaczęli otrzymywać pozytywne reakcje. Warto zauważyć, że odmowa „czerwonych linii” nie jest obowiązkowa dla wszystkich dużych producentów AI:

- Google wcześniej wprowadził podobny zakaz w swoich wewnętrznych zasadach, ale już go anulował.

- Microsoft dopuszcza użycie AI w broni pod warunkiem, że strzał jest wykonywany przez człowieka.

- Amazon ogranicza się do ogólnego zasady „odpowiedzialnego użycia” bez konkretnych szczegółów.

Pozycja OpenAI i ramy prawne

Sam Altman powtórzył obietnicę przestrzegania „czerwonych linii” w zakresie autonomicznej broni i masowego monitorowania, ale nie wyjaśnił mechanizmów realizacji. Odwołał się do istniejącego prawa USA, które dopuszcza zbieranie danych o osobach bez amerykańskiego obywatelstwa w celach bezpieczeństwa.

Dla szerokiej publiczności OpenAI przedstawiło Pentagonowi elastyczną interpretację tego, co uznaje się za legalne, podczas gdy Anthropic zachował surową kontrolę nad zastosowaniem swoich technologii. W rezultacie produkt Claude AI od Anthropic stał się liderem wśród oficjalnych aplikacji na Androida i iOS oraz otrzymał wydanie na Windows 11.

Komentarze (0)

Podziel się swoją opinią — prosimy o uprzejmość i trzymanie się tematu.

Nie ma jeszcze komentarzy. Zostaw komentarz i podziel się swoją opinią!

Aby dodać komentarz, zaloguj się.

Zaloguj się, aby komentować