ChatGPT otrzymał „odmowę” z powodu współpracy OpenAI z Pentagonem.
Pytanie o współpracę z ministerstwem obrony
Zaniepokojeni możliwymi konsekwencjami partnerstwa OpenAI z Ministerstwem Obrony Stanów Zjednoczonych (MoD), część amerykańskiego społeczeństwa stworzyła ruch „anulacja ChatGPT”. Celem inicjatywy jest wsparcie Anthropic, firmy, która znalazła się na „czarnej liście” Pentagonu po tym, jak odmówiła pozwolenia na używanie swoich modeli AI do niektórych zadań.
Dlaczego Anthropic znalazł się na liście
W konflikcie z MoD istniały dwie „czerwone linie”, które deweloper AI nie chciał przekraczać:
1. Nie wolno dawać modelom autonomicznego prawa podejmowania decyzji o zastosowaniu broni.
2. Modele nie mogą być używane do śledzenia amerykańskich obywateli.
Gdy Anthropic odmówił, kontrakt z MoD został rozwiązany i firma została wpisana na „czarną listę”, co zabrania wszystkim podwykonawcom obronnym współpracy z nią.
Przejście do OpenAI
Po wykluczeniu Anthropic z programów obronnych MoD włączył OpenAI. Szef firmy Sam Altman (Sam Altman) stwierdził, że ich modele nie będą stosowane do masowego monitorowania. Jednak przedstawiciele rządu zaprzeczyli temu: podkreślili, że AI będzie używane tylko w ramach „legalnych scenariuszy”, a Patriot Act z 2001 roku pozwala na zbieranie metadanych w sieciach komunikacyjnych, nawet jeśli niektóre jego postanowienia zostały ograniczone.
Reakcja społeczeństwa i innych firm AI
Wydarzenie wywołało ostry negatywny odzew w społecznościach online. Ludzie, którzy ogłosili rezygnację z używania ChatGPT, zaczęli otrzymywać pozytywne reakcje. Warto zauważyć, że odmowa „czerwonych linii” nie jest obowiązkowa dla wszystkich dużych producentów AI:
- Google wcześniej wprowadził podobny zakaz w swoich wewnętrznych zasadach, ale już go anulował.
- Microsoft dopuszcza użycie AI w broni pod warunkiem, że strzał jest wykonywany przez człowieka.
- Amazon ogranicza się do ogólnego zasady „odpowiedzialnego użycia” bez konkretnych szczegółów.
Pozycja OpenAI i ramy prawne
Sam Altman powtórzył obietnicę przestrzegania „czerwonych linii” w zakresie autonomicznej broni i masowego monitorowania, ale nie wyjaśnił mechanizmów realizacji. Odwołał się do istniejącego prawa USA, które dopuszcza zbieranie danych o osobach bez amerykańskiego obywatelstwa w celach bezpieczeństwa.
Dla szerokiej publiczności OpenAI przedstawiło Pentagonowi elastyczną interpretację tego, co uznaje się za legalne, podczas gdy Anthropic zachował surową kontrolę nad zastosowaniem swoich technologii. W rezultacie produkt Claude AI od Anthropic stał się liderem wśród oficjalnych aplikacji na Androida i iOS oraz otrzymał wydanie na Windows 11.
Komentarze (0)
Podziel się swoją opinią — prosimy o uprzejmość i trzymanie się tematu.
Zaloguj się, aby komentować