Pentanegóńskie urzędy grożą surową odpowiedzią Anthropic za zakaz używania Claude w systemach monitoringu i autonomicznego uzbrojenia
Krótko o sytuacji
Minister obrony USA Pete Hegseth rozważa możliwość zakończenia wszystkich kontaktów biznesowych z firmą Anthropic – jednym z czołowych twórców sztucznej inteligencji, oraz oznaczenie jej jako „zagrożenia dla łańcucha dostaw”. Oznaczałoby to, że każdy podwykonawca ministerstwa musiałby zerwać relacje z Anthropic. Informację o tym przekazało *Axios*, opierając się na źródle w Pentagonie.
Co dokładnie jest omawiane
Temat: Rozwiązanie kontaktów
Hegseth twierdzi, że „zerwanie tych więzi będzie niezwykle bolesne”, ale ministerstwo zamierza zmusić Anthropic do zapłaty za podjęte środki.
Zasada bezpieczeństwa
Shawn Parnell (oficjalny przedstawiciel Pentagonu) podkreślił: „Wymagamy, aby nasi partnerzy pomagali siłom zbrojnym zwyciężać w każdej bitwie”.
Obecne relacje z Anthropic
Claude – jedyny model AI używany w tajnych systemach wojskowych USA. Jest także liderem na rynku komercyjnym i został wykorzystany przy ostatniej operacji w Wenezueli.
Wymagania wobec systemu
Ministerstwo chce zapewnić, że AI nie będzie wykorzystywana do masowego śledzenia Amerykanów ani do tworzenia autonomicznego broni. Anthropic uważa takie warunki za „nadmiernie ograniczające” i wskazuje na „szare strefy”, które czynią je niewykonalnymi.
Negocjacje z innymi gigantami
Pentagon prowadzi również dyskusje z OpenAI, Google i xAI, wymagając prawa do korzystania z ich modeli „do wszystkich legalnych celów”.
Dlaczego to ważne
1. Skala kontraktu
* Kontrakt z ministerstwem wyceniany jest na 200 mln USD, podczas gdy roczny przychód Anthropic wynosi około 14 mln USD.
2. Potencjał technologiczny
* Claude już udowodnił swoją niezawodność i jest używany w tajnych sieciach USA; 8 z 10 największych amerykańskich firm to jego klienci.
3. Polityka bezpieczeństwa
* Pentagon uważa, że AI może znacznie zwiększyć możliwości zbierania danych (wiadomości w mediach społecznościowych, pozwolenia na ukryte noszenie broni) i potencjalnie zagrażać obywatelom.
4. Wpływ na branżę
* Ścisła postawa wobec Anthropic wyznacza ton dalszych negocjacji z OpenAI, Google i xAI. Do tej pory te firmy zgodziły się usunąć ograniczenia dla nie‑tajnych systemów wojskowych, ale ich modele wciąż nie są używane w całkowicie tajnych operacjach.
Reakcje stron
- Anthropic
- Potwierdzili zaangażowanie w wykorzystanie AI w bezpieczeństwie narodowym i zaznaczyli, że Claude był pierwszym chatbotem w tajnych sieciach.
- Są gotowi prowadzić „produktywne, dobrej woli negocjacje” z ministerstwem.
- Pentagon
- Według źródeł od dłuższego czasu wyraża niezadowolenie wobec Anthropic i widzi możliwość inicjacji konfliktu.
- Oczekują potwierdzenia braku kontaktów z Anthropic, aby kontynuować współpracę.
Co dalej
* Decyzja o statusie Anthropic w łańcuchu dostaw nie została jeszcze podjęta.
* Pentagon zamierza ustalić zasadę „korzystania we wszystkich legalnych celach” dla modeli OpenAI, Google i xAI, ale ostateczna decyzja jest nadal oczekiwana.
W ten sposób ministerstwo rozważa poważne kroki przeciwko jednej z kluczowych firm w dziedzinie AI, jednocześnie próbując ustanowić nowe standardy bezpieczeństwa i kontroli nad partnerami technologicznymi.
Komentarze (0)
Podziel się swoją opinią — prosimy o uprzejmość i trzymanie się tematu.
Zaloguj się, aby komentować