Pentanegóńskie urzędy grożą surową odpowiedzią Anthropic za zakaz używania Claude w systemach monitoringu i autonomicznego uzbrojenia

Pentanegóńskie urzędy grożą surową odpowiedzią Anthropic za zakaz używania Claude w systemach monitoringu i autonomicznego uzbrojenia

7 hardware

Krótko o sytuacji

Minister obrony USA Pete Hegseth rozważa możliwość zakończenia wszystkich kontaktów biznesowych z firmą Anthropic – jednym z czołowych twórców sztucznej inteligencji, oraz oznaczenie jej jako „zagrożenia dla łańcucha dostaw”. Oznaczałoby to, że każdy podwykonawca ministerstwa musiałby zerwać relacje z Anthropic. Informację o tym przekazało *Axios*, opierając się na źródle w Pentagonie.

Co dokładnie jest omawiane
Temat: Rozwiązanie kontaktów
Hegseth twierdzi, że „zerwanie tych więzi będzie niezwykle bolesne”, ale ministerstwo zamierza zmusić Anthropic do zapłaty za podjęte środki.
Zasada bezpieczeństwa
Shawn Parnell (oficjalny przedstawiciel Pentagonu) podkreślił: „Wymagamy, aby nasi partnerzy pomagali siłom zbrojnym zwyciężać w każdej bitwie”.
Obecne relacje z Anthropic
Claude – jedyny model AI używany w tajnych systemach wojskowych USA. Jest także liderem na rynku komercyjnym i został wykorzystany przy ostatniej operacji w Wenezueli.
Wymagania wobec systemu
Ministerstwo chce zapewnić, że AI nie będzie wykorzystywana do masowego śledzenia Amerykanów ani do tworzenia autonomicznego broni. Anthropic uważa takie warunki za „nadmiernie ograniczające” i wskazuje na „szare strefy”, które czynią je niewykonalnymi.
Negocjacje z innymi gigantami
Pentagon prowadzi również dyskusje z OpenAI, Google i xAI, wymagając prawa do korzystania z ich modeli „do wszystkich legalnych celów”.

Dlaczego to ważne
1. Skala kontraktu

* Kontrakt z ministerstwem wyceniany jest na 200 mln USD, podczas gdy roczny przychód Anthropic wynosi około 14 mln USD.

2. Potencjał technologiczny

* Claude już udowodnił swoją niezawodność i jest używany w tajnych sieciach USA; 8 z 10 największych amerykańskich firm to jego klienci.

3. Polityka bezpieczeństwa

* Pentagon uważa, że AI może znacznie zwiększyć możliwości zbierania danych (wiadomości w mediach społecznościowych, pozwolenia na ukryte noszenie broni) i potencjalnie zagrażać obywatelom.

4. Wpływ na branżę

* Ścisła postawa wobec Anthropic wyznacza ton dalszych negocjacji z OpenAI, Google i xAI. Do tej pory te firmy zgodziły się usunąć ograniczenia dla nie‑tajnych systemów wojskowych, ale ich modele wciąż nie są używane w całkowicie tajnych operacjach.

Reakcje stron
- Anthropic

- Potwierdzili zaangażowanie w wykorzystanie AI w bezpieczeństwie narodowym i zaznaczyli, że Claude był pierwszym chatbotem w tajnych sieciach.

- Są gotowi prowadzić „produktywne, dobrej woli negocjacje” z ministerstwem.

- Pentagon

- Według źródeł od dłuższego czasu wyraża niezadowolenie wobec Anthropic i widzi możliwość inicjacji konfliktu.

- Oczekują potwierdzenia braku kontaktów z Anthropic, aby kontynuować współpracę.

Co dalej
* Decyzja o statusie Anthropic w łańcuchu dostaw nie została jeszcze podjęta.

* Pentagon zamierza ustalić zasadę „korzystania we wszystkich legalnych celach” dla modeli OpenAI, Google i xAI, ale ostateczna decyzja jest nadal oczekiwana.

W ten sposób ministerstwo rozważa poważne kroki przeciwko jednej z kluczowych firm w dziedzinie AI, jednocześnie próbując ustanowić nowe standardy bezpieczeństwa i kontroli nad partnerami technologicznymi.

Komentarze (0)

Podziel się swoją opinią — prosimy o uprzejmość i trzymanie się tematu.

Nie ma jeszcze komentarzy. Zostaw komentarz i podziel się swoją opinią!

Aby dodać komentarz, zaloguj się.

Zaloguj się, aby komentować