Anthropic przedstawiła model Mythos, jednak dostęp do niego jest ograniczony ze względu na jego wybitne możliwości w zakresie cyberataków

Anthropic przedstawiła model Mythos, jednak dostęp do niego jest ograniczony ze względu na jego wybitne możliwości w zakresie cyberataków

12 hardware

Anthropic uruchamia ograniczony dostęp do nowego modelu Mythos

Firma Anthropic ogłosiła wydanie swojego najnowszego modelu AI Mythos, stworzonego specjalnie do wyszukiwania krytycznych luk i symulacji zagrożeń cybernetycznych. Według kierownika działu Frontier Red Team, Logana Grahama, „Mythos” wykazał tak potężne umiejętności hakowania, że nie można go udostępnić publicznie.

Kto otrzyma dostęp
* Ograniczona lista – około 50 firm i organizacji pracujących z krytycznie ważną infrastrukturą IT.

* Wśród pierwszych użytkowników: Amazon, Apple, Google oraz Linux Foundation (według *The Wall Street Journal*).

Dlaczego model jest uważany za niebezpieczny
Wskaźnik Mythos | Poprzedni model Claude Opus 4.6 | Skuteczność wyszukiwania luk ~10× wyższa | Czas potrzebny na znalezienie błędów – natychmiastowo | 2 tygodnie = > 1 natychmiastowy wynik | Liczba krytycznych błędów w Firefox (na początku roku) > 200
Nowe badania z Stanfordu wykazały, że sieci neuronowe potrafią znajdować i eksploatować błędy w rzeczywistych sieciach prawie tak szybko, jak profesjonalni hakerzy. Potwierdza to obawy ekspertów: „okno czasu między odkryciem luki a stworzeniem działającego oprogramowania do jej wykorzystania się kurczy” (ponadto *Mythos* może to zrobić 10‑krotnie szybciej).

Co mówi Logan Graham
> “Nie planujemy udostępniać Mythos publicznie. Ale już za kilka lat inne systemy AI będą w stanie posiadać podobne możliwości hakowania.”

Apeluje do społeczności IT, aby przygotowała się na nową rzeczywistość, w której opóźnienie między wykryciem luki a jej wykorzystaniem może stać się zerowe.

Podsumowanie
Anthropic ograniczył dostęp do Mythos tylko dla wybranych korporacji z powodu obaw dotyczących jego hakowania. Model już udowodnił imponującą skuteczność w wyszukiwaniu błędów, co zwiększa niepokój ekspertów o szybkim rozwoju AI‑hakowania i konieczności przygotowania się na przyszłe zagrożenia.

Komentarze (0)

Podziel się swoją opinią — prosimy o uprzejmość i trzymanie się tematu.

Nie ma jeszcze komentarzy. Zostaw komentarz i podziel się swoją opinią!

Aby dodać komentarz, zaloguj się.

Zaloguj się, aby komentować