Agentai OpenClaw AI w liczbie dziesiątek tysięcy okazały się podatne na włamanie z powodu błędnych ustawień.
Cyber‑zagrożenia w systemach agentów AI: raport SecurityScorecard o platformie OpenClaw
Zarys badania
Platforma agentowa sztucznej inteligencji *OpenClaw* (wcześniej Clawbot, Moltbot)
Kluczowe wnioski
Dziesięć tysięcy systemów jest podatnych na zdalne wykonywanie kodu ze względu na automatyczne wdrażanie i wadliwe ustawienia dostępu
Rozmiar danych
28 663 unikalnych adresów IP w 76 krajach; 12 812 – eksploatowalne; 549 – już skompromitowane
1. Czym jest OpenClaw?
OpenClaw to „agent” AI, który działa ciągle i wykonuje polecenia w imieniu użytkownika. Może:
* łączyć się z usługami zewnętrznymi;
* integrować się z komunikatorami;
* korzystać z uprawnień systemowych.
Platforma szybko zyskuje popularność wśród programistów i firm, które chcą przetestować autonomicznych asystentów w rzeczywistych zadaniach.
2. Dlaczego jest tak szeroko stosowana?
* Automatyczne wdrażanie: wiele organizacji instalują OpenClaw „z pudełka” bez ręcznej konfiguracji.
* Dostępne panele sterowania: domyślnie panel jest podłączany do wszystkich interfejsów sieciowych, co czyni go otwartym w internecie.
3. Ile systemów jest zagrożonych?
Kryterium
Liczba adresów IP z panelami OpenClaw 28 663
Podatnych egzemplarzy (RCE) 12 812
Eksploatowalnych wdrożeń 63 % z 12 812
Już skompromitowanych systemów 549
> Trend – liczba otwartych egzemplarzy rosła i ostatecznie przekroczyła 40 000.
4. Co dokładnie czyni je podatnymi?
1. Ustawienia domyślne
* Panel sterowania dostępny z internetu bez ograniczeń.
2. Przestarzałe wersje oprogramowania
* Większość systemów działa na starych wydaniach, mimo że łatki są dostępne dla krytycznych błędów.
3. Słaba uwierzytelnianie
* Wiele egzemplarzy korzysta z otwartych interfejsów i niebezpiecznych wartości domyślnych.
5. Możliwe konsekwencje ataku
* Pełna kontrola nad systemem gospodarza;
* Dostęp do kluczy API, tokenów OAuth, kluczy SSH, sesji przeglądarki oraz kont użytkowników komunikatorów;
* Przestępcy mogą maskować złośliwe działania pod zwykłą pracę agenta.
6. Dlaczego to ważne?
OpenClaw jest tylko jednym z przykładów agentowych systemów AI, które rosną na całym świecie.
SecurityScorecard zauważa, że:
* Automatyzacja wzmacnia tradycyjne słabości: otwarte interfejsy, słaba uwierzytelnianie i wadliwe ustawienia domyślne.
* To sprawia, że takie systemy są „łatwymi” celami dla ataków;
* Pytanie o to, jak uzasadnione jest zwiększanie wydajności poprzez autonomię, staje się palące.
Wniosek
Bezpieczne wdrażanie agentów AI wymaga bardziej rygorystycznej konfiguracji i ciągłych aktualizacji.
Problemy OpenClaw są wskaźnikiem szerokiego zagrożenia, z którym borykają się wszystkie systemy agentowe sztucznej inteligencji.
Komentarze (0)
Podziel się swoją opinią — prosimy o uprzejmość i trzymanie się tematu.
Zaloguj się, aby komentować