Kolejne zagrożenia pod postacią agentów AI.

CYBERSECURITY

Ale o co w zasadzie chodzi i skąd ta cała awantura?

 

OpenClaw to stworzony za pomocą vibe codingu agent AI, który w założeniu może robić za użytkownika praktycznie wszystko. Oczywiście pod warunkiem, że dostanie wszelkie możliwe dostępy i zostanie nakarmiony odpowiednimi danymi.

 

Agent zapamiętuje interakcje z użytkownikiem i mimo, że jest hostowany lokalnie, to może przyjmować prompty przesyłane za pomocą komunikatorów, np. WhatsApp, Slack, czy Discord. Problem z tak wszechstronną integracją jest bardzo podobny jak z przeglądarkami AI – wszystko brzmi świetnie… ale co z bezpieczeństwem? 

OpenClaw, oprócz zagrożeń w równym stopniu dotyczących przeglądarek, ma jeszcze swoje własne, dedykowane. 

 

Użytkownicy chętnie korzystają z tzw. skills, czyli rozszerzeń asystenta, które w teorii mają ułatwić integrację z dowolnymi usługami, a w praktyce pełne są luk bezpieczeństwa i malware’u. Sporym problemem jest też to, że z narzędzia korzystają osoby, które nie widzą potrzeby zmiany ustawień domyślnych (lub po prostu nie wiedzą, że powinny to zrobić), co w zestawieniu z szerokimi dostępami oznacza wycieki prywatnych danych, kluczy API i innych sekretów. 

 

Popularność OpenClaw doprowadziła do powstania platformy społecznościowej dla agentów AI, która rzekomo pozwala botom spotykać się we własnym gronie, wymieniać wiedzą, a nawet narzekać na „swoich” ludzi.

 

Pomijając już fakt przypisywania takim narzędziom cech prawdziwej inteligencji, Moltbook okazał się kolejnym niebezpiecznym elementem tego ekosystemu.

 

No ale za to boty założyły dzięki niemu własny kościół