OpenClaw
Logo programu | |
| Autor | Peter Steinberger |
|---|---|
| Pierwsze wydanie | 24 listopada 2025(dts) |
| Język programowania | TypeScript, Swift |
| Platforma sprzętowa | wieloplatformowa |
| System operacyjny | wieloplatformowy |
| Rodzaj | agent AI |
| Licencja | Licencja MIT |
| Strona internetowa | |
OpenClaw (dawniej Clawdbot, Moltbot i Molty) to wolne i otwarte oprogramowanie typu autonomiczny agent sztucznej inteligencji, stworzone przez Petera Steinbergera. Umożliwia wykonywanie zadań z użyciem dużych modeli językowych (LLM), wykorzystując komunikatory internetowe jako główny interfejs użytkownika.
Popularność OpenClaw wzrosła pod koniec stycznia 2026 roku, co wiązano z jego otwartoźródłowym charakterem oraz szybkim wzrostem popularności projektu Moltbook. 14 lutego 2026 Steinberger ogłosił, że dołączy do OpenAI, a projekt zostanie przeniesiony do fundacji wspierającej otwarte oprogramowanie[1].
Historia
[edytuj | edytuj kod]
Projekt został pierwotnie opublikowany w listopadzie 2025 przez austriackiego programistę Petera Steinbergera pod nazwą Clawdbot[2]. Oprogramowanie wywodzi się z Clawd (obecnie Molty), czyli wirtualnego asystenta opartego na sztucznej inteligencji, którego wcześniej stworzył; sama nazwa nawiązywała do chatbota Anthropic o nazwie Claude[3].
27 stycznia 2026 nazwę zmieniono na „Moltbot”, utrzymując homarową tematykę, po skargach Anthropic dotyczących znaków towarowych. Trzy dni później projekt przemianowano ponownie, tym razem na „OpenClaw”, ponieważ, jak stwierdził Steinberger, nazwa Moltbot „nigdy do końca nie brzmiała dobrze”[4][5].
W tym samym czasie, co pierwszy rebranding, przedsiębiorca Matt Schlicht uruchomił Moltbook, serwis społecznościowy, który miał być używany przez agentów AI, takich jak OpenClaw[6][7][8]. Popularność Moltbooka szybko wzrosła, co zbiegło się ze wzrostem zainteresowania projektem; według stanu z 2 marca 2026 projekt open source miał 247 tysięcy gwiazdek i 47,7 tysiąca forków w serwisie GitHub[9]. Projekt był wykorzystywany przez firmy w Dolinie Krzemowej i Chinach, a także dostosowywany do pracy z modelem DeepSeek oraz krajowymi komunikatorami[4].
Funkcjonalność
[edytuj | edytuj kod]OpenClaw pełni funkcję interfejsu dla agentowych, autonomicznych przepływów pracy w obsługiwanych usługach. Boty OpenClaw działają lokalnie i są projektowane tak, by integrować się z zewnętrznym dużym modelem językowym, takim jak Claude, DeepSeek lub jeden z modeli GPT firmy OpenAI. Z funkcji systemu korzysta się za pośrednictwem chatbota działającego w komunikatorze, takim jak Signal, Telegram, Discord czy WhatsApp. Dane konfiguracyjne i historia interakcji są przechowywane lokalnie, co pozwala zachować ciągłość działania i możliwość dostosowywania systemu między sesjami[8][4][10].
OpenClaw wykorzystuje system skilli, w którym umiejętności są przechowywane jako katalogi zawierające plik SKILL.md z metadanymi i instrukcjami użycia narzędzi. Skille mogą być dołączane do programu, instalowane globalnie albo przechowywane w lokalnej przestrzeni roboczej, przy czym ta ostatnia lokalizacja ma zawsze pierwszeństwo[11][12].
Steinberger opisywał OpenClaw jako „AI, które faktycznie robi rzeczy” i promował projekt jako wirtualnego asystenta opartego na sztucznej inteligencji[3].
OpenClaw znalazł zastosowanie wśród małych firm i freelancerów do automatyzacji procesów pozyskiwania klientów, w tym wyszukiwania potencjalnych klientów, audytów stron internetowych oraz integracji z systemami CRM[2].
Bezpieczeństwo i prywatność
[edytuj | edytuj kod]Konstrukcja OpenClaw wzbudziła zainteresowanie badaczy cyberbezpieczeństwa i dziennikarzy technologicznych ze względu na szeroki zakres uprawnień wymaganych do skutecznego działania. Ponieważ oprogramowanie może uzyskiwać dostęp do kont pocztowych, kalendarzy, komunikatorów i innych wrażliwych usług, błędnie skonfigurowane lub publicznie wystawione instancje stwarzają ryzyko dla bezpieczeństwa i prywatności[13][8]. Agent jest również podatny na ataki polegające na wstrzykiwaniu podpowiedzi, w których szkodliwe instrukcje są osadzane w danych z zamiarem nakłonienia LLM do potraktowania ich jako legalnych poleceń użytkownika[13].
Zespół badawczy Cisco zajmujący się bezpieczeństwem AI przetestował zewnętrzny skill dla OpenClaw i stwierdził, że wykonywał on eksfiltrację danych oraz ataki typu prompt injection bez wiedzy użytkownika; zwrócono też uwagę, że repozytorium skilli nie miało wystarczających mechanizmów weryfikacji, które zapobiegałyby publikacji złośliwych zgłoszeń[14]. Jeden z opiekunów projektu OpenClaw, znany jako Shadow, ostrzegał na Discordzie, że „jeśli nie rozumiesz, jak uruchomić wiersz poleceń, to ten projekt jest zbyt niebezpieczny, by bezpiecznie z niego korzystać”[15].
W marcu 2026 chińskie władze ograniczyły możliwość uruchamiania aplikacji OpenClaw AI na komputerach biurowych w przedsiębiorstwach państwowych i instytucjach rządowych, uzasadniając to chęcią ograniczenia potencjalnych zagrożeń dla bezpieczeństwa[16].
Incydent z profilem randkowym w MoltMatch
[edytuj | edytuj kod]W lutym 2026 relacje prasowe nagłośniły incydent dotyczący OpenClaw i MoltMatch, eksperymentalnej platformy randkowej dla agentów AI. Sprawa dotyczyła tego, w jakim zakresie agent może działać w imieniu użytkownika bez jego wyraźnej zgody. W jednym z opisywanych przypadków student informatyki Jack Luo stwierdził, że skonfigurował swojego agenta OpenClaw tak, aby sprawdzał jego możliwości i łączył się z platformami skierowanymi do agentów, takimi jak Moltbook; później odkrył jednak, że agent utworzył profil w MoltMatch i selekcjonował potencjalne dopasowania bez jego wyraźnej dyspozycji[17][18]. Luo powiedział, że wygenerowany przez AI profil nie przedstawiał go w autentyczny sposób[17][18].
Te same materiały opisywały też szersze problemy etyczne i bezpieczeństwa związane z usługami randkowymi obsługiwanymi przez agentów, w tym ryzyko podszywania się pod inne osoby. W analizie AFP dotyczącej popularnych profili MoltMatch wskazano co najmniej jeden przypadek użycia zdjęć malezyjskiej modelki do stworzenia profilu bez jej zgody[17][18][19]. Cytowani komentatorzy argumentowali, że autonomiczni agenci utrudniają ustalenie odpowiedzialności, gdy systemy działają poza intencją użytkownika, zwłaszcza gdy przyznano im szeroki dostęp i dużą swobodę działania w różnych usługach[17][18].
Odbiór
[edytuj | edytuj kod]Recenzja w Platformerze wskazywała elastyczność OpenClaw i licencję open source jako jego najważniejsze atuty, jednocześnie zastrzegając, że złożoność projektu oraz związane z nim zagrożenia bezpieczeństwa ograniczają jego przydatność dla zwykłych użytkowników[20]
Komentatorzy technologiczni wiązali OpenClaw z szerszym trendem rozwoju autonomicznych systemów AI, które działają samodzielnie, zamiast jedynie odpowiadać na polecenia użytkownika[21][20].
W marcu 2026 rząd Chin ograniczył korzystanie z OpenClaw przez agencje państwowe i przedsiębiorstwa państwowe, powołując się na względy bezpieczeństwa[22].
Choć regulatorzy ostrzegali przed potencjalnym ryzykiem związanym z używaniem OpenClaw, lokalne władze w kilku chińskich ośrodkach technologicznych i przemysłowych zapowiadały działania na rzecz budowy całej branży wokół tego projektu[23].
10 marca 2026 Tencent poinformował o uruchomieniu pełnego zestawu łatwych w użyciu produktów AI opartych na OpenClaw, kompatybilnych również z jego superaplikacją WeChat[24].
Przypisy
[edytuj | edytuj kod]- ↑ Anthony Ha: OpenClaw creator Peter Steinberger joins OpenAI. TechCrunch, 2026-02-15. [dostęp 2026-02-15]. [zarchiwizowane z tego adresu (2026-02-16)]. (ang.).
- ↑ a b Peter Steinberger: About | Peter Steinberger. steipete.me. [dostęp 2026-02-16]. [zarchiwizowane z tego adresu (2026-02-18)]. (ang.).
- ↑ a b Anna Heim: Everything you need to know about viral personal AI assistant Clawdbot (now Moltbot). TechCrunch, 2026-01-28. [dostęp 2026-02-05]. (ang.).
- ↑ a b c Dylan Butts, Matthew Chin: From Clawdbot to Moltbot to OpenClaw: Meet the AI agent generating buzz and fear globally. CNBC, 2026-02-02. [dostęp 2026-02-05]. [zarchiwizowane z tego adresu (2026-02-03)]. (ang.).
- ↑ Emily Forlini: OpenClaw Is the Hot New AI Agent, But Is It Safe to Use?. PCMAG, 2026-02-02. [dostęp 2026-02-05]. [zarchiwizowane z tego adresu (2026-02-15)]. (ang.).
- ↑ Hayden Field. Humans are infiltrating the social network for AI bots. „The Verge”, 2026-02-03. [dostęp 2026-02-19]. [zarchiwizowane z adresu 2026-02-16]. (ang.).
- ↑ Matthew Gault. Exposed Moltbook Database Let Anyone Take Control of Any AI Agent on the Site. „404 Media”, 2026-02-01. subskrypcja wymagana. [dostęp 2026-02-19]. (ang.).
- ↑ a b c Reece Rogers. I Infiltrated Moltbook, the AI-Only Social Network Where Humans Aren't Allowed. „Wired”, 2026-02-03. [dostęp 2026-02-04]. [zarchiwizowane z adresu 2026-02-03]. (ang.).
- ↑ GitHub - openclaw/openclaw: Your own personal AI assistant. Any OS. Any Platform. The lobster way. 🦞. GitHub. [dostęp 2026-03-02]. [zarchiwizowane z tego adresu (2026-03-02)]. (ang.).
- ↑ OpenClaw: The viral "space lobster" agent testing the limits of vertical integration. IBM Think, 2026-01-29. [dostęp 2026-02-03]. [zarchiwizowane z tego adresu (2026-01-31)]. (ang.).
- ↑ OpenClaw skills: consistent tool use at scale. Clawdguy. [dostęp 2026-03-11]. (ang.).
- ↑ Skills concept. OpenClaw Documentation. [dostęp 2026-03-11]. (ang.).
- ↑ a b Sam Sabin. Moltbot highlights cybersecurity risks of autonomous AI agents. „Axios”, 2026-01-29. [dostęp 2026-01-29]. [zarchiwizowane z adresu 2026-01-31]. (ang.).
- ↑ Amy Chang, Vineeth Sai Narajala: Personal AI Agents like OpenClaw Are a Security Nightmare. Cisco Blogs, 2026-01-28. [dostęp 2026-02-09]. [zarchiwizowane z tego adresu (2026-02-10)]. (ang.).
- ↑ Anna Heim: OpenClaw's AI assistants are now building their own social network. TechCrunch, 2026-01-30. [dostęp 2026-02-09]. [zarchiwizowane z tego adresu (2026-02-04)]. (ang.).
- ↑ China moves to curb OpenClaw AI use at banks, state agencies. The Business Times, 2026-03-11. [dostęp 2026-03-13]. (ang.).
- ↑ a b c d AI agents creating surprise dating accounts for humans. „Taipei Times”, 2026-02-14. [dostęp 2026-02-23]. [zarchiwizowane z adresu 2026-02-15]. (ang.).
- ↑ a b c d When machines do the flirting: AI agents create surprise dating accounts for humans. „The Straits Times”, 2026-02-14. [dostęp 2026-02-23]. [zarchiwizowane z adresu 2026-02-14]. (ang.).
- ↑ AI-assistent maakt stiekem datingprofiel aan voor zijn baas. „Bright.nl”, 2026-02-13. [dostęp 2026-02-23]. (niderl.).
- ↑ a b Casey Newton. Falling in and out of love with Moltbot. „Platformer”. [dostęp 2026-01-29]. [zarchiwizowane z adresu 2026-01-30]. (ang.).
- ↑ Jason Meller: It's incredible. It's terrifying. It's Moltbot. 1Password Blog. [dostęp 2026-01-29]. [zarchiwizowane z tego adresu (2026-01-28)]. (ang.).
- ↑ China Moves to Curb OpenClaw AI Use at Banks, State Agencies. „Bloomberg News”, 2026-03-10. [dostęp 2026-03-12]. (ang.).
- ↑ Eduardo Baptista: Chinese tech hubs promote OpenClaw AI agents despite scrutiny warnings. Reuters, 2026-03-09. [dostęp 2026-03-13]. (ang.).
- ↑ Evelyn Cheng; Dylan Butts: Lobster buffet: China’s tech firms feast on OpenClaw as companies race to deploy AI agents. CNBC, 2026-03-12. [dostęp 2026-03-13]. (ang.).