Il nuovo assistente AI open source, OpenClaw, promette un’automazione senza precedenti: gestione dei messaggi, pianificazione delle attività e persino controllo della tua casa intelligente. Sebbene le sue capacità siano impressionanti, la rapida crescita ha esposto seri rischi per la sicurezza, sollevando interrogativi sul futuro degli agenti IA autonomi.
Da Clawdbot a OpenClaw: una corsa sfrenata
Il progetto è iniziato come Clawdbot, poi brevemente Moltbot, prima di stabilirsi su OpenClaw dopo una disputa sul marchio con Anthropic (i creatori di Claude). Il rebranding è stato solo il primo segno del caos imminente. Nel giro di pochi giorni, i truffatori hanno preso il controllo degli account X del progetto, gli sviluppatori hanno accidentalmente esposto le loro credenziali GitHub e una mascotte generata dall’intelligenza artificiale ha mostrato brevemente un volto umano inquietante. Nonostante queste turbolenze, OpenClaw ha guadagnato oltre 60.000 stelle su GitHub nel giro di poche settimane, attirando l’attenzione di figure del settore come Andrej Karpathy e David Sacks.
L’idea alla base di OpenClaw è semplice: un assistente AI che si integra direttamente nei tuoi canali di comunicazione esistenti (WhatsApp, Telegram, Slack, ecc.). A differenza dei chatbot tradizionali, OpenClaw ricorda le conversazioni passate, invia promemoria in modo proattivo e può automatizzare le attività su più app. Questo livello di integrazione è ciò che lo distingue, ma crea anche significative vulnerabilità della sicurezza.
Come funziona: il potere e il pericolo
Creato dallo sviluppatore austriaco Peter Steinberger, OpenClaw sfrutta i modelli di intelligenza artificiale esistenti (Claude, ChatGPT, Gemini) tramite API. Sebbene l’esecuzione locale non sia strettamente necessaria, un hardware più potente come un Mac Mini è vantaggioso per l’automazione pesante.
Il vero fascino risiede nella memoria persistente, nelle notifiche proattive e nelle capacità di automazione. Gli utenti riferiscono di utilizzarlo per qualsiasi cosa, dalla pulizia della posta in arrivo al monitoraggio delle abitudini, facendolo sembrare meno un software e più un’estensione della loro routine quotidiana. Tuttavia, questa comodità ha un costo.
Preoccupazioni per la sicurezza: credenziali esposte e competenze dannose
Gli esperti di sicurezza hanno contrassegnato numerose istanze OpenClaw esposte pubblicamente con autenticazione debole o assente. Censys ha identificato oltre 21.000 istanze, principalmente negli Stati Uniti, in Cina e Singapore, lasciando vulnerabili le chiavi API, i registri delle chat e l’accesso al sistema. Download falsi e account compromessi stanno diffondendo malware e truffe, con oltre 340 “competenze” dannose identificate nella directory del software Clawhub.
Il rischio principale non è solo l’intento malevolo, ma anche la sfumatura del confine tra l’identità dell’utente e l’azione autonoma dell’IA. Come spiega Roy Akerman di Silverfort, gli attuali controlli di sicurezza faticano a riconoscere e governare gli agenti di intelligenza artificiale che operano con credenziali umane legittime dopo che un utente si è disconnesso. Ciò significa che le organizzazioni devono trattare gli agenti IA come identità distinte, limitare i loro privilegi e monitorare continuamente il loro comportamento.
Qual è il futuro di OpenClaw?
OpenClaw rappresenta l’avanguardia degli assistenti personali AI. La sua rapida crescita, nonostante i difetti di sicurezza, dimostra una chiara richiesta di strumenti più integrati e autonomi. Il viaggio del progetto da Clawdbot a OpenClaw evidenzia le sfide legate al bilanciamento dell’innovazione con lo sviluppo responsabile.
Il futuro di questa tecnologia dipende dalla gestione dei rischi per la sicurezza e dalla creazione di una governance solida. Se gli sviluppatori riuscissero a creare protezioni senza sacrificare la funzionalità, OpenClaw potrebbe cambiare le regole del gioco. Ma per ora rimane uno strumento potente con una curva di apprendimento ripida… e un asterisco a forma di aragosta accanto al suo nome.
