De nieuwe open-source AI-assistent, OpenClaw, belooft ongekende automatisering: het beheren van uw berichten, het plannen van taken en zelfs het besturen van uw slimme huis. Hoewel de capaciteiten ervan indrukwekkend zijn, heeft de snelle groei ernstige veiligheidsrisico’s blootgelegd, waardoor vragen rijzen over de toekomst van autonome AI-agenten.
Van Clawdbot tot OpenClaw: een wilde rit
Het project begon als Clawdbot en vervolgens kort als Moltbot, voordat het zich op OpenClaw vestigde na een handelsmerkgeschil met Anthropic (de makers van Claude). De rebranding was slechts het eerste teken van de chaos die zou komen. Binnen enkele dagen kaapten oplichters de X-accounts van het project, maakten ontwikkelaars per ongeluk hun GitHub-inloggegevens openbaar en had een door AI gegenereerde mascotte kortstondig een verontrustend menselijk gezicht. Ondanks deze turbulentie heeft OpenClaw binnen enkele weken meer dan 60.000 GitHub-sterren verworven, wat de aandacht trok van figuren uit de industrie als Andrej Karpathy en David Sacks.
Het kernidee achter OpenClaw is simpel: een AI-assistent die rechtstreeks integreert in uw bestaande communicatiekanalen (WhatsApp, Telegram, Slack, enz.). In tegenstelling tot traditionele chatbots onthoudt OpenClaw eerdere gesprekken, stuurt proactief herinneringen en kan taken in meerdere apps automatiseren. Dit integratieniveau is wat het onderscheidt, maar creëert ook aanzienlijke beveiligingsproblemen.
Hoe het werkt: de kracht en het gevaar
OpenClaw is gemaakt door de Oostenrijkse ontwikkelaar Peter Steinberger en maakt gebruik van bestaande AI-modellen (Claude, ChatGPT, Gemini) via API’s. Hoewel lokaal draaien niet strikt noodzakelijk is, is krachtigere hardware zoals een Mac Mini gunstig voor zware automatisering.
De echte aantrekkingskracht ligt in het aanhoudende geheugen, de proactieve meldingen en de automatiseringsmogelijkheden. Gebruikers melden dat ze het voor alles gebruiken, van het opruimen van hun inbox tot het bijhouden van gewoontes, waardoor het minder als software voelt en meer als een verlengstuk van hun dagelijkse routine. Dit gemak brengt echter een prijs met zich mee.
Beveiligingsproblemen: blootgelegde inloggegevens en kwaadaardige vaardigheden
Beveiligingsexperts hebben talloze openbaar gemaakte OpenClaw-instanties gemarkeerd met zwakke of geen authenticatie. Censys identificeerde meer dan 21.000 gevallen, voornamelijk in de VS, China en Singapore, waardoor API-sleutels, chatlogboeken en systeemtoegang kwetsbaar bleven. Valse downloads en gekaapte accounts verspreiden malware en oplichting, waarbij meer dan 340 kwaadaardige ‘vaardigheden’ worden geïdentificeerd in de Clawhub-softwaredirectory.
Het kernrisico is niet alleen kwaadwillige bedoelingen, maar ook het vervagen van de grenzen tussen gebruikersidentiteit en autonome AI-actie. Zoals Roy Akerman van Silverfort uitlegt, hebben de huidige beveiligingscontroles moeite met het herkennen en besturen van AI-agenten die onder legitieme menselijke inloggegevens opereren nadat een gebruiker zich heeft afgemeld. Dit betekent dat organisaties AI-agenten als afzonderlijke identiteiten moeten behandelen, hun rechten moeten beperken en hun gedrag voortdurend moeten monitoren.
Wat is de toekomst voor OpenClaw?
OpenClaw vertegenwoordigt het allernieuwste op het gebied van persoonlijke AI-assistenten. De snelle groei, ondanks de beveiligingsproblemen, toont een duidelijke vraag naar meer geïntegreerde, autonome tools. De reis van het project van Clawdbot naar OpenClaw benadrukt de uitdagingen van het balanceren van innovatie met verantwoorde ontwikkeling.
De toekomst van deze technologie hangt af van het aanpakken van de veiligheidsrisico’s en het opzetten van robuust bestuur. Als ontwikkelaars beveiligingen kunnen bouwen zonder functionaliteit op te offeren, zou OpenClaw een game-changer kunnen worden. Maar voorlopig blijft het een krachtig hulpmiddel met een steile leercurve… en een kreeftvormig sterretje naast de naam.
























