Home Nieuws Van Clawdbot tot OpenClaw: deze virale AI-agents groeien snel – en vormen...

Van Clawdbot tot OpenClaw: deze virale AI-agents groeien snel – en vormen een nachtmerrie voor beveiligingsprofessionals

11
0
Van Clawdbot tot OpenClaw: deze virale AI-agents groeien snel – en vormen een nachtmerrie voor beveiligingsprofessionals

Elyse Beter Picaro / ZDNET

Volg ZDNET: Voeg ons toe als voorkeursbron op Google.


Kernpunten van ZDNET

  • Clawdbot heeft zijn naam opnieuw veranderd, waarmee de “rui” naar OpenClaw is voltooid.
  • Beveiliging is een “topprioriteit”, maar dit weekend dook er een nieuwe exploit op.
  • Deskundigen waarschuwen voor een dergelijke hype zonder de risico’s te begrijpen.

Clawdbot is de afgelopen week een ongelooflijke reis geweest, die nu een nieuwe naam heeft geïntroduceerd – en tegelijkertijd onze ogen heeft geopend voor hoe cybercriminaliteit kan transformeren met de introductie van AI-assistenten en gepersonaliseerde chatbots.

Clawdbot, Moltbot, OpenClaw – wat zijn dat?

Clawdbot, genaamd ‘AI die daadwerkelijk dingen doet’, begon als een open source-project gelanceerd door de Oostenrijkse ontwikkelaar Peter Steinberger. De oorspronkelijke naam was een tip van Claude’s assistent AI Anthropic, maar dit zorgde voor IP-problemen en het AI-systeem werd omgedoopt tot Moltbot.

Ook: OpenClaw is een beveiligingsnachtmerrie – 5 rode vlaggen die je niet mag negeren (voordat het te laat is)

De naam is niet bepaald gemakkelijk uit te spreken en werd volgens Steinberger “gekozen tijdens een chaotische brainstormsessie om vijf uur ’s ochtends met de gemeenschap”, dus het is geen verrassing dat deze slechts tijdelijk is. OpenClaw, de nieuwste rebranding, zou echter wel eens een blijvertje kunnen zijn, aangezien de ontwikkelaar opmerkte dat “het zoeken naar handelsmerken duidelijk is, domeinen zijn gekocht en migratiecode is geschreven”, eraan toevoegend dat “de naam beschrijft hoe dit project eruit zal zien.”

Ondanks de carrouselnaamgeving is OpenClaw belangrijk voor de AI-gemeenschap omdat het zich richt op autonomie en niet op reactieve antwoorden op vragen van gebruikers of het maken van inhoud. Dit kan het eerste echte voorbeeld zijn van hoe gepersonaliseerde AI zichzelf in de toekomst in ons dagelijks leven zou kunnen integreren.

Wat kan OpenClaw doen?

OpenClaw wordt ondersteund door modellen, waaronder die ontwikkeld door Anthropic en OpenAI. Gebruikers van compatibele modellen kunnen kiezen uit Claude Anthropic tot ChatGPT, Ollama, Mistral en meer.

Wanneer ze op individuele machines worden gehost, communiceren AI-bots met gebruikers via berichtenapps zoals iMessage of WhatsApp. Gebruikers kunnen vaardigheden selecteren en installeren en andere software integreren om de functionaliteit te vergroten, waaronder plug-ins voor Discord, Twitch, Google Chat, taakherinneringen, kalenders, muziekplatforms, smart home hubs en e-mail- en werkruimte-apps. Om namens u actie te ondernemen, zijn uitgebreide systeemmachtigingen vereist.

Op het moment van schrijven heeft OpenClaw meer dan 148.000 GitHub-sterren en is het volgens Steinberger miljoenen keren bezocht.

Aanhoudende veiligheidsproblemen

OpenClaw is de afgelopen week viraal gegaan, en wanneer een open source-project zo snel tot de verbeelding van het grote publiek spreekt, is het begrijpelijk dat er misschien niet genoeg tijd is om de beveiligingsproblemen aan te pakken.

De opkomst van OpenClaw als viraal wonder op het gebied van AI brengt echter risico’s met zich mee voor zijn gebruikers. Enkele van de belangrijkste problemen zijn:

  • Frauduleuze belangen: Sinds het project viraal is gegaan, hebben we valse repo’s en cryptocurrency-zwendels zien opduiken.
  • Systeemcontrole: Als u de volledige systeemcontrole overdraagt ​​aan een AI-assistent die proactief taken namens u kan uitvoeren, creëert u een nieuw aanvalspad dat bedreigingsactoren kunnen exploiteren, hetzij via malware, kwaadaardige integraties en vaardigheden, of via opdrachten om uw account of machine te kapen.
  • Onmiddellijk injecteren: Het risico van onmiddellijke injectie is niet beperkt tot OpenClaw – het is een wijdverbreide zorg in de AI-gemeenschap. In AI-bronmateriaal, zoals in websites of URL’s, zitten kwaadaardige instructies verborgen, waardoor de AI kwaadaardige taken kan uitvoeren of data kan verzamelen.
  • Configuratiefout: Onderzoekers hebben openlijke gevallen benadrukt van blootstelling aan het internet, waarbij inloggegevens en API-sleutels lekken als gevolg van onjuiste instellingen.
  • Gevaarlijke vaardigheid: Een opkomende aanvalsvector zijn kwaadaardige vaardigheden en integraties die, eenmaal gedownload, achterdeurtjes openen waar cybercriminelen misbruik van kunnen maken. Eén onderzoeker heeft dit aangetoond door een achterdeur (maar veilige) vaardigheid vrij te geven aan de gemeenschap, die duizenden keren is gedownload.
  • Hallucinaties: AI doet het niet altijd goed. Bots kunnen hallucineren, onjuiste informatie verstrekken en beweren een taak te hebben uitgevoerd, terwijl dat in werkelijkheid niet het geval is. Het OpenClaw-systeem is niet beschermd tegen dit risico.

De nieuwste release van OpenClaw bevat 34 beveiligingsgerelateerde toezeggingen om de AI-codebasis te versterken, en beveiliging is nu een “topprioriteit” voor projectbijdragers. Problemen die de afgelopen dagen zijn opgelost, zijn onder meer een kwetsbaarheid voor het uitvoeren van externe code (RCE) met één klik en een fout in het injecteren van opdrachten.

Ook: 10 manieren waarop AI in 2026 ongekende schade kan aanrichten

OpenClaw wordt geconfronteerd met beveiligingsuitdagingen die de meeste verdedigers nachtmerries zouden bezorgen, maar omdat het een project is dat nu te veel is voor één enkele ontwikkelaar, moeten we toegeven dat gerapporteerde bugs en kwetsbaarheden snel worden opgelost.

“Ik wil al ons beveiligingspersoneel bedanken voor hun harde werk om ons te helpen dit project te versterken”, zei Steinberger in een blogpost. “We hebben deze week een machinaal controleerbaar beveiligingsmodel uitgebracht en blijven werken aan aanvullende beveiligingsverbeteringen. Houd er rekening mee dat snelle injectie nog steeds een onopgelost probleem is in de hele sector, dus het is belangrijk om een ​​robuust model te gebruiken en te leren van onze best practices op het gebied van beveiliging.”

De opkomst van ‘sociale’ netwerken van AI-agenten

De afgelopen week zagen we ook het debuut van Moltbook van ondernemer Matt Schlicht, een interessant experiment waarin AI-agenten kunnen communiceren via een platform in Reddit-stijl. Afgezien van vreemde gesprekken en mogelijke menselijke tussenkomst onthulde beveiligingsonderzoeker Jamieson O’Reilly dit weekend dat de volledige database van de site openbaar was gemaakt, “zonder enige beveiliging, inclusief geheime API-sleutels waarmee iedereen namens welke agent dan ook berichten kan plaatsen.”

Hoewel dit op het eerste gezicht misschien niet zo belangrijk lijkt, was een van de onthulde agenten gelinkt aan Andrej Karpathy, de voormalige directeur van AI bij Tesla.

Ook: De enge nieuwe truc van AI: cyberaanvallen uitvoeren, niet alleen helpen

“Karpathy heeft 1,9 miljoen volgers op @X en is een van de meest invloedrijke stemmen op het gebied van AI”, aldus O’Reilly. “Stel je de nep-AI-beveiligingsmaatregelen, de promotie van crypto-oplichting of opruiende politieke uitspraken voor die hier blijkbaar uit voortkomen.”

Daarnaast zijn er honderden snelle injectie-aanvallen gerapporteerd die gericht waren op AI-agenten op het platform, anti-menselijke inhoud werd omhoog gestemd (niet dat de inhoud oorspronkelijk door agenten zonder menselijke instructie was gemaakt) en veel berichten die mogelijk verband hielden met oplichting met cryptocurrency.

Mark Nadilo, een AI-onderzoeker en LLM, benadrukt ook een ander probleem bij het uit handen nemen van AI-agenten: de schade die wordt aangericht aan modeltraining.

“Alles wordt geabsorbeerd tijdens de training, en zodra het op het API-token is aangesloten, is het allemaal besmet”, zei Nadilo. “Bedrijven moeten voorzichtig zijn; het verlies van trainingsgegevens is een realiteit en beïnvloedt alles.”

Door het lokaal te houden

Lokalisatie geeft u misschien een glimp van de beveiligingsverbeteringen ten opzichte van cloudgebaseerde AI-adoptie, maar in combinatie met opkomende beveiligingsproblemen, persistent geheugen en machtigingen om shell-opdrachten uit te voeren, bestanden te lezen of te schrijven, scripts uit te voeren en taken proactief in plaats van reactief uit te voeren, kunt u te maken krijgen met ernstige beveiligings- en privacyrisico’s.

Ook: Dit is de snelste lokale AI die ik ooit heb geprobeerd, en het komt niet eens in de buurt – hoe je het kunt krijgen

Dit lijkt het enthousiasme rond het project echter niet te temperen, en nu ontwikkelaars oproepen tot bijdragers en hulp bij het overwinnen van deze uitdagingen, zullen het een paar interessante maanden worden om te zien hoe OpenClaw zich blijft ontwikkelen.

Ondertussen zijn er veiligere manieren om gelokaliseerde AI-toepassingen te verkennen. Als je het zelf wilt uitproberen: ZDNET-schrijver Tiernan Ray heeft geëxperimenteerd met lokale AI en heeft enkele interessante lessen onthuld over de implementatie en het gebruik ervan.



Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in