Home Nieuws Anthropic onderneemt actie tegen ongeoorloofd gebruik van Claude door derden en haar...

Anthropic onderneemt actie tegen ongeoorloofd gebruik van Claude door derden en haar concurrenten

23
0
Anthropic onderneemt actie tegen ongeoorloofd gebruik van Claude door derden en haar concurrenten

Anthropic heeft bevestigd dat het strikte nieuwe technische veiligheidsmaatregelen implementeert om te voorkomen dat apps van derden zijn officiële codeerclient, Claude Code, vervalsen om toegang te krijgen tot de onderliggende AI-modellen van Claude voor gunstiger prijzen en limieten – een stap die de workflows voor gebruikers van het populaire open source codeerbureau OpenCode heeft verstoord.

Tegelijkertijd, maar afzonderlijk, heeft het het gebruik van zijn AI-modellen door concurrerende laboratoria, waaronder xAI, beperkt (via de geïntegreerde Cursor-ontwikkelaarsomgeving) om concurrerende systemen te trainen in Claude Code.

De vorige actie werd vrijdag verduidelijkt door Thariq Shihipar, een technisch staflid bij Anthropic die aan Claude Code werkte.

Schrijven op sociaal netwerk X (voorheen Twitter), zei Shihipar dat het bedrijf “onze bescherming heeft aangescherpt tegen vervalsers die Code Claude exploiteren.”

Hij erkende dat de uitrol onbedoelde schade had veroorzaakt en merkte op dat sommige gebruikersaccounts automatisch werden geblokkeerd omdat ze misbruikfilters activeerden – een fout die het bedrijf momenteel aan het oplossen is.

Het blokkeren van integraties van derden zelf lijkt echter opzettelijk.

De maatregel is gericht op het gebruik: een softwarepakket dat de webgebaseerde Claude-accounts van gebruikers via OAuth stuurt om geautomatiseerde workflows te stimuleren.

Dit verbreekt effectief de koppeling tussen het Claude Pro/Max-consumentenabonnement met vast tarief en de externe codeeromgeving.

Harnas problemen

Harness fungeert als brug tussen abonnementen (ontworpen voor menselijke chat) en geautomatiseerde workflows.

Tools zoals OpenCode werken door de identiteit van de klant te vervalsen en headers te verzenden die de Anthropic-server ervan overtuigen dat het verzoek afkomstig is van de officiële opdrachtregelinterface (CLI).

Shihipar noemde technische instabiliteit de belangrijkste oorzaak van de blokkade en merkte op dat ongeautoriseerd gebruik bugs en gebruikspatronen introduceerde die Anthropic niet goed kon diagnosticeren.

Wanneer wrappers van derden, zoals Cursor (in bepaalde configuraties) of OpenCode, fouten ondervinden, geven gebruikers vaak de schuld aan het model, waardoor het vertrouwen in het platform afneemt.

Economische spanningen: de analogie van het buffet

De ontwikkelaarsgemeenschap heeft echter gewezen op een eenvoudige economische realiteit die ten grondslag ligt aan de beperkingen van Cursors en soortgelijke tools: de kosten.

Uitgebreid discussie op Hackernieuws Vanaf gisteren verenigden gebruikers zich rond een buffet-analogie: Anthropic biedt een onbeperkt buffet aan via zijn consumentenabonnementen ($200/maand voor Max), maar beperkt de consumptiesnelheid via zijn officiële tool, Claude Code.

Harnassen van derden verwijderen deze snelheidslimiet. Autonome agenten die binnen OpenCode draaien, kunnen lussen met hoge intensiteit uitvoeren (coderen, testen en bugfixing van de ene op de andere dag), wat bij een schaalbaar plan duur zou zijn.

“In een maand Claude Code is het gemakkelijk om zoveel LLM-tokens op te gebruiken dat het je meer dan $1.000 zou kosten als je via de API zou betalen”, aldus Hacker News-gebruiker dfabulich.

Door dit gebruik te blokkeren dwingt Anthropic de automatisering van grote volumes via twee goedgekeurde paden:

  • Commerciële API: Schaalbare prijzen per token die de werkelijke kosten van de agentlus weerspiegelen.

  • Claude Code: de beheerde omgeving van Anthropic, waar ze snelheidslimieten en uitvoeringssandboxen controleren.

Gemeenschapsas: kat en muis

De reactie van gebruikers was snel en overwegend negatief.

“Het lijkt erg klantvijandig”, schreef de Deense programmeur David Heinemeier Hansson (DHH), maker van het populaire open source webontwikkelingsframework Ruby on Rails, in een bericht op X.

Anderen stonden echter meer sympathiek tegenover Anthropic.

“Het harde optreden van antropisten tegen mensen die misbruik maken van abonnementsauthenticatie is op zijn best zachtaardig”, schreef Artem K aka @banteg op Xontwikkelaar geassocieerd met Yearn Finance. “Gewoon een beleefd bericht in plaats van uw account te vernietigen of met terugwerkende kracht vuurtarieven in rekening te brengen.”

Het team achter OpenCode lanceert het binnenkort Zwarte opencodeeen nieuwe premiumlaag van $ 200 per maand die naar verluidt verkeer via de API-gateway van het bedrijf leidt om OAuth-beperkingen voor consumenten te omzeilen.

Bovendien heeft OpenCode-maker Dax Raad gepost op Slaaf toont Maximus (Russell Crowe) die het publiek vraagt: “Ben je niet vermaakt?” nadat hij de vijand met twee zwaarden had onthoofd.

Voorlopig is de boodschap van Anthropic duidelijk: het ecosysteem consolideert. Of het nu gaat om wetshandhaving (zoals blijkt uit het gebruik van de xAI Cursor) of technische bescherming, het tijdperk van onbeperkte toegang tot Claude’s redeneervermogen loopt ten einde.

xAI-situatie en cursorverbinding

Naast het technische optreden verloren ontwikkelaars van het xAI-lab van Elon Musk naar verluidt de toegang tot de modellen van Claude Anthropic. Hoewel de timing een uniforme strategie suggereert, geven bronnen die bekend zijn met de zaak aan dat het om afzonderlijke handhavingsacties gaat, gebaseerd op commerciële voorwaarden, waarbij Cursor een sleutelrol speelt bij de ontdekking.

Zoals voor het eerst gemeld door technologiejournalist Kylie Robison vanaf publicatie KerngeheugenxAI-medewerkers hebben antropische modellen gebruikt – met name via de Cursor IDE – om hun eigen ontwikkeling te versnellen.

“Hé team, ik weet zeker dat velen van jullie hebben gemerkt dat antropische modellen niet reageren op Cursors”, schreef xAI-medeoprichter Tony Wu woensdag in een memo aan het personeel, volgens Robison. “Volgens Cursor is dit een nieuw beleid dat Anthropic implementeert voor al zijn grote concurrenten.”

Paragraaf D.4 (Gebruiksbeperkingen) van Antropische commerciële servicevoorwaarden verbiedt Klanten uitdrukkelijk de Services te gebruiken om:

(a) toegang krijgen tot de Services om het product of de dienst van een concurrent te bouwen, inclusief het trainen van het AI-model van een concurrent… (of) (b) de Services reverse-engineeren of dupliceren.

In dit geval fungeert de Cursor als overtredingsmiddel. Hoewel de IDE zelf een legitiem instrument is, leidde het specifieke gebruik van xAI om Claude uit te buiten in competitief onderzoek tot een wettelijk verbod.

Precedent voor blokkeren: OpenAI en windsurf-cutoffs

De xAI-beperkingen zijn niet de eerste keer dat Anthropic zijn Servicevoorwaarden of infrastructuurcontroles gebruikt om belangrijke concurrenten of tools van derden te hinderen. De acties van deze week volgen een duidelijk patroon dat in heel 2025 werd vastgesteld, waarin Anthropic agressief optrad om zijn intellectuele eigendom en computerbronnen te beschermen.

In augustus 2025 heeft het bedrijf heeft de toegang van OpenAI tot de API van Claude ingetrokkenin zeer vergelijkbare omstandigheden. Bronnen zeggen Kabel dat OpenAI Claude had gebruikt om zijn eigen modellen te schalen en veiligheidsreacties te testen – een praktijk die Anthropic markeerde als een schending van zijn concurrentiegrenzen.

“Claude Code is de favoriete keuze geworden voor programmeurs overal ter wereld, dus het is geen verrassing om te horen dat de technische staf van OpenAI ook onze codeertools gebruikt”, zei een woordvoerder van Anthropic destijds.

Slechts een paar maanden eerder, in juni 2025, werd de codeeromgeving van Windsurf geconfronteerd met een soortgelijke plotselinge storing. In een publieke verklaringhet Windsurf-team onthulde dat “Anthropic ons met een opzegtermijn van minder dan een week op de hoogte bracht van het feit dat ze bijna al onze first-party capaciteit hadden verlaagd” voor de Claude 3.x-modelfamilie.

Deze stap dwong Windsurf om de directe toegang voor gratis gebruikers onmiddellijk te verwijderen en over te schakelen naar een “Bring-Your-Own-Key” (BYOK) -model, terwijl Google Gemini werd gepromoot als een stabiel alternatief.

Hoewel Windsurf een paar weken later uiteindelijk de first-party toegang voor betalende gebruikers herstelde, versterkt het incident – ​​in combinatie met de verwijdering van OpenAI en nu het verbod van xAI – de rigide grenzen in de AI-wapenwedloop: hoewel laboratoria en tools naast elkaar kunnen bestaan, behoudt Anthropic zich het recht voor om de verbinding te verbreken wanneer het gebruik ervan zijn concurrentievoordeel of bedrijfsmodel in gevaar brengt.

Katalysator: de virale opkomst van ‘Claude Code’

De timing van beide repressieve acties hangt nauw samen met de enorme stijging in populariteit van Claude Code, de oorspronkelijke terminalomgeving van Anthropic.

Wanneer Claude Code werd oorspronkelijk begin 2025 uitgebrachthet besteedt het grootste deel van zijn tijd als een speciaal hulpprogramma. De echte doorbraakmomenten kwamen pas in december 2025 en de eerste dagen van januari 2026 – minder gedreven door officiële updates en meer door door de gemeenschap geleide initiatieven. Het fenomeen “Ralph Wiggum”..

Vernoemd naar een dwaas Simpsons karakter, maakte de plug-in van Ralph Wiggum de codeermethode “brute force” populair. Door Claude op te sluiten in een zelfherstellende lus waarin fouten worden teruggekoppeld naar het contextvenster totdat de code de tests doorstaat, bereikten de ontwikkelaars resultaten die verrassend dicht bij AGI liggen.

Maar de huidige controverse gaat niet over het feit dat gebruikers de toegang verliezen tot de Claude Code-interface – die veel geavanceerde gebruikers feitelijk beperkend vinden – maar eerder over de onderliggende engine, het Claude Opus 4.5-model.

Door de officiële Claude Code-client te vervalsen, stellen tools als OpenCode ontwikkelaars in staat gebruik te maken van de krachtigste redeneermodellen van Anthropic voor complexe autonome loops tegen vaste abonnementstarieven, waardoor de kloof tussen consumentenprijzen en intelligentie op ondernemingsniveau effectief wordt overbrugd.

Zoals ontwikkelaar Ed Andersen in X schreef, kan een deel van de populariteit van Claude Code te danken zijn aan mensen die op deze manier spoofen.

Het is duidelijk dat hoofdgebruikers het op schaal willen uitvoeren zonder ondernemingstarieven te betalen. De nieuwe handhavingsactie van Anthropic is een directe poging om deze ongecontroleerde vraag terug te kanaliseren naar goedgekeurde en duurzame kanalen.

Conclusie over bedrijfsontwikkeling

Voor Senior AI-ingenieurs die zich richten op orkestratie en schaalbaarheid, vereisen deze veranderingen een onmiddellijke herarchitectuur van de pijplijn om prioriteit te geven aan stabiliteit boven ruwe kostenbesparingen.

Hoewel tools als OpenCode een aantrekkelijk alternatief bieden voor zware automatisering, bleek uit het harde optreden van Anthropic dat deze ongeautoriseerde wrappers niet-diagnostische bugs en instabiliteit introduceren.

Om de modelintegriteit te garanderen, moeten alle geautomatiseerde agenten nu via de officiële Commercial API of de Claude Code-client worden geleid.

Daarom moeten besluitvormers in ondernemingen er rekening mee houden: hoewel open source-oplossingen wellicht betaalbaarder en aantrekkelijker zijn, is toegang niet altijd gegarandeerd als ze worden gebruikt om toegang te krijgen tot bedrijfseigen AI-modellen zoals die van Anthropic.

Deze transitie vereiste een herschikking van de operationele budgetten – van voorspelbare maandelijkse abonnementen naar variabele facturering per token – maar uiteindelijk moest de financiële voorspelbaarheid worden opgeofferd voor de zekerheid van een ondersteunde, productieklare omgeving.

Vanuit een beveiligings- en compliance-perspectief heeft de gelijktijdige blokkering van xAI en open source-tools de kritieke ‘Shadow AI’-kwetsbaarheid blootgelegd.

Wanneer technische teams privéaccounts of valse tokens gebruiken om bedrijfscontroles te omzeilen, riskeren ze niet alleen technische schulden, maar ook plotseling verlies van toegang binnen de hele organisatie.

De beveiligingsdirecteur moet nu de interne toolchain controleren om ervoor te zorgen dat er geen “dogfood” op de modellen van concurrenten zit die de commerciële eisen schenden en dat alle geautomatiseerde workflows worden geverifieerd via de juiste bedrijfssleutels.

In dit nieuwe landschap moet de betrouwbaarheid van geautoriseerde API’s opwegen tegen de kostenbesparingen van niet-geautoriseerde tools, aangezien de operationele risico’s van een totaal verbod ruimschoots opwegen tegen de kosten van een goede integratie.

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in