Home Nieuws Claude’s code lekt na het creëren van ‘Workflow Revelations’

Claude’s code lekt na het creëren van ‘Workflow Revelations’

1
0
Claude’s code lekt na het creëren van ‘Workflow Revelations’

Sigrid Jin werd dinsdag om 4 uur wakker. Zijn telefoon “ontplofte” met Claude-code lek.

De 25-jarige studente van de University of British Columbia ging aan de slag. Er zijn twee mensen nodig, tien klauwen openeen MacBook Pro-laptop en een paar uur om opnieuw op te bouwen populaire AI-agent broncode en deel deze met de wereld.

Drie uur eerder berichtte X-gebruiker Chaofan Shou dat hij per ongeluk 512.000 regels broncode voor Claude Code had gepubliceerd, inclusief details over hoe de tool werkt en het testen van nieuwe functies.

Hoewel Antropisch Door snel ongeautoriseerde Claudes te onderdrukken, is de reproductie van Jin – die hij samen met het in Seoul gevestigde Yeachan Heo maakte met behulp van Python en ‘Claw Code’ noemde – tot nu toe ongeschonden doorgekomen.

“Verrassend genoeg heeft niemand van Anthropic of GitHub contact met ons opgenomen”, schreef Jin aan Business Insider, verwijzend naar het gecentraliseerde centrum voor codebeheer waar Claw Code zich nu bevindt. “We blijven ons voorbereiden op alle mogelijke juridische stappen, omdat ons hoofddoel is ervoor te zorgen dat we dit op een volledig legale manier doen.”

Dit is ironisch voor een sector die hiervan beschuldigd wordt gebruik van gepubliceerd materiaal om zijn modellen en de genoemde bedrijven te trainen handtekening veiligheidsbelofte als concurrentievoordeel. Codeerders vinden het ook leuk om dieper in te gaan op de tools die de kern vormen van hun werk, vooral na de lancering geprezen model zoals Opus 4.5 en 4.6 in de afgelopen maanden.

“Het beste deel” van dit hele debacle, zegt Jin, is dat het heeft geleid tot een grotere democratisering van codeertools.

“Niet-technische mensen gebruiken deze middelen om iets echts te bouwen”, zei hij. “We hebben het over cardiologen die apps voor patiëntenzorg bouwen en advocaten die toestemmingsgoedkeuringen automatiseren. Dit is uitgegroeid tot een grote eetbui.”

Anthropic zei dat het lek het gevolg was van een menselijke fout en niet van een inbreuk op de beveiliging. “We ondernemen stappen om te voorkomen dat dit opnieuw gebeurt”, schrijft een woordvoerder.

Ondertussen verspreidden ingenieurs kopieën over een privé Discord-server, waarbij nieuw ontdekte functies werden gedestilleerd, zoals spinner-werkwoorden, huisdiercodering en ‘fucks’-grafieken – nagesynchroniseerd door Claude Code-maker Boris Cherny – en vraagt ​​zich af hoe een van de grootste AI-bedrijven ter wereld die informatie zou kunnen lekken.

De verspreiding van dit lek is een ‘workflow-onthulling’

Shou’s post om 01:23 verlichtte de wedstrijd.

In X is Shou gekoppeld aan een zipbestand met gelekte code. Hij is de CTO van Fuzzland en afgestudeerd aan UC Berkeley Ph.D. programma, volgens zijn LinkedIn-profiel. De link leidt nu naar een 404-fout.

Een uur later voegde gebruiker X @nichxbt toe heeft de code gelekt naar zijn GitHubwaarvan duizenden exemplaren zijn geproduceerd. Dinsdagavond had Anthropic een algemeen verwijderingsverzoek wegens auteursrechtschending ingediend, waarbij GitHub aanvankelijk werd gevraagd meer dan 8.000 versies van de gelekte code te verwijderen.

Bij de controle werden verschillende niet-gerelateerde codeeropslagplaatsen betrapt. Woensdagochtend heeft Anthropic zijn verwijderingsverzoek ingeperkt.

“We hebben de kennisgeving ingetrokken voor alle repo’s die we hebben genoemd, op één na” – dat is @nichxbt – “en GitHub heeft de toegang tot de betrokken forks hersteld”, zei een woordvoerder van Anthropic in een verklaring.

Vanaf woensdagmiddag bleven andere sites toegang bieden tot gelekte code of tools die waren gebouwd op de bedrijfseigen informatie van Anthropic. De code blijft circuleren in privéberichten en gearchiveerde links online. De reproductie van Jin’s Claw Code heeft nu 105.000 sterren en 95.000 vorken op GitHub. Op één dag sloten 5.000 mensen zich bij Jin aan Discord-serverKoreaanse open source LLM-gemeenschap, zei hij.

Ondertussen lijkt concurrent Anthropic door te gaan met het toevoegen van stoom. Jin heeft gepost dat xAI hem heeft gestuurd Grok krediet. “Ik ben zo opgewonden om te zien wat je blijft bouwen!” xAI Umesh Khanna antwoordde.

Jin zegt dat het allemaal een ‘workflow-onthulling’ is. Hieruit bleek dat hij AI kon gebruiken om de hele tool opnieuw te creëren in een nieuwe taal: Python, in zijn geval. “Het feit dat dit mogelijk is, gecombineerd met de snelheid waarmee het gedaan kan worden, is wat mensen echt wegblaast.”


Sigrid Jin, die een Python-versie van de gelekte Claude Code-broncode heeft gemaakt, is afgebeeld.

Sigrid Jin heeft Claw Code gemaakt met één menselijke helper en tien OpenClaws.

Sigrid Genie



Wat zit er in het lek: Spinner-werkwoorden, huisdiercodering en ‘fucks’-grafieken

Gabriel Bernadett-Shapiro, AI Research Scientist bij SentinelOne, vertelde Business Insider dat het lek buitengewoon is omdat het Anthropic’s benadering van de toekomst van AI-codeerbureaus onthult.

“Voor mij was de conclusie niet: ‘Oh, de overtreding was flagrant'”, vertelde Bernadett-Shapiro aan Business Insider. “Het was: ‘Hé, we hebben zojuist een heel duidelijk beeld gekregen van waar de AI-codeeragent naartoe gaat.’

Bernadett-Shapiro zei dat de concurrenten van Anthropic waarschijnlijk aandacht besteden aan de manier waarop AI-modelmakers problemen als agentgeheugen benaderen.

“Elke concurrent zou die kennis waarschijnlijk gebruiken als: ‘Oké, dit is hoe Anthropic het doet, toch?’ zei hij. “Zoals: ‘past dit in ons model?'”

Onmiddellijk na het lek begonnen ingenieurs duizenden regels code te doorzoeken.

Ze hebben screenshots gemaakt van verwijzingen naar onuitgegeven model – Opus 4.7, Sonnet 4.8 – en codenamen als ‘Capybara’ en ‘Tengu.’ Een Reddit-gebruiker zei dat ze een Tamagotchi-achtig huisdier zagen dat “naast je invoervak ​​zit en reageert op je codering.”

Een gebruiker heeft verwijzingen gevonden naar “KAIROS”, een agent die 24/7 actief is en dagelijkse logboeken bijhoudt. De gebruiker omschreef KAIROS als “een alwetende teamgenoot die alles opmerkt en afhandelt, voordat je er zelfs maar aan denkt om het te vragen.”

Cherny, bedenker van Claude Code, stemde inschreef dat Anthropic “altijd aan het experimenteren was” en dat 90% van de tests niet succesvol was. “Ik ben hier nog steeds onzeker over”, zei hij, verwijzend naar KAIROS. “Moeten we het versturen?”

Andere functies brengen vreugde, zoals de lijst met ‘spinner-werkwoorden’. Dit omvat rondrennen, opnieuw combineren en rommelig worden. “Bedankt Anthropic voor mijn nieuwe lijst met favoriete werkwoorden”, zei een X-gebruiker schrijven.

Dan is er de veroordelende analyse. Eén gebruiker merkte op dat Claude scheldwoorden registreerde als ‘is_negative’. Hij schreef dat Anthropic “bijhoudt hoe vaak je driftbuien naar je AI gooit.”

Zwart antwoord dat deze signalen bepalen of de gebruiker een goede ervaring heeft. “We plaatsten het op een dashboard en noemden het een ‘fucks’-diagram’, schreef hij.

Wie is de schuldige van deze puinhoop op ‘noob-niveau’?

Hoewel Delip Rao, een AI-onderzoeker aan de Universiteit van Pennsylvania die voorheen bij Amazon en Twitter werkte, niet geïnteresseerd was in de inhoud van het lek, was hij wel geïnteresseerd in hoe het gebeurde.

“Anthropic heeft zeer slimme mensen in dienst”, zegt hij. “Het is zeer onwaarschijnlijk dat iemand die bij Anthropic werkt een dergelijke instapfout zou maken”, zei hij.

Hij theoretiseerde dat er mogelijk een AI-agent bij betrokken zou kunnen zijn, en vergeleek het met een recente storing De e-commerceactiviteiten van Amazon, gekoppeld aan AI-codeerassistent Q. “Naarmate het vertrouwen groeit, hebben we de neiging minder aandacht aan hun werk te besteden”, zei Rao.

Anderen op internet delen ook soortgelijke theorieën. Eén gebruiker maakte een screenshot van een tweet uit Cherny, waarin hij schreef: “100% van mijn bijdrage aan Claude Code is geschreven door Claude Code.” Het kreeg honderden likes.

Zwart direct beantwoorden naar de post, waarbij hij de geruchten verwierp. ‘Het was een menselijke fout’, schreef hij. “Ons implementatieproces kende verschillende handmatige stappen, en we hebben geen enkele ervan correct uitgevoerd. We hebben enkele verbeteringen aangebracht en zijn bezig met het toevoegen van meer sanity checks.”

Het antwoord is: versnellen, niet vertragen, schrijft Cherny. De oplossing: “meer automatisering & Claude controleert de resultaten.”

David Borish, AI-strateeg bij Trace3, had aanvankelijk medelijden met Dario Amodei, CEO van Anthropic. Hij zag dat mensen online de lessen uit de code gebruikten om hun eigen producten te verbeteren, ook al waren ze geen klanten van Anthropic. Als zakenman kon hij zich zo’n lek niet voorstellen.

Toch geeft Borish de schuld aan de snelheid van Anthropic. Hij verwees naar het ‘beweeg snel en vernietig’-ethos. “Het is onmogelijk om de checks and balances veilig te stellen en zo snel tot actie over te gaan”, zei Borish.

Maak je geen zorgen: het personeel achter het lek is niet ontslagen. “Het was een eerlijke fout”, zei Cherny schrijven. “Het is gebeurd.”

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in