Wanneer het broncodesegment voor de beroemde AI-agent Anthropic, CodeClaudeHet eindigde dinsdag op GitHub en het was een gratis evenement voor iedereen.
Ingenieurs van alle pluimage nemen het zo snel mogelijk in zich op, in de hoop ervan te leren en het misschien te gebruiken om hun eigen projecten te verbeteren.
Als vertrouwen op inhoud die door anderen is gemaakt om de intelligentie te verbeteren bekend klinkt, komt dat omdat dat precies is wat grote AI-bedrijven doen. jarenlang aan het rommelen terwijl ze concurreren om hun grote taalmodellen te trainen – inclusief Anthropic.
Ironisch genoeg heeft Anthropic, om te voorkomen dat technici toegang krijgen tot de gelekte code, snel een verwijderingsverzoek vanwege auteursrechtschending uitgegeven aan de GitHub-repository die de code host.
“We hebben een DMCA-verwijdering uitgevaardigd van een van de hostingrepository’s die de Claude Code-broncode en zijn forks had gelekt”, zei een woordvoerder van Anthropic, verwijzend naar de Digital Millennium Copyright Act.
Anthropic, OpenAI en Google hebben allemaal te maken gehad met rechtszaken vanwege hun gebruik auteursrechtelijk beschermd materiaal – inbegrepen gepubliceerd boekartikelen, wetenschappelijke tijdschriften en andere inhoud die online wordt gevonden – zonder schriftelijke toestemming. Als reactie daarop hebben auteurs, kunstenaars en uitgevers de auteursrechtwetgeving gebruikt om aansprakelijkheid en vaak betaling te eisen.
In september veroordeelde een rechtbank Anthropic tot betaling een verlies van 1,5 miljard dollar in een class action-rechtszaak die is aangespannen door auteurs en uitgevers – waaronder hoofdaanklagers Andrea Bartz, Charles Graeber en Kirk Wallace Johnson – wegens beschuldigingen dat ze illegale boeken en schaduwbibliotheken hebben gebruikt om Claude op te leiden.
Reddit heeft Anthropic afgelopen juni aangeklaagd wegens het verwijderen van grote hoeveelheden door gebruikers gegenereerde inhoud om zijn modellen te trainen zonder toestemming of compensatie aan gebruikers.
En vorige maand hebben Universal Music Group, Concord en ABKCO een rechtszaak aangespannen tegen Anthropic wegens het illegaal downloaden van meer dan 20.000 auteursrechtelijk beschermde nummers, en voor het trainen van zijn modellen.
Nu zijn de zaken veranderd en vertrouwt Anthropic op het auteursrecht om zijn eigen creaties te beschermen. “We ondernemen stappen om te voorkomen dat dit opnieuw gebeurt”, zei een woordvoerder van Anthropic.
Gelukkig voor het bedrijf is het lek misschien niet zo erg als sommige mensen denken.
Paul Price, cybersecurityspecialist en oprichter van ethisch hackbedrijf Code Wall – dat onlangs de kwetsbaarheid ontdekte in De interne chatbot van McKinseyLilli – zei dat het Antropische lek niets kritisch aan het licht bracht.
“Het is meer een schande dan een verlies. De meeste interessante dingen zitten in hun interne sourcingmodel en dat lekt niet”, vertelde hij aan Business Insider.
Hij zei dat het bedrijf onbedoeld een ‘harnas’ heeft blootgelegd: een software-infrastructuur die doorgaans wordt gebruikt om grote taalmodellen te verbinden met de bredere context waarin ze worden gebruikt.
“Claude Code is een van de beste ontwerpbureaus die er zijn, en nu kunnen we zien hoe ze moeilijke problemen aanpakken”, voegde Price eraan toe, erop wijzend dat dit ook nuttige informatie voor concurrenten zou kunnen zijn.
Het lek benadrukt ook de paradox van de AI-hypecyclus: de tools die het bouwen en leveren van producten sneller dan ooit maken, maken het ook gemakkelijker om informatie – gevoelig of niet – te lekken, te repliceren en direct te delen.


