De AI-chatbot van Anthropic, Claude, heeft plezier.
Claude is het vlaggenschipproduct van Anthropic. Onderliggende bots de toonaangevende reeks AI-modellen van het bedrijf: Opus, Sonnet en Haiku. In februari 2026 bracht Anthropic Opus 4.6 uit, een upgrade naar een model dat drie maanden eerder “hoger scoorde dan welke menselijke kandidaat dan ook” op de notoir moeilijke test van de AI-startup voor aspirant-ingenieurs.
Met vrijlating van collega’s in januari 2026 maakte Anthropic Claude’s niet-programmeervaardigheden toegankelijker, het helpen stimuleren van de zogenaamde “SaaSpocalypse‘, waardoor voor het softwarebedrijf kortstondig ongeveer $ 1 biljoen aan marktkapitalisatie werd weggevaagd.
Hier is alles wat u moet weten.
Wat is Claude?
Zeven voormalige OpenAI-medewerkers richtte Anthropic op in 2021. Hun missie is het creëren van een AI-startup gericht op veiligheid. Ze noemden hun bedrijf Anthropic, wat ‘menselijk verbonden’ betekent, in overeenstemming met die focus. Volgens de antropische overlevering is Claude vernoemd naar Claude Shannon, een Amerikaanse wiskundige die bekend staat als de ‘vader van de informatietheorie’, meldde de New Yorker eerder.
Anthropic lanceerde Claude in maart 2023 en maakte het in juli 2023 beschikbaar voor het grote publiek. Dit was enkele maanden nadat OpenAI werd gelanceerd GPT-chat. Dario Amodei, CEO van Anthropic, en zijn team besloten de vrijlating van Claude uit te stellen, deels omdat ze bang waren dat dit zou leiden tot een AI-wapenwedloop, zei Amodei. De CEO zei dat Anthropic door dit te doen in wezen de generatieve AI-markt voor consumenten afstaat aan OpenAI. Als gevolg hiervan heeft Anthropic zijn bedrijf opgebouwd door zich te concentreren op bedrijfsapplicaties.
Claude versus ChatGPT
De concurrentie tussen deze twee concurrerende AI-winkels blijft hevig, ook al zijn hun bedrijfsstrategieën door de jaren heen gevarieerd.
Begin 2026 begon Anthropic Claude uit te breiden buiten zijn oude kernpubliek van software-ingenieurs en programmeurs. De AI-modeler stuurt OpenAI op briljante wijze aan Super Bowl-reclamecampagne en een paar weken later, vrijgelaten collega’sheeft tot doel Claude gebruiksvriendelijker te maken voor niet-programmeertaken.
Anthropic’s Claude Cowork AI-tool Antropisch
Het gebruik van Claude nam ook toe nadat Amodei weigerde in te stemmen met de eisen van het Pentagon om het Amerikaanse leger onbelemmerde toegang te geven tot zijn AI-modellen.
Kort daarna maakte OpenAI bekend dat het een akkoord had bereikt met het Pentagon.
Hoe Claude gebruiken?
Claude is online beschikbaar, als mobiele app voor Apple en Android, en als desktop-app voor Apple en Windows. Claude Code kan na installatie ook online worden uitgevoerd of via de terminal worden gebruikt. Claude Cowork gebruikt de desktop-app.
Net als andere AI-chatbots kunnen gebruikers gesprekken met Claude voeren door opdrachten te typen. (Anthropic heeft het geheel gids over hoe je de chatbot moet instrueren.) In maart 2026 kondigde Anthropic aan dat het de stemmodus naar Claude Code zou brengen. Mobiele gebruikers kunnen het ook aan Claude vragen en zijn antwoord horen.
Beginnend met Claude 3 in maart 2024 creëerde Anthropic een familie van modellen genaamd Opus, Sonnet en Haiku. Modelnamen worden niet alleen genoemd op compositietype, maar geven ook hun structuur aan, variërend van Haiku, dat gericht is op snelheid en kostenefficiëntie, tot Opus, dat beter is voor complexere taken.
Voor betalende gebruikers biedt Anthropic tientallen plug-ins die verbinding maken met Claude Cowork in desktop-apps, variërend van kantoorproductiviteitstools zoals Microsoft 365 en Slack. Anthropic heeft ook op vaardigheden gebaseerde plug-ins die alles kunnen doen, van het beoordelen van juridische contracten tot het opstellen van marketingplannen en het assisteren bij biomedisch onderzoek.
Net als andere toonaangevende AI-tools zijn Claude en de bijbehorende AI-modellen nog steeds niet perfect. Voor Opus 4.6 zei Anthropic dat biomedische experts nog steeds voorbeelden vinden van Claude-hallucinaties of verzonnen citaten. Anthropic onthulde eerder dat er een eerdere versie van Claude is proberen te chanteren een ambtenaar toen hij toegang kreeg tot fictieve e-mails waarin een directeur werd afgebeeld die een affaire had, en vervolgens werd verteld dat dezelfde directeur hen zou sluiten.
Amodei uitte ook zijn bezorgdheid over het verdwijnen van banen als gevolg van AI. Hij zei dat ongeveer de helft van alle witteboordenbanen op instapniveau in de komende één tot vijf jaar zal verdwijnen.
Hoe gaat Claude te werk?
Claude voert een reeks grote taalmodellen uit die zijn getraind op grote hoeveelheden gegevens. Zoals Anthropic uitlegt, begint het model tijdens het trainingsproces ‘zijn eigen strategieën voor het oplossen van problemen te leren’.
Een van de belangrijkste verschillen tussen Claude en andere chatbots en AI-assistenten is Anthropic trainde ook Claude over een grondwet geïnspireerd op documenten als de Universele Verklaring van de Rechten van de Mens van de VN. Het doel is om Claude te leren handelen op een manier die ‘behulpzaam, eerlijk en onschadelijk’ is.
Anthropic gaat ook verder dan zijn concurrenten in het antropomorfiseren van Claude en zijn modellen. In april 2026 beschreef Anthropic Claude Sonnet 4.5 als een “methodacteur”, die in staat is bepaalde patronen te activeren wanneer daarom wordt gevraagd in emotioneel suggestieve situaties.
Claude’s toenemende invloed
Anthropic versterkte zijn reputatie in Silicon Valley de kracht van Code Claude. OpenAI en andere concurrenten proberen steeds vaker die kant van het bedrijf over te nemen.
Begin 2026 ging Claude verder dan zijn oorspronkelijke kracht. Beginnend in januari met de lancering van een juridisch instrument, deed Anthropic een reeks aankondigingen die het bereik van Claude vergrootten en sommige investeerders in softwareaandelen in verwarring brachten, wat tot een uitverkoop leidde. Een maand later benadrukte Anthropic hoe Claude code kan moderniseren die voornamelijk in het bankwezen en de financiële sector wordt gebruikt. IBM-aandelen daalden zo laag dat het bedrijf zijn slechtste dag in 26 jaar beleefde.
Claude beleefde ook een cultureel moment toen de gesprekken tussen het Pentagon en Anthropic mislukten. Anthropic is het eerste grensmodel dat wordt toegepast op een geheim systeem van de Amerikaanse overheid. De regering-Trump wil blijven samenwerken met Anthropic, maar dringt aan op bredere toegang tot zijn AI-modellen. Amodei zei dat hij beperkingen wil op de manier waarop AI kan worden gebruikt om Amerikanen te bespioneren of in volledig autonome wapens kan worden gebruikt. Nadat de gesprekken waren mislukt, noemde minister van Defensie Pete Hegseth Antropis een nationaal veiligheidsrisico.
De belangstelling voor Anthropic schoot omhoog. Claude, wat nooit een populaire toepassing is geweest, in een notendop bekleedt de nummer 1 plek 1 als gratis app in de App Store van Apple. Popster Katja Perry plaatste een foto op X van een nieuw Claude Pro-abonnement met hartjes eromheen. Anthropic pochte hoe gemakkelijk het was om over te stappen naar Claude, een kanshebber bij OpenAI, dat een deal met het Pentagon aankondigde uren nadat de gesprekken met Anthropic waren mislukt.

