Kan een gevecht met een klant die de krantenkoppen haalt, echt goed zijn voor een merk? Deze week geschil tussen het ministerie van Defensie en Anthropicberoemde speler in een supercompetitief veld kunstmatige intelligentiemisschien is dat alles.
Het geschil gaat over de vraag of het Pentagon, dat een overeenkomst heeft om antropische technologie te gebruiken, deze in een breder scenario kan toepassen: alle gevallen van ‘legitiem gebruik’. Anthropic weigerde in te stemmen met verschillende mogelijke scenario’s, en het Pentagon beschuldigde hen er in wezen van te voorzichtig te zijn. Het blijkt dat deze beoordeling in wezen in overeenstemming is met de inspanningen van Anthropic (meest recentelijk via Super Bowl-commercial rechtstreeks gericht op de leidende rivaal OpenAI) om zijn reputatie als bedachtzame en doordachte AI-innovator te versterken. In een tijd waarin de pro-tegen-con-implicaties en potentiële gevolgen van AI steeds heftiger worden besproken, probeert het publieke imago van Anthropic deze kloof te dichten.
Vermoedelijk zou Anthropic (bij consumenten vooral bekend vanwege zijn AI-chattool Claude) er de voorkeur aan geven die reputatie te promoten zonder winstgevende klanten te vervreemden. Maar het onderliggende geschil gaat over de manier waarop het leger de technologie van Anthropic kan gebruiken, en het bedrijf probeert naar verluidt toepassingen te beperken waarbij massasurveillance en autonome wapens betrokken zijn. Een woordvoerder van het Pentagon op de hoogte gebracht Snel bedrijf dat “de militaire betrekkingen met Anthropic worden herzien”, en voegde eraan toe: “Ons land vereist dat onze partners bereid zijn onze oorlogsstrijders te helpen winnen in welke strijd dan ook.” De afdeling heeft naar verluidt gedreigd Anthropic te bestempelen als “risico’s voor de toeleveringsketen”, stelt het gelijk aan een technologiebedrijf dat als ‘woke’ wordt beschouwd, waardoor niet alleen potentiële problemen voor Anthropic maar ook voor partners als Palintir ontstaan.
Tot nu toe is het basisstandpunt van Anthropic: Dit is een unieke technologie waarvan we het potentieel niet volledig begrijpen, dus er zijn beperkingen aan de toepassingen die we momenteel toestaan. Nog botweg: wij zijn niet roekeloos.
Niet zo snel handelen dat je belangrijke zaken schaadt – zoals het vertrouwen van gebruikers of de beschaving – is een boodschap die aansluit bij het officiële imago dat Anthropic wil cultiveren. Het bedrijf werd opgericht door OpenAI-vluchtelingen die in 2021 betoogden dat het bedrijf het genereren van inkomsten prioriteit gaf boven veiligheid. Zijn meest recente Super Bowl-advertentie is hiervan het bekendste voorbeeld merk tot nu toe: OpenAI rechtstreeks bespotten omdat het experimenteerde met advertenties op zijn consumentgerichte ChatGPT-product, en de resultaten presenteren als een onzinnige puinhoop.
De vlekken zijn, zoals Snel bedrijfJeff Beer legt het uiteen zeldzaam voorbeeld van ‘woede gericht op een categorieconcurrent’. Ze zouden misschien wel het eerste salvo kunnen zijn in een merkstrijd als Apple versus Microsoft, waarbij Anthropic de rol van een echte uitdager op zich neemt. (De eerste reactie van OpenAI omvatte minachting van de activiteiten van Anthropic, waarbij alleen de underdogpositie werd bevoordeeld.)
Als merkimago om naar te streven, is het een begrijpelijk doel om een verantwoordelijke AI-speler te zijn. De technologie zorgt op dit moment al jaren voor verdeeldheid de laatste tijd Dat bereikt zijn hoogtepunt. Bekeken door Veel een bedreiging voor de privacy, een banenmoordenaar, een bedreiging voor het milieu en een eindeloze bron van desinformatie en roekeloosheid, het wordt tegelijkertijd door de elites van Silicon Valley en hun intellectuele collega’s aangeprezen als een ongekende zegen voor de mensheid.
Het enige waar we het over eens zijn, is dat de veranderingen groots, snel en niet te stoppen zullen zijn. En hoezeer je het ook gelooft, er zijn mannen in X die beweren dat je het nog steeds niet gelooft echt begrijpen. Het is geen verrassing dat er ruimte lijkt te zijn voor AI-bedrijven om voorzichtige boodschappen over te brengen.
Natuurlijk is dit branding waar we het over hebben, en uiteindelijk staat Anthropic onder dezelfde marktdruk als zijn concurrenten. En feitelijk gedrag is niet altijd puur. Vorig jaar kwamen ze overeen om 1,5 miljard dollar te betalen om een class action-rechtszaak te schikken waarin werd beweerd dat hun model was getraind op ongeveer 500.000 auteursrechtelijk beschermde boeken.
Ondanks het dispuut met het Pentagon is de technologie al verbonden met het Amerikaanse leger en is deze naar verluidt gebruikt bij de recente arrestatie van de Venezolaanse sterke man Nicolás Maduro door de VS. En natuurlijk zijn ze misschien niet akkoord gegaan met de eisen van het Pentagon. (Volgens axioma, De jaarlijkse omzet van Anthropic bedraagt ongeveer 14 miljard dollar, en de deal met het ministerie van Defensie is vastgesteld op 200 miljoen dollar – geen grote verandering, maar niet existentieel.)
De ruzie is echter een kans voor Anthropic om te laten zien dat haar retoriek en acties op één lijn liggen. Dit zou op zijn minst een goede zaak kunnen zijn voor zijn vlaggenschip chattool. Claude: Consumenten die verleid worden door de hype van AI, maar zich zorgen maken over de mogelijke nadelen ervan, zullen Anthropic waarschijnlijk zien als de minst roekeloze van de grote spelers in deze nieuwe technologie. En gezien de verdeeldheid in de AI-categorie kan dit als een overwinning voor het merk worden beschouwd.


