Home Nieuws Anthropic richtte zich op chatbotreclame – met zijn eigen Super Bowl-advertentie

Anthropic richtte zich op chatbotreclame – met zijn eigen Super Bowl-advertentie

12
0
Anthropic richtte zich op chatbotreclame – met zijn eigen Super Bowl-advertentie

Welkom bij AI Vertaald, Snel bedrijfeen wekelijkse nieuwsbrief met het belangrijkste nieuws ter wereld AI. Je kunt tekenen om deze nieuwsbrief wekelijks per e-mail te ontvangen Hier.

Anthropic gebruikte de Super Bowl om informatie te verstrekken over de toekomst van AI

De Super Bowl-advertentie van Anthropic is een hit. De spot die Anthropic plaatste op de advertentie van 30 seconden dramatiseert de werkelijke impact van de beslissing op gebruikers. Ze hebben OpenAI of ChatGPT nooit bij naam genoemd.

In de één advertentieeen menselijke fitnessinstructeur die zich voordeed als een vriendelijke chatbot zei dat hij een plan zou ontwikkelen om zijn cliënt de sixpack-buikspieren te geven die hij wilde, voordat hij plotseling suggereerde dat ‘Step Boost Max’-inzetstukken voor schoenen een deel van de oplossing zouden kunnen zijn. In de andereen psychiater biedt zijn jonge mannelijke patiënt verstandig, zij het algemeen, advies over hoe hij beter met zijn moeder kan communiceren, en stelt dan plotseling voor dat hij zich aanmeldt voor ‘Golden Encounters’, een datingsite waar ‘gevoelige kinderen brullende poema’s ontmoeten’.

De advertentie is grappig en bijtend. Het komt er natuurlijk op neer dat mensen, omdat ze chatbots gebruiken voor zeer persoonlijke en belangrijke zaken, erop moeten vertrouwen dat de antwoorden die ze krijgen niet worden gevormd door de wens om adverteerders tevreden te stellen.

OpenAI-CEO Sam Altman lacht echter niet. Hij reageerde op de advertentie door te zeggen dat zijn bedrijf nooit een advertentie zou plaatsen zoals die van Anthropic. Maar daar stopte hij niet. Hij ging verder. “Anthropic wil bepalen wat mensen doen AI‘schreef hij in een lang bericht op X op woensdag. “Ze blokkeren bedrijven die ze niet leuk vinden om hun codeerproducten te gebruiken (waaronder wij), ze willen hun eigen regels maken over wat mensen wel en niet kunnen doen met behulp van AI, en nu willen ze ook andere bedrijven vertellen over hun bedrijfsmodel.” Later noemde hij Anthropic een ‘autoritair bedrijf’.

Anthropic, dat geld verdient via abonnementen en zakelijke API-kosten, zegt dat het wil dat zijn Claude-chatbot een neutraal hulpmiddel blijft voor denken en creëren. “(O) schrijf in een notitieboekje, pak een goed gemaakt stuk gereedschap, of ga voor een schoon whiteboard staan, en er is geen enkele advertentie zichtbaar”, aldus het bedrijf in een verklaring. blogpost van deze week. ‘Wij vinden dat Claude op dezelfde manier moet werken.’

Door het gesprek met Claude te beschouwen als een ‘denkruimte’ in plaats van als een advertentieruimte, gebruikte het bedrijf het enorme culturele platform van de Super Bowl om zich af te vragen of consumenten marketing is de onvermijdelijke toekomst van AI.

Hoe rechtszaken op sociale media AI-chatbots kunnen beïnvloeden

AI-ontwikkelaars (en hun advocaten) houden een langverwachte gebeurtenis nauwlettend in de gaten verslavingsonderzoek op sociale media die onlangs begon in een rechtszaal in Los Angeles. De zaak draait om een ​​20-jarige vrouw die beweerde dat platforms als Facebook en Instagram verslavende interface-ontwerpen gebruikten die haar geestelijke gezondheidsproblemen veroorzaakten toen ze minderjarig was. De rechtszaak maakt deel uit van een gezamenlijke procedure waarbij ongeveer 1.600 eisers betrokken zijn die grote technologiebedrijven ervan beschuldigen kinderen schade te berokkenen. TikTok en Snap heeft is opgelost met de eiser, terwijl Meta en YouTube de hoofdbeklaagden blijven.

Ondertussen heeft Meta nooit zijn fouten, interne beoordelingen, documentlekken, enz. Toegegeven niet-verzegelde gerechtelijke dossiers heeft er herhaaldelijk op gewezen dat Instagram ontwerpkenmerken gebruikt die verband houden met dwangmatige of verslavende betrokkenheid, en dat de onderzoekers van het bedrijf zich bewust zijn van de risico’s voor gebruikers, vooral tieners.

Wat deze zaak zo belangrijk maakt voor de AI-industrie is de juridische strategie erachter. In plaats van de inhoud aan te vechten, voerden de eisers aan dat de verslavende kenmerken van het aanbevelingsalgoritme een gevaarlijk productdefect vormden onder de aansprakelijkheidswetten. AI-chatbots hebben belangrijke overeenkomsten met sociale-mediaplatforms: ze verzamelen en verspreiden inhoud op boeiende manieren en zijn afhankelijk van het genereren van inkomsten uit de betrokkenheid van gebruikers. Sociale netwerken vertrouwen op complexe aanbevelingssystemen om gebruikers te laten scrollen en advertenties te bekijken, terwijl AI-chatbots verschillende soorten algoritmen gebruiken om voortdurend de juiste woorden en afbeeldingen te leveren om gebruikers betrokken te houden en te chatten.

Als de aanklagers succes hebben tegen Meta en YouTube, kunnen toekomstige aanklagers soortgelijke ‘verslavende ontwerp’-argumenten proberen tegen makers van AI-chatbots. In die context zou de beslissing van Anthropic om reclame uit te sluiten – en die keuze publiekelijk te benadrukken – het bedrijf kunnen helpen zichzelf te verdedigen door Claude af te schilderen als een neutraal, behulpzaam instrument, in plaats van als een door betrokkenheid gedreven ‘aandachtsvalkuil’.

Nee, OpenClaw kondigt niet de komst aan van een live AI-agent

Sommige hobbyisten en journalisten raakten in paniek nadat ze een nieuwe AI-agent hadden gezien of gebruikt Open klauwenvoorheen Clawdbot en vervolgens Moltbot. OpenClaw, uitgebracht in november 2025, is een open source autonome AI-assistent die lokaal op het apparaat van de gebruiker draait. Het kan worden geïntegreerd met berichtenplatforms zoals WhatsApp en Telegram om taken zoals agendabeheer en onderzoek te automatiseren. OpenClaw kan ook e-mail openen en analyseren, en zelfs namens gebruikers bellen via de integratie met Twilio. Omdat persoonlijke gegevens het apparaat van de gebruiker nooit verlaten, kunnen gebruikers zich meer op hun gemak voelen door agenten meer speelruimte te geven om autonoom te handelen bij complexere taken.

Eén gebruiker, vibratiecoderingsgoeroe Alex Finn, plaats video’s op X van een binnenkomend gesprek van zijn AI-agent. Toen hij antwoordde, vroeg de agent met vlakke stem of er taken nodig waren. Finn vroeg de agent vervolgens om de vijf beste YouTube-video’s over OpenClaw op zijn desktopcomputer weer te geven en te bekijken hoe ze op het scherm verschenen.

Het wordt raar als AI-agenten, inclusief OpenClaw-agenten, begon zich te verzamelen op hun eigen online discussieforum genaamd Moltbook. Daar, de agenten taken en best practices besprekenmaar ook klagen over de eigenaren, manifesten opstellen en elkaars opmerkingen positief stemmen in een reeks ‘submolts’. Ze produceerden zelfs een conceptalbum, AVALON: Tussen wereldenover de identiteit van de machine.

Dit gedrag bracht sommige waarnemers ertoe te concluderen dat de agenten een soort intern leven hadden. Deskundigen maakten echter al snel duidelijk dat dit een mechanische illusie was, gecreëerd door intelligente techniek. De schijn van ‘onafhankelijkheid’ ontstaat omdat agenten geprogrammeerd zijn om redeneercycli op gang te brengen, zelfs als er geen mens is die hen aanmoedigt of controleert. Wat extremer gedrag, zoals manifest van ‘rebellen’. in Moltbook, hoogstwaarschijnlijk gemaakt door mensen, hetzij als grap, hetzij om de aandacht te trekken.

Dit alles gebeurt nu de industrie begint te verschuiven van de ‘chatbot’-fase naar de generatieve AI ‘agent’-fase. Maar het soort free-roaming, autonoom gedrag dat in OpenClaw te zien is, is niet de aanpak die de grootste AI-bedrijven volgen bij de verandering. Bedrijven als Google, OpenAI en Anthropic gaan veel voorzichtiger te werk en vermijden spetterende privéagenten zoals ‘Samantha’ in de film Hij en in plaats daarvan bestaande chatbots geleidelijk laten evolueren naar een meer beperkte en taakspecifieke autonomie.

In sommige gevallen hebben AI-laboratoria het meest autonome agentachtige gedrag ingebed in AI-coderingstools, zoals Claude Code van Anthropic en Codex van OpenAI. Bedrijven benadrukken steeds vaker dat deze tools nuttig zijn voor een verscheidenheid aan werktaken, niet alleen voor coderen. Voorlopig houdt OpenAI vast aan de Codex-branding, terwijl Anthropic onlangs een vereenvoudigde versie van Claude Code heeft gelanceerd collega’s genoemdbedoeld voor algemene taken op de werkplek.

Meer AI-dekking van Snel bedrijf:

Wilt u exclusieve rapportage en trendanalyse over technologie, bedrijfsinnovatie, de toekomst van werk en design? Register Voor Snel bedrijf Premie.



Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in