Home Nieuws Het idee dat het internet voor mensen is gemaakt, begint af te...

Het idee dat het internet voor mensen is gemaakt, begint af te brokkelen. Dit heeft een grote impact op uw bedrijf

3
0
Het idee dat het internet voor mensen is gemaakt, begint af te brokkelen. Dit heeft een grote impact op uw bedrijf

Jarenlang gingen veel bedrijven ervan uit dat het internet voor mensen was gemaakt.

Websites zijn ontworpen om menselijke aandacht te trekken, uit te leggen, te overtuigen, te overtuigen en uiteindelijk te converteren. Zoekmachineoptimalisatie, gebruikerservaring, digitale merchandising en kassa-ontwerp berusten allemaal op hetzelfde uitgangspunt: de gebruiker is de persoon die voor het scherm zit.

Dat uitgangspunt begint te barsten.

Niet omdat mensen verdwenen, maar omdat ze gingen delegeren. Steeds vaker is het eerste systeem dat uw site leest, uw aanbiedingen vergelijkt, uw beleid interpreteert of zelfs een aankoop start, geen mens. Dit zou een softwareagent zijn die namens iemand handelt. Dat is de richting waar Anthropic naar verwijst Modelcontextprotocoldoor Google Agent2Agent protocol, die gids voor agentprotocollen en het Universeel handelsprotocoldoor Open AI Exploitanten En SDK-agenten met toenemende werkgelegenheid van bedrijven zoals Visa, MasterCardEn gloedwolk om handelsagenten betrouwbaar te maken en op grote schaal te opereren.

Dit is niet alleen een verhaal over een betere chatbot of een mooiere interface. Dit is het verhaal van het web dat een tweede interface krijgt: één voor mensen en één voor machines.

Van pagina naar actie

Het oude web draaide om pagina’s. U publiceert informatie, mensen vinden deze en klikken vervolgens in een reeks die u beheert. Het opkomende web draait steeds meer om actie. Agenten geven niet echt om uw startpagina, uw visuele hiërarchie of de emotionele stroom van uw trechter. Ze vinden het belangrijk of ze uw catalogus kunnen begrijpen, uw beleid kunnen verifiëren, toegang kunnen krijgen tot betrouwbare gegevens en taken kunnen voltooien zonder onnodige obstakels.

Daarom vonden de belangrijkste ontwikkelingen plaats AI het is steeds meer niet alleen een model, maar ook een protocol. Anthropic beschrijft MCP als “een open en universele standaard voor het verbinden van AI-systemen met databronnen”, bedoeld om gefragmenteerde integratie te vervangen door één enkel protocol. Google’s A2A beschrijft een wereld waarin agenten mogelijkheden adverteren via ‘Agent Cards’, elkaar vinden en samenwerken aan taken. Het commerciële werk van Google gaat nog verder: UCP is expliciet ontworpen om betalingslogica rechtstreeks te integreren met Google en Gemini AI Mode, waarbij ‘native betalingen’ worden beschouwd als het standaardpad om het ‘volledige potentieel van agenten’ te ontsluiten. Met andere woorden: de stapel gaat van inhoud naar uitvoering.

De volgende SEO is geen SEO

Al twintig jaar beseffen bedrijven dat zichtbaarheid afhangt van de leesbaarheid door zoekmachines. Wat vandaag de dag opkomt, is veeleisender. Het is niet langer voldoende om indexeerbaar te zijn. Je moet bruikbaar zijn.

Daarom zijn ideeën als llms.txt belangrijk. Zoals ik betoogde in een recent artikelwebsites zijn gebouwd voor mensen, terwijl taalmodellen beter geschikt zijn voor beknopte, ‘vetvrije’ toegangspunten die de dubbelzinnigheid verminderen en de ruis van menu’s, scripts, repetitieve elementen en lay-outs elimineren. Een eenvoudig llms.txt-voorstel: plaatst een markdown-bestand in /llms.txt dat dient als selectiekaart voor het taalmodel, en laat zien wat belangrijk is, wat canoniek is en waar nuttige bronnen zich bevinden. Het officiële voorstel omschrijft het als een manier om “biedt informatie om LLM’s te helpen de website te gebruiken tijdens het concluderen”, juist omdat het contextvenster beperkt is en het converteren van complexe HTML naar bruikbare platte tekst vaak moeilijk en onnauwkeurig is.

Dat maakt llms.txt nog geen magische ranking-hack. Nee. Dit komt dichter bij de digitale huishouding, omdat steeds meer ontdekkingen, samenvattingen en aanbevelingen worden gemedieerd door AI-systemen. Het gaat er niet om het ranking-algoritme te bespelen. Het punt is om machineverwarring te verminderen. Het onderscheid is belangrijk.

Dezelfde logica is van toepassing op nieuwere, meer experimentele ideeën zoals identiteit.txt. De site beschrijft het als “een draagbaar identiteitsbestand dat AI-tools vertelt wie je bent, hoe je denkt en in welke termen”, en voegt eraan toe dat “llms.txt AI over websites vertelt. Identity.txt vertelt AI over mensen.” Of Identity.txt zelf algemeen wordt toegepast, is bijna secundair. Wat belangrijk is, is de richting die het opgaat: het web begint doelbewust machinaal leesbare zelfbeschrijvingen te produceren, in plaats van modellen en agenten alles te laten afleiden uit luidruchtige HTML, metadatafragmenten en giswerk.

En dit kan onmogelijk bij deze twee voorbeelden blijven. In de agentprotocolrichtlijnen van Google wordt uitgelegd dat elke A2A-agent een agentkaart kan publiceren die zijn of haar naam, mogelijkheden en eindpunt beschrijft. Het punt is duidelijk: het systeem begint zichzelf op een gestandaardiseerde manier aan te kondigen aan andere systemen. Als die logica eenmaal aanwezig is, kun je je gemakkelijk een breder ecosysteem voorstellen van machinaal leesbare bestanden voor beleid, machtigingen, herkomst, afhandeling, prijslogica, retourzendingen en geverifieerde identiteit.

Merk is nog steeds belangrijk. Maar merken alleen zijn niet langer voldoende

Veel bedrijven beschouwen AI nog steeds als iets dat zich bovenop het web bevindt: chatbots in de klantenservice, waarvan sommige kopieën genereren marketingassistent in de app. Dat beeld is te oppervlakkig.

Wat er feitelijk gebeurt, is dat er een naar de machine gerichte laag wordt toegevoegd onder het zichtbare web en, in sommige contexten, ervoor. Wanneer een gebruiker een agent vraagt ​​om de beste zwarte blazer voor een bepaalde prijs te vinden, met snelle levering, goede retourvoorwaarden en een pasvorm die vergelijkbaar is met een eerdere aankoop, begint de interactie niet met een bezoek aan de homepage. Het begint met machineinterpretatie.

Het verandert de basis van de concurrentie. Een sterk merk blijft belangrijk omdat vertrouwen belangrijk blijft. Maar vertrouwen moet steeds vaker worden uitgedrukt in een vorm die machines kunnen verwerken: gestructureerde kenmerken, up-to-date inventaris, transparante retourregels, leveringsbeloften, geverifieerde identiteiten van verkopers en betalingssystemen die legitieme agenten kunnen onderscheiden van kwaadwillende bots. Visa zegt dat het doel is om “ervoor te zorgen dat alleen goedgekeurde AI-agenten transacties uitvoeren”, terwijl Mastercard stelt dat het protocol van cruciaal belang is voor het verbeteren van de handel tussen agenten, omdat het duidelijke gebruikersintenties, veilige inloggegevens en verifieerbare agentidentiteiten ondersteunt. Cloudflare, dat nauw samenwerkt met het betalingsecosysteem, heeft hetzelfde botweg gezegd: verkopers hebben een manier nodig om toegang te verlenen aan legitieme AI-agenten en tegelijkertijd frauduleus verkeer aan de deur te stoppen.

Wat dit betekent voor bedrijven: de zaak Inditex

Wereldleiders als Inditex maken deze verschuiving begrijpelijker omdat ze zich precies op het snijvlak van branding, logistiek, e-commerce en schaal bevinden.

Inditex startte relatief laat met e-commerce in vergelijking met digital natives, maar bouwde uiteindelijk een van de meest effectieve geïntegreerde retailsystemen op de markt. Binnenin Resultaten boekjaar 2025Het bedrijf rapporteerde een omzet van €39,9 miljard, een online omzet van €10,7 miljard, en benadrukte expliciet dat de integratie van winkels en online activiteiten een “naadloze wereldwijde omnichannel-ervaring” mogelijk maakt.

Dit geeft Inditex een enorm voordeel in een agent-gemedieerde omgeving. Zara en andere groepen hebben al veel dingen die agenten zouden kunnen waarderen: sterke merkherkenning, snelle voorraadrotatie, geïntegreerde logistiek, brede geografische dekking en operationele coördinatie tussen fysieke en digitale kanalen.

Maar er zijn ook risico’s. Mode is van oudsher afhankelijk van presentatie, ambitie, curatie en verloop die vaak commercieel opportuun zijn. De agent comprimeert dat allemaal. Ze reduceren merchandising tot een beslissingslaag waar prijs, beschikbaarheid, maatzekerheid, leverdata, retourzendingen en vertrouwde identiteit beter zichtbaar kunnen worden dan de sfeer van de site zelf. In die wereld is de vraag niet langer “Is uw site interessant?” De zin wordt: “Kan de agent u efficiënt gebruiken?” Voor Inditex is deze strategische reactie niet cosmetisch. Dit is structureel.

Wat moet Inditex dan doen?

  • Eerst, ze moeten hun websites niet alleen gaan behandelen als bestemmingen voor mensen, maar ook als gestructureerde oppervlakken voor agenten. Dit betekent rijkere, machinaal leesbare catalogi, explicietere signalen voor grootte en geschiktheid, duidelijkere metadata voor inventaris en verzending, duidelijkere bekendheid van beleid en sterkere authenticatielagen.
  • Ten tweede moet dit serieus zijn experimenteer met machinegeoriënteerde beschrijvende bestanden. Een goed ontworpen llms.txt op groep- en merkniveau zou zinvol zijn, vooral om duidelijk te maken wat canoniek is, hoe de inhoud is georganiseerd, hoe snel productinformatie verandert en welke bronnen gezaghebbend zijn. Dit is geen SEO-truc. Dit wordt de bruikbaarheidslaag van de agent.
  • Ten derde: zo zou het moeten zijn bereid u voor op protocolgebaseerde handel in plaats van aan te nemen dat alle transacties binnen de interface zelf zullen worden geïnitieerd. Als Google UCP bouwt om handel te ondersteunen in een AI-native omgeving, en als betalingsnetwerken en infrastructuurbedrijven vertrouwenslagen opbouwen voor de handel tussen agenten, dan moeten grote retailers ervan uitgaan dat agentgerichte betalingen, verificatie en ontdekking van strategisch belang zullen worden.

Inditex zou bijzonder goed gepositioneerd kunnen zijn voor een dergelijke transitie. Maar de bedrijven die in de volgende handelsfase winnen, zijn niet noodzakelijkerwijs degenen met de mooiste interfaces. Zij zullen degenen zijn die agenten het gemakkelijkst kunnen begrijpen, vertrouwen en gebruiken.

Het web begint zijn motorlagen te onthullen

Er bestaat een begrijpelijke verleiding om zaken als llms.txt, Identity.txt, Agent Cards of machinaal leesbare beleidslagen af ​​te doen als marginale technische zaken. Dat was een vergissing.

Dat zijn de eerste tekenen.

Nee, llms.txt is nog geen universeel aanvaarde standaard. En nee, het toevoegen ervan zal een bedrijf niet van de ene op de andere dag op magische wijze transformeren. Maar dat mist het punt. Kleine bestanden en lichte conventies zijn belangrijk omdat ze laten zien waar de infrastructuur naartoe gaat. Het internet heeft tientallen jaren besteed aan het perfectioneren van de interface voor het menselijk oog. Het begint nu, onhandig maar onmiskenbaar, de interface voor de softwareagent bloot te leggen.

Het was een diepere verschuiving.

Originele documenten verbonden met internet. Webplatforms verbinden gebruikers en diensten. Wat volgt zal steeds meer agenten, tools, verkopers, betalingssystemen en geauthenticeerde identiteiten met elkaar verbinden. En wanneer dit gebeurt, verandert de strategische vraag.

Het is niet langer alleen maar de vraag: “Hoe zorg ik ervoor dat mensen mijn website bezoeken?”

De vraag is: “Hoe maak ik mijn bedrijf begrijpelijk, betrouwbaar en bruikbaar voor een systeem dat steeds meer tussen mij en mijn klanten in staat?”

Dat is geen ontwerpwijziging. Dit is een nieuwe laag in de digitale strategie.

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in