We zijn hier eerder geweest.
Op veel belangrijke momenten in de adoptie van digitale technologie hebben mensen en bedrijven ten onrechte aangenomen dat het ondernemingspark het bredere, krachtigere netwerk eronder was. In de jaren negentig geloofden veel mensen dat AOL het internet was. Toen ik in 2013 Facebook verliet, vroegen honderden mensen hoe ik kon functioneren ‘zonder internet’. Keer op keer presteren verpakte producten (besturingssystemen, appstores, streamingdiensten) beter dan stillere, goedkopere bottom-up-alternatieven zoals Linux of torrents. We vergeten dat ze bestaan.
Vandaag maken we dezelfde fout grote taalmodellen.
Blijf op de hoogte van de nieuwste trends in de manier waarop AI de cultuur en het bedrijfsleven hervormt, door de kritische lens van menselijk handelen.
Voor velen van ons “AI‘betekent nu kiezen uit een handvol commerciële LLM’s zoals GPT-chat, Claude, Tweelingof Grok– en misschien zelfs een kiezen die past bij onze culturele of politieke gevoeligheden. Maar deze systemen hebben belangrijke structurele beperkingen: het zijn gecentraliseerde, dure en energie-intensieve operaties die afhankelijk zijn van grote datacentra, schaarse chips en eigen gegevensopslag. Omdat ze zijn opgeleid via min of meer hetzelfde openbare internet, hebben ze ook de neiging vergelijkbare en gelijkmatige resultaten te behalen. Bedrijven die ze in de groothandel gebruiken, vervangen vaak hun expertise door recombinaties van wat er al beschikbaar is.
Dit is hoe AI met het bedrijfsleven deed wat sociale media met de uitgeverij deden, en wat het vroege internet deed met retailers die zonder strategie online gingen. Het gebruik van dezelfde generieke tools als alle anderen zal dezelfde algemene resultaten opleveren. Erger nog: het uitbesteden van kernkennisprocessen aan black-boxdiensten vervangt de interne capaciteitsopbouw op de lange termijn – vooral junior medewerkers die leren door praktijkervaring – door goedkopere maar toekomstbestendige automatisering.
Beperkingen van gecentraliseerde AI
Commerciële taalmodellen zijn geoptimaliseerd voor algemeenheid en schaal. De omvang is indrukwekkend, maar zorgt voor echte obstakels voor organisaties. Een gecentraliseerde LLM vereist:
- Grote hoeveelheden trainingsgegevens worden van het open web gehaald
- Dure serverinfrastructuur en energieverbruik
- Constante externe connectiviteit
- Bedrijfsmodellen zijn gebaseerd op abonnementen, tokenkosten of upselling
Voor veel bedrijven wordt dit model een nieuwe uitbestede afhankelijkheid. Elke keer dat een commerciële LLM zichzelf bijwerkt (wat wekelijks kan gebeuren), verandert uw workflow. Uw bedrijfseigen gegevens kunnen worden blootgesteld aan API’s van derden. En uw differentiatie wordt uitgehold, omdat modelkennis wordt ontleend aan hetzelfde publieke corpus dat beschikbaar is voor uw concurrenten.
Ondertussen heeft het verhaal rond AI de bedrijfswereld ertoe aangezet te geloven dat dit gecentraliseerde pad het enige haalbare pad is – dat het bereiken van zinvolle AI-capaciteiten enorme datacentra, miljarden dollars aan training en deelname aan de mondiale race naar kunstmatige algemene intelligentie vereist.
Maar dit alles is geen vereiste voor een productief gebruik van AI.
Er bestaan al praktische alternatieven
U hebt geen grensoverschrijdend model nodig om van AI te kunnen profiteren. Een groeiend, lokaal inzetbaar ecosysteem van open source taalmodellen biedt organisaties een veel grotere autonomie, privacy en controle.
Een Raspberry Pi van €100,- of een andere eenvoudige thuis- of kantoorserver, kan een compact open source-model draaien met behulp van tools als Ollama of GPT4All. Deze modellen “leren” niet zo snel als mensen, maar ze kunnen wel hoogwaardige reacties produceren terwijl ze volledig binnen je eigen omgeving blijven. Belangrijker nog is dat ze kunnen worden gekoppeld aan een persoonlijke kennisbank met behulp van een zoeksysteem. Dit betekent dat het model kan verwijzen naar uw eigen onderzoeksbibliotheek, interne documentatie of samengestelde openbare bronnen zoals Wikipedia, zonder training via internet en zonder uw gegevens naar een externe provider te sturen.
Deze systemen zijn gebouwd op uw eigen gegevens, niet op het extraheren ervan, versterken uw institutionele geheugen, maken deze niet tot handelswaar, en draaien tegen een fractie van de kosten.
Deze aanpak stelt organisaties in staat AI-systemen te creëren die aansluiten bij hun werkelijke prioriteiten, waarden en domeinexpertise. Het wordt een persoonlijke assistent en geen generiek product dat wordt gevormd door biljoenen dollars aan platformprikkels. En het alternatief hoeft geen enkele inspanning te zijn.
Buurten, campussen of bedrijfsafdelingen kunnen een ‘mesh-netwerk’ vormen: een reeks apparaten die rechtstreeks met elkaar zijn verbonden via Wi-Fi of kabels, in plaats van via het openbare internet. Eén knooppunt kan een lokaal model hosten; anderen kunnen een bijdrage leveren of hun eigen gegevensopslag beheren. In plaats van dat slechts één bedrijf over de infrastructuur en knowhow beschikt, komt u dichter bij een gemeenschapsdata- of digitaal bibliotheeksysteem.
Projecten zoals LoreKeeper’s Guild van het High Desert Institute experimenteren al met deze aanpak. Hun ‘Librarian’-initiatief voorziet in lokale bibliotheken die fungeren als datacentra voor genetwerkte AI-systemen – veerkrachtig genoeg om zelfs tijdens connectiviteitsverstoringen te functioneren. Maar hun diepere innovatie was architectonisch. Dit systeem geeft organisaties toegang tot krachtige taalmogelijkheden zonder abonnementskosten, lock-in, gegevensextractie of openbaarmaking van bedrijfseigen informatie.
Het lokale of gemeenschapsmodel stelt organisaties in staat om:
- Beheer hun eigen gegevens
- Behoud volledige privacy door het computergebruik op locatie te houden
- Reduceer de latentie tot bijna nul
- Behouden en versterken van interne expertise
- Vermijd terugkerende token- of API-kosten
En dat doen ze met veel minder energie en computerbronnen dan nodig zijn voor modellen op grensschaal.
Waarom gedecentraliseerde AI vandaag de dag belangrijk is
Hoe meer instellingen gelokaliseerde of mesh-gebaseerde AI adopteren, hoe minder ze zullen worden aangemoedigd om gecentraliseerde bedrijven te financieren die in de richting van AGI racen. Deze bedrijven hebben een effectief argument aangevoerd: dat geavanceerde AI alleen via hun diensten kan worden bereikt. De meeste door organisaties gefinancierde fondsen zijn echter niet van henzelf productiviteit–namelijk de bouw van enorme serverparken, de aanschaf van zeldzame chips en langetermijnweddenschappen op energie-intensieve infrastructuur.
Zelfbeheerde of gemeenschapsbeheerde systemen kunnen daarentegen één keer worden geïmplementeerd en voor onbepaalde tijd worden onderhouden. Een week van installatie kan een decennium aan abonnementsbetalingen elimineren. Een kleine landelijke bibliotheek heeft de haalbaarheid aangetoond van het exploiteren van een zelf-gehost LLM-knooppunt; Fortune 500-bedrijven zouden geen moeite moeten hebben om hetzelfde te doen.
De geschiedenis leert echter dat de meeste organisaties de gemakkelijke optie zullen verkiezen boven de autonome optie. Er waren maar weinig mensen die rechtstreeks toegang hadden tot het vroege internet; ze kozen voor AOL. Tegenwoordig zullen veel mensen de voorkeur blijven geven aan gecentraliseerde AI-diensten, zelfs als deze de minste controle bieden. Maar wat sociale-mediabedrijven doen met bedrijven die ze voor ‘het internet’ aanzien, is minder ernstig dan wat er gebeurt als bedrijven hun eigen interfaces voor ‘AI’ zelf aanzien.
Gedecentraliseerde AI bestaat al. De vraag is nu of we ervoor zullen kiezen om het te gebruiken.

Blijf op de hoogte van de nieuwste trends in de manier waarop AI de cultuur en het bedrijfsleven hervormt, door de kritische lens van menselijk handelen.
Uiterste deadline voor Fast Company Prijs voor wereldveranderende ideeën is vrijdag 12 december om 23:59 uur. PT. Solliciteer vandaag nog.



