Volg ZDNET: Voeg ons toe als voorkeursbron op Google.
Kernpunten van ZDNET
- De cloud-first-aanpak moet opnieuw worden bekeken.
- AI draagt bij aan de stijgende cloudkosten.
- Hybride modellen garanderen het beste van twee werelden.
Ongeveer tien jaar geleden woedde het debat tussen cloud- en on-premises computing. De wolken wonnen die strijd gemakkelijk, en het was niet eens dichtbij. Maar nu heroverwegen mensen of de cloud voor veel situaties nog steeds de beste keuze is.
Ook: Cloud-native computing staat op het punt te exploderen dankzij het werk van AI-inferentie
Welkom in het tijdperk van AI, waarin lokaal computergebruik er weer goed uit begint te zien.
Er is beweging op komst
De huidige infrastructuur die is geconfigureerd met clouddiensten is mogelijk niet klaar om aan de eisen van AI te voldoen, waarschuwt een nieuwe analyse van Deloitte.
“Infrastructuur gebouwd voor een cloud-first-strategie kan de AI-economie niet aan”, aldus het rapport, geschreven door een team van Deloitte-analisten onder leiding van Nicholas Merizzi.
Ook: 5 onmisbare cloudtools voor kleine bedrijven in 2025 (en mijn top 10 geheimen om geld te besparen)
“Processen die zijn ontworpen voor menselijke werknemers werken niet voor agenten. Beveiligingsmodellen die zijn gebouwd voor perimeterverdediging bieden geen bescherming tegen bedreigingen die op machinesnelheid werken. IT-besturingsmodellen die zijn gebouwd voor dienstverlening zijn geen drijvende kracht achter bedrijfstransformatie.”
Om aan de AI-behoeften te voldoen overwegen bedrijven volgens analisten van Deloitte een verschuiving van cloudgebruik naar een hybride mix van cloud en on-premise. Technologiebeslissers beginnen bestaande on-premise opties te heroverwegen.
Ook: Wilt u echte AI ROI voor bedrijven? Dit zou in 2026 eindelijk kunnen gebeuren – en dit is waarom
Zoals het Deloitte-team uitlegt, is er sprake van een verschuiving “van cloud-first naar strategische hybride – cloud voor elasticiteit, on-premises voor consistentie en voorsprong voor directheid.”
Vier problemen
Deloitte-analisten noemden vier belangrijke problemen die zich voordoen bij cloudgebaseerde AI:
- Stijgende en onverwachte cloudkosten: Ze merkten op dat de kosten voor AI-tokens in twee jaar tijd 280 keer zijn gedaald – maar “sommige bedrijven zien maandelijkse facturen in de tientallen miljoenen lopen.” Overmatig gebruik van cloudgebaseerde AI-diensten “kan leiden tot frequente API-hits en hogere kosten.” Er is zelfs een omslagpunt waarop implementatie op locatie zinvoller is. “Dit kan gebeuren wanneer de cloudkosten 60% tot 70% van de totale kosten voor het aanschaffen van een gelijkwaardig systeem op locatie beginnen te overschrijden, waardoor de kapitaalinvestering aantrekkelijker wordt in vergelijking met de operationele kosten voor voorspelbare AI-workloads.”
- Latentieproblemen met de cloud: AI vereist vaak een latentie van bijna nul om acties uit te voeren. “Toepassingen die responstijden van 10 milliseconden of minder vereisen, kunnen de vertragingen die inherent zijn aan cloudgebaseerde verwerking niet tolereren”, aldus de auteurs van Deloitte.
- Lokaal belooft grotere veerkracht: Veerkracht maakt ook deel uit van de dringende vereisten voor een volledig functioneel AI-proces. Dit omvat “kritieke taken die niet kunnen worden onderbroken en waarvoor lokale infrastructuur nodig is als de verbinding met de cloud wordt verstoord”, aldus de analisten.
- Gegevenssoevereiniteit: Sommige bedrijven “besteden hun computerdiensten uit en willen niet volledig afhankelijk zijn van dienstverleners buiten hun lokale rechtsgebied.”
Ook: Waarom sommige bedrijven zich terugtrekken uit de publieke cloud
Drieledige aanpak
De beste oplossing voor het dilemma cloud versus on-premise is om beide te gebruiken, zegt het team van Deloitte. Zij bevelen een aanpak op drie niveaus aan, bestaande uit het volgende:
- Cloud voor elasticiteit: Om variabele trainingsbelastingen, burst-capaciteitsvereisten en experimenten aan te kunnen.
- Landinstelling voor consistentie: Voer productie-inferentie uit met voorspelbare kosten voor grote, continue workloads.
- Voordelen voor nabijheid: Dit betekent AI in edge-apparaten, applicaties of systemen die “tijdkritische beslissingen met minimale latentie afhandelen, vooral voor productie- en autonome systemen waar responstijden van een fractie van een seconde het operationele succes of falen bepalen.”
Deze hybride aanpak wordt voor veel bedrijven als de beste manier beschouwd. Milankumar Rana, die recentelijk als softwarearchitect bij FedEx Services heeft gewerkt, begrijpt de cloud voor AI volledig, maar ziet de noodzaak om beide benaderingen te ondersteunen wanneer dat nodig is.
“Ik heb een grootschalige machine learning- en analyse-infrastructuur gebouwd en ik heb gemerkt dat bijna alle functies, zoals datameren, gedistribueerde pijplijnen, streaming-analyses en AI-workloads op basis van GPU’s en TPU’s, nu in de cloud kunnen draaien”, vertelde hij aan ZDNET. “Omdat AWS-, Azure- en GCP-services zo volwassen zijn, kunnen bedrijven snel opschalen zonder dat ze vooraf veel geld hoeven uit te geven.”
Ook: Hoe AI-agenten verspilling in uw bedrijf kunnen elimineren – en waarom het slimmer is dan kosten besparen
Rana vertelt klanten ook “sommige workloads on-premises te houden waar datasoevereiniteit, regelgevingsoverwegingen of een zeer lage latentie de cloud minder bruikbaar maken”, zei hij. “De beste manier om vandaag de dag dingen te doen is door een hybride strategie te gebruiken, waarbij je gevoelige of latentiegevoelige applicaties on-premises houdt terwijl je de cloud gebruikt voor flexibiliteit en nieuwe ideeën.”
Of ze nu de cloud gebruiken of systemen op locatie, bedrijven moeten altijd de directe verantwoordelijkheid nemen voor beveiliging en monitoring, zegt Rana. “Beveiliging en compliance blijven de verantwoordelijkheid van alle individuen. Cloudplatforms omvatten sterke beveiliging, maar u moet er wel voor zorgen dat de regelgeving op het gebied van encryptie, toegang en monitoring wordt nageleefd.”



