Home Nieuws Twintig seconden om een ​​militaire aanval goed te keuren; 1,2 seconden om...

Twintig seconden om een ​​militaire aanval goed te keuren; 1,2 seconden om een ​​zorgverzekeringsclaim te weigeren. De mens bevindt zich in de AI-cirkel. De mensheid niet

2
0
Twintig seconden om een ​​militaire aanval goed te keuren; 1,2 seconden om een ​​zorgverzekeringsclaim te weigeren. De mens bevindt zich in de AI-cirkel. De mensheid niet

In de eerste vierentwintig uur van de oorlog met Iran hebben de Verenigde Staten duizenden doelen getroffen. Tegen het einde van de week bedroeg het totale aantal vluchtelingen meer dan drieduizend mensen – twee keer zoveel als tijdens de ‘shock and awe’-fase van de invasie van Irak in 2003. volgens Pete Hegseth. Dit ongekende aantal stakingen werd mogelijk gemaakt door kunstmatige intelligentie. Het Amerikaanse Centrale Commando (CENTCOM) heeft dit bevestigd dat mensen zich altijd bewust zijn van elke targetingbeslissing, en dat AI er is om hen te helpen ‘slimmere, snellere beslissingen’ te nemen. Maar welke rol mensen kunnen spelen als systemen met deze snelheden werken, blijft onduidelijk.

Het Israëlische gebruik van AI-gestuurde targeting in zijn oorlog tegen Hamas kan enig inzicht verschaffen. Dat blijkt uit onderzoek van vorig jaar dat het Israëlische leger een AI-systeem genaamd Lavender heeft ingezet om vermoedelijke militanten in Gaza te identificeren. De officiële regel is dat bij alle targetingbeslissingen een menselijk oordeel betrokken is. Maar volgens een Lavender-operator beperkten ze, toen de betrokken mensen het systeem begonnen te vertrouwen, hun controles tot het garanderen dat de doelwitten mannen waren. “Ik zal 20 seconden op elk doel investeren”, zei de telefoniste. “Ik heb als mens geen toegevoegde waarde, behalve een stempel van goedkeuring. Dit scheelt veel tijd.”

Hetzelfde patroon heeft zich ook in de zakenwereld voorgedaan. In 2023, ProPublica onthuld dat Cigna, een van Amerika’s grootste zorgverzekeraars, een algoritme heeft geïmplementeerd om afgewezen claims te markeren. De artsen, die wettelijk verplicht zijn om klinische beoordelingen uit te voeren, ondertekenden de beslissingen van het algoritme in fasen en besteedden gemiddeld 1,2 seconden aan elke zaak. Eén arts heeft in één maand ruim 60.000 claims afgewezen. “Het klikte letterlijk en het leverde resultaat op”, zegt een voormalig Cigna-arts. “Het duurt 10 seconden om 50 tegelijk te doen.”

Twintig seconden om in te stemmen met een staking; 1,2 seconden om een ​​claim af te wijzen. De mens bevindt zich in een cirkel. De mensheid niet.

{“blockType”:mv-promo-block”,”data”:{“imageDesktopUrl”:https://images.fastcompany.com/image/upload/f_webp,q_auto,c_fit/wp-cms-2/2025/10/creator-faisalhoq ue.png”,”imageMobileUrl”https://images.fastcompany.com/image/upload/f_webp,q_auto,c_fit/wp-cms-2/2025/10/faisal-hoque.png”,”eyebrow””,”headline”Klaar om te gedijen op het kruispunt van zaken, technologie en menselijkheid?”dek”Books, podcast en het bedrijf van Faisal Hoque bieden leiders een raamwerk en platform voor het op één lijn brengen van doelen, mensen, processen en technologie, waardoor disruptie wordt omgezet in betekenisvolle, duurzame vooruitgang.”,”subhed”:”, “description”:, “ctaText”:Meer informatie, “ctaUrl”://faisalhoque.com, “theme”:{“bg”:{“bg”:#02263c”, “text”:#ffffff”, “eyebrow”:#9aa2aa”, “subhed”:#ffffff”, “buttonBg”:#ffffff”, “b uttonHoverBg”:#3b3f46″, “buttonText”:#000000″},”imageDesktopId”:91420512,”imageMobileId”:91420514,”shareable”:false,”slug””,”wpCssClasses””}}

Moeilijkheidsgraad door ontwerp

Romanschrijver Milan Kundera schreef over hoe zwaar de last moet zijn als we worden geconfronteerd met de aanhoudende ernst van onze daden. Hoewel lichtheid aantrekkelijk lijkt in het licht van deze enorme last, is het uiteindelijk ondraaglijk. Als we ons loskoppelen van het gewicht van onze beslissingen, verliezen ze hun inhoud en betekenis.

Sommige dingen zijn zo belangrijk dat we het gewicht ervan moeten voelen. Hij zou moeten de tijd nemen om te beslissen iemand te vermoorden of een zorgclaim af te wijzen. Hij zou moeten het wordt moeilijk om te weten welke gebouwen je moet bombarderen. AI maakt deze beslissingen sneller en gemakkelijker, maar sommige beslissingen zouden moeilijk moeten zijn. En als AI die last verlicht, als AI de last wegneemt van het nemen van beslissingen over wie leeft en wie sterft, is dat geen vooruitgang. Dit is morele degradatie.

AI belooft de last van moeilijke en cognitief veeleisende banen te verlichten – het maakt het werk lichter. Op veel gebieden betekent dit echte vooruitgang. Er zijn echter enkele dingen die zo belangrijk zijn dat we het gewicht ervan moeten voelen. Hij zou moeten de tijd nemen om te beslissen iemand te vermoorden of een zorgclaim af te wijzen. Hij zou moeten het wordt moeilijk om te weten welke gebouwen je moet bombarderen. Bij dergelijke beslissingen heeft de moeilijkheidsgraad een functie: het is een feature, geen bug. Het is een mechanisme dat instellingen dwingt de balans op te maken van wat ze doen. En als AI die last wegneemt, wordt de instelling niet efficiënter. Het wordt gevoelloos.

Als mensen die betrokken zijn bij elke beslissing maar een paar seconden besteden, wordt de vraag of het systeem autonoom is of onder toezicht staat grotendeels semantisch. We moeten aandringen mensheid ook in een cirkel. In dit soort gevallen moeten mensen worden toegelaten worden mensen, zelfs als dat betekent dat ze langzamer, minder nauwkeurig en minder efficiënt zijn. Dat zijn de kosten van iets dat echt noodzakelijk is: we hebben mensen nodig om het gewicht te voelen van de beslissingen die ze nemen, omdat tegenslag wrijving veroorzaakt waardoor mensen aarzelen, vragen stellen en zich verzetten.

Institutionele cultuur

Wanneer moeilijke beslissingen gemakkelijk worden, veranderen de instellingen zelf. Mensen stoppen met vragen omdat er niets is dat de moeite waard is om te vragen. Het systeem heeft al een besluit genomen en het is de menselijke rol om dit te bevestigen. Het verschil van mening wordt verminderd omdat afwijkende meningen wrijving vereisen, en wrijving wordt gecreëerd. Verantwoording wordt onderschat omdat iedereen weet dat de computer degene is die de beslissingen neemt.

Cigna-artsen die maandelijks 60.000 claims afwijzen, zijn geen wrede mensen. Ze zijn in een systeem geplaatst waarin het weigeren van een claim niet meer moeite kost dan een klik op de knop. Dit systeem doet iets gevaarlijkers dan hun beoordelingsvermogen aantasten – het hoeft dus niet te gebeuren. Daarom is de zaak Cigna niet het verhaal van slechts één slechte acteur. Dit is eerder het verhaal van wat er gebeurt met elke instelling die systematisch haar moeilijkste beslissingen ontwerpt.

De kosten van het uithollen van de verantwoordelijkheid

Lege verantwoordelijkheid resulteert in verliezen op drie plaatsen in de zakenwereld.

Ten eerste: verantwoordelijkheid. Een algoritme kan niet worden aangeklaagd, ontslagen of aansprakelijk worden gesteld voor zijn fouten. De organisatie die het verspreidt kan dat wel. Het toezicht op postzegels is geen juridisch grijs gebied; het is een verantwoordelijkheid die wacht op de mobilisatie van advocaten.

Ten tweede: institutionele kwetsbaarheid. Wanneer mensen stoppen met het daadwerkelijk nemen van beslissingen, leren ze ook niet meer van die beslissingen. Wanneer machines altijd iets goed lijken te doen, heeft niemand het oordeel ontwikkeld dat nodig is om te bepalen wanneer de machine daadwerkelijk ongelijk heeft. Organisaties die ervoor zorgen dat mensen buiten de besluitvormingslus blijven, worden afhankelijk van systemen die ze niet langer volledig begrijpen. En dit leidt tot kwetsbaarheid in tijden die om veerkracht vragen.

Ten derde: vertrouwen. Klanten, medewerkers en toezichthouders willen wellicht weten of AI een besluit heeft genomen. Maar ze willen absoluut weten of iemand hier echt verantwoordelijk voor is. Het antwoord is in veel organisaties nee, en dat antwoord heeft grote gevolgen voor de relatie van de organisatie met de verantwoordelijken.

Zware proef

Voordat leiders AI gebruiken om het besluitvormingsproces te vereenvoudigen, moeten ze vier vragen stellen:

1. Welk institutioneel gedrag is het resultaat van de hedendaagse besluitvormingsproblemen – bijvoorbeeld toezicht, escalatie, afwijkende meningen – en wat zijn de gevolgen van het elimineren ervan?

2. Als er iets misgaat, kunnen we dan iemand identificeren die moeite had met de beslissing, of gewoon iemand die op OK klikte?

3. Hoe weten we of mensen in dit proces rubberen stempels zijn geworden? Wat meten we en meten we dat?

4. Als de gemeenschappen die door deze beslissingen worden getroffen precies wisten hoe de beslissingen werden genomen en hoeveel tijd werd besteed door degenen die de beslissingen namen, zou de instantie zich dan op haar gemak voelen om het proces publiekelijk te verdedigen?

Deze vragen verschijnen niet op de implementatiechecklist van een AI-leverancier. Daarom is het belangrijk.

Conclusie

Er wordt ons verteld dat AI ons bevrijdt – van saai werk, van langzame processen, van de last van moeilijke beslissingen. En vaak gebeurt dat. Niet elke last is echter een probleem dat moet worden opgelost. Soms is het de last die de kern van het probleem vormt. De last die een commandant moet voelen voordat hij een aanval goedkeurt, de moeite die een arts doet voordat hij een behandeling weigert – dit zijn geen inefficiënties die geoptimaliseerd moeten worden. Dit is een mechanisme dat instellingen eerlijk houdt over de macht die zij uitoefenen.

Organisaties die deze lastenvermindering realiseren, zullen uiteraard sneller en lichter zijn. Een tijdje leek het erop dat ze aan het winnen waren. Maar deze organisaties zullen zich ook te laat realiseren dat ontberingen het gevolg zijn van het feit dat zij degene zijn die de touwtjes in handen heeft – en dat wanneer een organisatie stopt met betalen, zij geen zaken heeft om de beslissingen te nemen.

{“blockType”:mv-promo-block”,”data”:{“imageDesktopUrl”:https://images.fastcompany.com/image/upload/f_webp,q_auto,c_fit/wp-cms-2/2025/10/creator-faisalhoq ue.png”,”imageMobileUrl”https://images.fastcompany.com/image/upload/f_webp,q_auto,c_fit/wp-cms-2/2025/10/faisal-hoque.png”,”eyebrow””,”headline”Klaar om te gedijen op het kruispunt van zaken, technologie en menselijkheid?”dek”Books, podcast en het bedrijf van Faisal Hoque bieden leiders een raamwerk en platform voor het op één lijn brengen van doelen, mensen, processen en technologie, waardoor disruptie wordt omgezet in betekenisvolle, duurzame vooruitgang.”,”subhed”:”, “description”:, “ctaText”:Meer informatie, “ctaUrl”://faisalhoque.com, “theme”:{“bg”:{“bg”:#02263c”, “text”:#ffffff”, “eyebrow”:#9aa2aa”, “subhed”:#ffffff”, “buttonBg”:#ffffff”, “b uttonHoverBg”:#3b3f46″, “buttonText”:#000000″},”imageDesktopId”:91420512,”imageMobileId”:91420514,”shareable”:false,”slug””,”wpCssClasses””}}

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in