Op 23 januari, buiten een basisschool in Santa Monica, Californië, Waymo-voertuig raakt een kind.
Dat is wat wij zeker weten.
Het klinkt verrassend, zelfs angstaanjagend. En dit heeft veel groepen dekking geboden om Californië aan te klagen Waymo’s licentie intrekken om de auto te bedienen.
Maar de details zijn belangrijk. En als je eenmaal dieper gaat graven, zijn de enge krantenkoppen over een kind dat wordt overreden door een harteloze robot duidelijk niet het hele verhaal.
In feite bieden dit soort ongelukken mogelijkheden om de rijvaardigheid van mens en robot te verbeteren – en zelfs levens te redden.
Hard remmen
Details over het incident in Santa Monica zijn nog onbekend. Zoals het geval is bij potentiële veiligheidsincidenten waarbij zelfrijdende auto’s betrokken zijn, De National Highway Transportation Safety Administration doet actief onderzoek.
Dat onderzoek – en ook vrijwillige verklaring van Waymo—Heeft al heel wat nuances onthuld.
Het lijkt erop dat het incident plaatsvond tijdens het afleveren van een SoCal-school. Een Waymo-voertuig leek tussen voertuigen te rijden die werden bestuurd door ouders die hun kinderen afzetten.
Zoals vaak gebeurt als ik niet naar school ga (ik heb drie kinderen, dus geloof me, ik weet het!), stond er een grote SUV dubbel geparkeerd en blokkeerde een deel van de snelweg.
Toen Waymo de dubbel geparkeerde SUV naderde, rende een kind achter de SUV vandaan de weg op, vlak voor Waymo.
Het volgende deel is erg belangrijk. Waymo zei dat het voertuig “… hard remde, waardoor de snelheid daalde van ongeveer 27 km/uur naar minder dan 10 km/uur voordat er contact plaatsvond.”
Waymo specificeert niet de exacte afstand die moet worden afgelegd. Maar de snelheidsdaling van 18 km/u in een fractie van een seconde geeft aan dat er is geremd, en niet dat er sprake is van een geleidelijke vertraging. Dit is een agressieve zet. En het kan levens redden.
Waymo zei dat – omdat het voertuig slechts 10 km/uur reed toen het contact maakte met het kind – “de voetganger onmiddellijk opstond” en zelf “het trottoir opliep”.
Waymo belde 911 en meldde het incident bij de autoriteiten. Het bedrijf zei aanvankelijk dat het kind ‘lichte verwondingen’ had opgelopen, maar het was onduidelijk welke verwondingen er daadwerkelijk waren opgetreden.
Het probleem met de mens
Voor alle duidelijkheid: elke keer dat een kind door een auto wordt aangereden, is dit een gruwelijke gebeurtenis. Het zou een goed idee zijn als de NHTSA dit zou onderzoeken. Als ouder heb ik medelijden met de betrokken ouders; het moet heel beangstigend zijn om je kind te zien aangereden door een voertuig.
Maar voordat we bredere conclusies trekken over de veiligheid van zelfrijdende auto’s, is het belangrijk om na te denken over de vraag: “Had een menselijke bestuurder deze situatie beter kunnen aanpakken?”
SafeKids, een belangenorganisatie, meldde dit tussen 2013 en 2022 bijna 200 schoolgaande kinderen kwamen om bij ongelukken in schoolzones.
En dat zijn alleen nog maar de kinderen. Slechts enkele dagen voor het Waymo-incident, twee ouderen kwamen om tijdens de oversteek nadat ze hun kind hadden afgezet bij een andere school in Californië.
Waarom sterven zoveel mensen op weg naar school? Snelheid en afleiding zijn de twee grootste factoren.
Dat meldde SafeKids Maar liefst 10% van de automobilisten wordt afgeleid tijdens het rijden in schoolzones, meestal met behulp van telefoons en andere apparaten.
3% van de door de groep geobserveerde bestuurders was zelfs zichtbaar gebruik twee apparaten tegelijk– misschien aan het rommelen met een Bluetooth-headset terwijl ze proberen hun kind via de telefoon naar school te krijgen.
En de meeste schoolzones, zo meldt de groep, hebben snelheidslimieten die te hoog zijn – idealiter minder dan 30 km/u, maar de meeste zijn 25 km/u+
Dat wil niet zeggen dat automobilisten dit voorbeeld volgen; andere gegevens suggereren dat Toen automobilisten kinderen in schoolzones aanreden, reden ze met een gemiddelde snelheid van 44 kilometer per uur.
Met andere woorden: menselijke chauffeurs maken veel fouten. Vooral met de stress van het verkeer en de druk om de gevreesde ‘passeervertragingen’ te vermijden, is het voor ouders gemakkelijk om te hard te rijden en hun blik van de weg af te wenden op weg naar beneden.
Als er kinderen bij betrokken zijn – met hun neiging om de weg op te schieten, zoals in Santa Monica gebeurde – zorgt de combinatie van snelheid en afleiding er helaas voor dat veel mensen sterven.
Erger met iemand?
Dit roept opnieuw de vraag op, in de context van het Waymo-incident, of iemand het beter zou doen dan iemand anders. AIaangedreven robot.
Laten we even aannemen dat er een mens achter het stuur van een voertuig zit in Santa Monica. Wat had er anders kunnen gebeuren?
De gemiddelde menselijke reactietijd tijdens het autorijden is ongeveer ¾ seconde. Toen het kind de weg opreed, betekende dit dat hun auto – die met een snelheid van 28 km/u reed – ongeveer 6 meter zou hebben gereden voordat de bestuurder de voetganger opmerkte.
Misschien trappen ze meteen op de rem. Maar NHTSA zelf zegt dat ook de meeste mensen niet. Of het nu gaat om een verrassing of simpelweg om een vertraging in de verwerking: chauffeurs remmen voortdurend, zelfs bij potentieel dodelijke ongelukken.
Als iemand de auto zou besturen, is de kans groot dat een kind in Santa Monica met een veel hogere snelheid wordt aangereden.
Waymo zegt dat uit onafhankelijke modellen blijkt dat “een oplettende menselijke bestuurder in dezelfde situatie contact zou maken met een voetganger met een snelheid van ongeveer 22 km/uur.”
Bovendien zijn de meeste chauffeurs in schoolzones niet ‘oplettend’. Zoals SafeKids opmerkt, zijn ze afgeleid, haasten ze zich en rijden ze te hard.
Waymos is op geen enkele manier perfect. Maar dat zijn ze wel volg consequent de snelheidslimieten, wat soms tot fouten leidt.
En omdat ze voortdurend de weg scannen, reageren ze sneller dan mensen en trappen ze hard op de rem als ze iets zien zelfs een beetje zorgelijk. Ze controleren nooit hun telefoons of probeer te scheren terwijl hij passagiers rondleidt.
Wanneer 5.000 robots een kind voor de gek houden, bestaat er een natuurlijke menselijke neiging om de robots kwaad te spreken. Maar in dit specifieke geval blijft de vraag of het beter zou kunnen, onduidelijk.
Optimaliseren voor beveiliging
Dat betekent niet dat we autonome voertuigen moeten opofferen, en ook niet dat we ze ermee weg moeten laten komen.
Het onderzoek van de NHTSA zal waarschijnlijk niet leiden tot de vraag of Waymo bij dit incident beter presteerde dan mensen, maar eerder of zelfrijdende auto’s meer hadden kunnen doen om kinderen veilig te houden in de buurt van scholen.
NHTSA zei inderdaad dat het specifiek onderzocht “of de Waymo AV passende voorzorgsmaatregelen heeft genomen, onder meer gezien de nabijheid van een basisschool tijdens de drop-off uren, en de aanwezigheid van jonge voetgangers en andere kwetsbare weggebruikers.”
Gegeven het feit dat Waymos kan worden geprogrammeerd om zich onder bepaalde omstandigheden op een bepaalde manier te gedragen – en dit consequent zal doen zodra de parameters zijn ingesteld – bieden ze een unieke kans om hogere veiligheidsnormen te stellen dan we voor mensen hanteren.
Nogmaals, SafeKids zegt dat de meeste schoolzones snelheidslimieten hebben boven de ideale snelheidslimiet van 32 km/uur. Er is echter geen reden waarom Waymo zijn auto’s niet zou kunnen programmeren om consequent met lagere snelheden te rijden in schoolzones tijdens de ophaal- of inlevertijden.
Misschien kan Waymos altijd 24 km/uur rijden als hij een actieve schoolzone oversteekt.
Dit kan vervelend zijn voor ouders om langs de ophaallijn te navigeren, maar het houdt kinderen veiliger als er een ongeluk gebeurt. Waymos nabij scholen kan zelfs als overstapstation dienen “verkeersremmend” apparaat, waardoor de afgeleide en ongeduldige menselijke bestuurder achter hen ook langzamer moet gaan rijden!
Op dezelfde manier kan Waymo parameters instellen die zijn voertuigen vertellen langzaam te gaan rijden wanneer ze dubbel geparkeerde auto’s in de buurt van scholen naderen. SafeKids noemt dubbel parkeren specifiek als grote risicofactor voor ongevallen nabij scholen.
Gelukkig – hetzij door slim rijgedrag van Waymo (volgens het bedrijf) of door dom geluk – eindigde dit incident toen een kind levend wegliep. Maar dat is geen reden om te negeren wat er is gebeurd.
In plaats daarvan bieden incidenten als deze een unieke kans om de regels van de samenleving te bepalen in moeilijke situaties, zoals het rijden in de buurt van kinderen – en deze vervolgens te programmeren in machines die (in tegenstelling tot mensen) deze daadwerkelijk zullen volgen.
Het stellen van de lastige vragen die nodig zijn om die richtlijnen vast te stellen – en het omarmen van de realiteit dat enge incidenten ook leerervaringen zijn – is veel moeilijker dan simpelweg de schuld geven aan robots en terugkeren naar de door mensen aangedreven status quo.
Maar omdat er elk jaar zoveel kinderen sterven in schoolgebieden, is het van cruciaal belang om de juiste lessen te trekken uit dit soort ongelukken – en zelfs levens te redden.



