Een van Het voordeel van zelfrijdende autotechnologie is dat elke auto kan leren van de fouten van één voertuig. Hier is hoe uitweg draag het de website: “Waymo-chauffeurs leren van de collectieve ervaring die is opgedaan in ons wagenpark, inclusief eerdere generaties hardware.”
Maar in Austin hadden Waymo-voertuigen maandenlang moeite om te leren hoe ze moesten stoppen in schoolbussen terwijl chauffeurs kinderen ophaalden en afzetten. Een ambtenaar bij het Austin Independent School District (AISD) vermoeden dat de voertuigen, in ten minste 19 gevallen, “illegaal en gevaarlijk” schoolbussen in de wijk passeerden toen hun rode lichten aan waren en hun stoplichten uitgingen in plaats van volledig tot stilstand te komen, zoals vereist door de wet.
Begin december publiceerde Waymo zelfs een federale terugroepactie met betrekking tot het incident, waarbij het in ieder geval werd erkend 12 van hen aan federale toezichthouders bij de National Highway Traffic Safety Administration (NHTSA), die toezicht houdt op de verkeersveiligheid. Volgens de federale indiening hadden ingenieurs van het zelfrijdende voertuigbedrijf enkele weken eerder “softwarewijzigingen ontwikkeld om het gedrag aan te pakken”.
Maar zelfs na de terugroepactie gingen de incidenten met schoolbussen door, volgens schoolambtenaren en een rapport van de National Transportation Safety Board (NTSB), een onafhankelijke federale veiligheidswaakhondorganisatie die ook de situatie onderzoekt.
Nu laten e-mails en sms-berichten tussen schoolambtenaren en Waymo-vertegenwoordigers, verkregen door WIRED via een verzoek om openbare registers, de omvang zien van de inspanningen van het openbare schooldistrict Austin en Waymo om te proberen het probleem op te lossen. Volgens de documenten organiseerde AISD half december zelfs een evenement van een halve dag voor het verzamelen van gegevens op de parkeerplaats van de school, waarbij verschillende medewerkers schoolbus- en stoparmsignalen uit het hele wagenpark verzamelden, zodat het zelfrijdende autobedrijf informatie kon verzamelen over de voertuigen en hun knipperlichten.
Half januari, meer dan een maand later, meldde het schooldistrict echter dat er in Austin ten minste vier oversteekincidenten met schoolbussen hadden plaatsgevonden. “Uit de gegevens die we vanaf het begin van het schooljaar tot het einde van het semester hebben verzameld, blijkt dat ongeveer 98 procent van de mensen die één overtreding hebben begaan, geen nieuwe overtreding heeft begaan”, zei een functionaris van de schoolpolitie. zei het lokale NBC-filiaal die maand. “Dat vertelt ons dat de persoon aan het leren is, maar blijkbaar leert het geautomatiseerde stuursysteem van Waymo niet via de software-updates. Onthoud wat je doet, want we ondervinden nog steeds overtredingen.”
Deze situatie roept vragen op over de tekortkomingen van zelfrijdende technologie en het vermogen van de industrie om dit te compenseren, zelfs nadat deze zijn ontdekt.
Zelfrijdende software heeft er lang moeite mee gehad dit te onderkennen knipperende noodverlichting en verkeersveiligheidsvoorzieningen met lange, dunne armen, inclusief hekken en stoparmen, zei Missy Cummings, die onderzoek doet naar autonome voertuigen aan de George Mason University en tijdens de regering-Biden als veiligheidsadviseur voor de NHTSA diende. “Als (het bedrijf) dit een paar jaar geleden niet had opgelost, hoe meer ze rijden, hoe groter het probleem zal zijn,” zei hij. “Dat is precies wat hier gebeurde.”
Waymo reageerde niet op het verzoek van WIRED om commentaar. Een woordvoerder van het Austin Independent School District verwees WIRED naar de NTSB terwijl het incident wordt onderzocht. Een NTSB-woordvoerder weigerde de vragen van WIRED te beantwoorden terwijl het onderzoek voortduurt.
Illegaal passeren
Halverwege de winter van 2025 waren AISD-functionarissen gefrustreerd. In een van de 19 incidenten die door de officier van justitie worden beweerd in een brief later vrijgegeven door federale verkeersveiligheidsautoriteiten, liet een Waymo-passage over een schoolbus kinderen vrij “slechts enkele ogenblikken nadat een student voor het voertuig was overgestoken, en terwijl de student zich nog op de rijbaan bevond.”
“Alarmerend”, schreven de advocaten, vonden vijf van de vermeende incidenten plaats nadat Waymo het district had verzekerd dat het zijn software had bijgewerkt om de problemen op te lossen. Federale toezichthouders bij de NHTSA hebben dit gedaan heeft een onderzoek ingesteld in gedrag. “Austin ISD evalueert alle mogelijke rechtsmiddelen en is van plan om, indien nodig, alle actie te ondernemen die nodig is om de veiligheid van zijn studenten te beschermen”, waarschuwde de advocaat.



