La promesse principale des voitures autonomes réside dans leur capacité d'apprentissage continu. Chaque incident a pour but de renforcer l'intelligence collective partagée au sein d'une flotte. Cependant, à Austin, cette promesse semble être mise à l'épreuve. Selon un article de Wired, Waymo peine à apprendre à s'arrêter lorsque des bus scolaires accueillent des enfants. Les véhicules dépassent régulièrement des bus à l'arrêt, mettant potentiellement en danger des élèves en raison d'un comportement illégal.
Une vingtaine d’accidents recensés
Le district scolaire d'Austin a identifié au moins 19 incidents similaires. Dans une situation critique, un robotaxi a manqué d'écraser un élève qui venait de traverser devant lui. Face à ces incidents, Waymo a tenté de calmer les craintes en lançant des mises à jour logicielles et en collaborant avec des autorités comme la NHTSA. Malgré ces efforts, la récurrence des collisions suggère un problème inhérent à leur technologie.
"Nous voulons améliorer la reconnaissance des feux clignotants de nos bus scolaires pour aider à la sécurité" précise un responsable du district.
Une enquête en cours
Afin de résoudre ces problèmes, Waymo a engagé des tests sur plusieurs modèles de bus. Cependant, une enquête récente du NTSB révèle une série de nouveaux incidents, dont un en janvier, où une instruction erronée a conduit à un dépassement dangereux de bus à l'arrêt. L'Austin ISD examine désormais les options légales disponibles pour protéger la sécurité de ses élèves.
Peu de temps après, un autre véhicule de Waymo a heurté un enfant à Santa Monica, bien que sans blessures graves. L'entreprise a déclaré que son véhicule était moins dangereux qu'un conducteur humain.
Les angles morts de l’intelligence artificielle
Les experts en sécurité routière estiment que les occasions d’apprentissage pour des systèmes comme ceux de Waymo sont trop limitées. L'incapacité à interpréter des signaux visuels tels que des feux de bus rencontre une résistance même après des mises à jour logicielles. Missy Cummings, chercheuse à l'université George Mason, explique que le problème réside dans la capacité de l'IA à apprendre des erreurs. Les choses peuvent devenir critiques si aucune amélioration n'est constatée.
Le dernier pour cent
La maîtrise des détails spécifiques comme les panneaux d'arrêt est cruciale. Les humains intègrent le contexte de manière intuitive, tandis que pour une machine, cela représente un challenge. "Waymo doit démontrer la fiabilité de son système avant de permettre à ses véhicules de circuler aux horaires sensibles proches des écoles," conclut Cummings. La situation à Austin est emblématique des défis que rencontrent les technologies de véhicules autonomes, où atteindre 99% de fiabilité est relativement accessible, mais le dernier pour cent nécessite une attention minutieuse qui pourrait préserver bien des vies.







