Voitures autonomes : le délicat apprentissage de l'incompétence

Chargement en cours
Voitures autonomes : le délicat apprentissage de l'incompétence
Voitures autonomes : le délicat apprentissage de l'incompétence
1/3
© Motorlegend
A lire aussi

publié le 18 janvier

Robot sur roues, la voiture autonome exécute son programme qui consiste à respecter à la lettre le code de la route. Or bien des conducteurs humains prennent des libertés avec les règles édictées ! Comment faire pour que ce décalage n'entraîne pas de nouveaux types d'accidents ? C'est l'un des (nombreux) défis que va devoir relever l'intelligence artificielle.

Un cycliste en état d'ivresse perd l'équilibre et chute sur le capot d'une voiture. Un conducteur utilise la file « tourne à gauche » pour dépasser de façon illicite une colonne de véhicules, et arrache le bouclier avant d'une auto en se rabattant. Un automobiliste pianote sur son téléphone portable en conduisant et percute par l'arrière une voiture arrêtée au feu rouge. Ces trois mésaventures, finalement assez banales pour tout automobiliste habitué au chaos des grandes villes, trois voitures autonomes on dû y faire face. Et c'est un vrai casse-tête pour leurs concepteurs !

En Californie, l'un des berceaux de la voiture autonome, le régulateur impose de déclarer à l'administration tout accident impliquant un véhicule robotisé, quelque soit sa gravité. Les trois cas de figure ci-dessus font partie des 13 accidents subis par les voitures autonomes de chez Cruise (filiale de General Motors) depuis le début de l'année. Google n'est pas épargné : les autos de sa branche Waymo en ont eu 3 sur la même période. Deux points communs à tous ces accrochages : la voiture autonome n'est jamais responsable... et (heureusement) les dégâts se limitent à un peu de tôle froissée. Par ailleurs, dans bien des cas, c'est l'opérateur en charge de surveiller le fonctionnement du véhicule – obligation légale pour des prototypes autonomes circulant sur la voie publique – qui a repris la main.

Avec l'expérience, nous autres humains savons généralement anticiper ce genre de situation scabreuse. Le cycliste à l'équilibre incertain et à la trajectoire sinusoïdale attire notre attention bien avant que nous arrivions à sa hauteur. Le chauffard qui remonte toute une file de véhicules pour resquiller et faire une queue de poisson se repère souvent d'un simple regard. Idem pour l'automobiliste accro à son téléphone portable, qui circule souvent à une vitesse anormalement lente, omettant clignotants et contrôles élémentaires. Cette expérience, nous l'avons acquise sur le tas, au fil des milliers de kilomètres et des années de conduite. Mais comment l'enseigner à une voiture autonome ?

Celle-ci restera en effet minoritaire sur nos routes pour de longues années (en Allemagne, jusqu'en... 2037 selon certains experts !). Et même lorsqu'il y aura plus de voitures autonomes que d'autos normales, le problème de la cohabitation continuera de se poser du fait du vieillissement du parc. L'auto robotisée devra-t-elle apprendre à moins bien conduire ? Faudra-t-elle par exemple qu'elle se résolve à « glisser » un stop pour éviter de se faire percuter par l'arrière ? À franchir un feu orange « bien mûr » pour la même raison ? À légèrement excéder la limitation de vitesse afin de mieux se fondre dans le flux de la circulation ?

Autant de questions qui soulèvent des enjeux autant juridiques que technologiques. Ces accidents montrent en tous cas que l'intelligence artificielle doit encore progresser, que l'interprétation qu'elle fait des informations transmises par les radars, lidars et autres caméras doit encore s'affiner. L'ordinateur devra apprendre à composer avec la bêtise et l'incompétence des humains. Vaste programme !

Vos réactions doivent respecter nos CGU.