Un algorithme éthique pour ne pas donner un permis de tuer aux voitures autonomes
La voiture autonome devrait faire baisser le nombre d’accidents de la circulation et donc de tués sur les routes. Mais que feront-elles lorsqu’un choc sera inévitable? Sacrifier un passant pour sauver les passagers? Percuter une personne âgée pour sauver un enfant ou une femme enceinte?
Ces questions sont au cœur des réflexions chez les constructeurs, les États et des scientifiques. Aux États-Unis, un groupe de 50 scientifiques pilotés par Nicholas Evans, professeur de philosophie de l’Université Lowell du Massachusetts, travaille à la création d'un algorithme éthique pour éviter de donner aux véhicule sans chauffeur un permis de blesser ou de tuer. "Les gens n’achèteront pas de véhicules autonomes s'ils pensent que d’une certaine manière, ils sont d'une certaine manière programmés pour tuer", a indiqué Nicholas Evans au site Quartz.
Traduire des théories éthiques en code informatique
Le philosophe s'est entouré d’intellectuels, d'ingénieurs en génie civil et d’experts en modélisation de la santé publique. Par contre, aucune entreprise impliquée dans cette industrie, qu'il s'agisse des constructeurs auto ou d'entreprises technologique comme Apple, Google ou Uber, n'en font partie pour ne pas tenir compte des enjeux commerciaux. Une subvention de 556.650 dollars de la National Science Foundation, un organisme de recherche gouvernemental, financera les travaux.
Le travail consiste à traduire des théories éthiques en code informatique. Il va démarrer en alimentant une intelligence artificielle de toutes les situations possibles afin de comprendre "comment réfléchit un ordinateur" et comparer son comportement à celui d'un humain. "À l’approche d’un bus scolaire, une voiture autonome pourrait rejeter les options qui pourraient nuire aux passager, puis trier les options restantes pour trouver celle qui causera le moins de dommages au bus scolaire et à ses occupants, mais en réalité la plupart des gens accepteraient une blessure mineure pour éviter des blessures graves à 20 ou 30 écoliers. C’est un point de départ pour savoir à quel point un risque est acceptable et dans quelles circonstances", explique Nicholas Evans.
Percuter un animal, plutôt qu'un humain
La question est encore plus complexe, car l’algorithme devra aussi tenir compte de paramètres comme définir la responsabilité en cas d'accident, estimer la gravité des blessures acceptables, évaluer le nombre de véhicules autonomes nécessaires pour arriver à réduire les risques de manière significative. À cela s’ajoute les enjeux liés à la cybersécurité depuis le piratage des réseaux, des données GPS, des caméras de bord ou de techniques moins évoluées. "Une personne muni d’un simple laser pourrait perturber le système pour tromper la voiture qui, pour éviter un choc, ira d’elle-même dans le décor", imagine Nicholas Evans. Autant dire qu’il faudra du temps pour créer une intelligence artificielle parfaite.