Après la « moral machine », la voiture autonome entre dans sa phase éthique.

29 septembre 2017

La voiture autonome est-elle réellement sans risques pour les humains ? Tandis que le géant chinois Baidu vient de créer un fonds d’1,5 milliard de dollars dédié à l’investissement dans les start-ups de l’IA, le volet éthique et sécuritaire de cette prochaine révolution a récemment fait quelques progrès. Cet été, le ministre du Transport allemand a publié un rapport donnant notamment aux constructeurs quelques premières règles morales sur la configuration optimale des logiciels d’intelligence artificielle pour la voiture.

Ce n’est ni plus ni moins qu’une première traduction législative de la désormais célèbre “Moral Machine” présentée en 2016 par le MIT Media Lab. Ce mini-programme en ligne qui vous met à la place d’un programmeur dont la mission est d’entrainer une voiture autonome à réagir dans le cas de scénarii imprévus.

Dans cet exercice de treize mises en situation, l’apprenti programmeur doit répondre à des dilemmes aux problématiques telles que : «la vie d’un animal est-elle moins précieuse que celle d’un humain ? Celle d’une femme par rapport à celle d’un homme ? ». A la fin, le test vous révèle les vies  “prioritaires”. La plupart des programmeurs choisissent logiquement les humains au dépend des animaux, et à plus forte raison les enfants. Le MIT a même créé la “préférence sociale” qui permet de sauver la vie d’un médecin, plutôt que celle d’un cambrioleur. Si la voiture autonome réplique ce schéma, elle ne fera néanmoins pas de distinction entre la vie de ses passages et ceux sur la route.

Si le risque zéro-accident n’existe pas, comme l’ont confirmé les chercheurs allemands, la voiture autonome peut quand même, selon eux, être en mesure d’éviter les pires situations.
 
 

La rédaction HOW

par L'ADN

Linkedin

A lire aussi

La communauté des leaders de l'innovation

Innovating in good company

Rejoignez-nous