Comment faire la morale aux robots?

Robot IA
Martin Gibert a pris le parti de proposer une méthode pour traduire en algorithmes l’éthique des vertus. Cette méthode s‘appuie sur l’apprentissage supervisé, consistant à apporter des exemples pour nourrir l’algorithme qui apprend peu à peu.
©DR
Le 15 février 2021

Les véhicules autonomes, assistants virtuels et autres systèmes d’intelligence artificielle sont conçus pour prendre eux-mêmes des décisions. Alors qu’ils sont appelés à occuper une place grandissante dans nos vies, nous devons nous demander en fonction de quels principes moraux nous voulons les programmer, ce qui soulève des questions inédites.

 

Qu’est-ce qu’un agent moral artificiel ? Existe-t-il de bons et de mauvais robots ? Et s’il est vrai que les machines reflètent les valeurs de ceux qui les conçoivent, comment éviter de reproduire certains biais et préjugés ?

 

Ces questions sont au cœur de l'ouvrage Faire la morale aux robots : une introduction à l’éthique des algorithmes de Martin Gibert, philosophe spécialisé en psychologie morale et chercheur en éthique de l'intelligence artificielle à l'Université de Montréal. Il a donné quelques clefs pour réfléchir à la manière de programmer les robots à l'occasion d'une conférence organisée par l’AlgoraLab et lObservatoire international sur les impacts sociétaux de lintelligence artificielle et du numérique.

L’éthique des algorithmes, intervenant sur un champ plus restreint que l’éthique de l’intelligence artificielle, s’intéresse aux bonnes manières de programmer des agents moraux artificiels: voitures autonomes, chatbots, robots sexuels ou militaires. Ces agents moraux artificiels constituent des objets nouveaux et « étranges » car à la différence des agents moraux humains, ils ne sont pas responsables de leurs actions, n’ont ni conscience ni sensibilité. Mais contrairement à d’autres objets du quotidien, ils sont autonomes. Tout l’enjeu consiste alors à programmer ces robots.

Pour Martin Gibert, le rapport des programmeurs aux agents moraux artificiels s’assimile à celui des enseignants avec leurs élèves.

La spécificité de cette éthique des algorithmes consiste à traduire en code des principaux moraux ambigus. Si l’on peut ajouter une part de hasard, il faut trouver un principe de décision non ambigu. Les ingénieurs demandent des réponses, y compris là où l’on préférerait ne pas en donner. Par exemple face à des dilemmes tragiques se résumant, pour une voiture autonome, à choisir entre sauver un vieillard ou un enfant. L’avantage c’est que l’on peut donner une réponse temporaire puisque l’algorithme peut se mettre à jour facilement.

Pour programmer des robots on doit sappuyer sur des normes ce qui mène à se poser la question des valeurs que l’on souhaite leur transmettre. Choisit-on d’imiter la société dans laquelle on se trouve ou essaie-t-on de donner à ces robots de meilleures normes morales ?

La plus grande expérience menée en psychologie morale à travers le monde, par le MIT (Massachusetts Institute of Technology), appelée « moral machine experiment »  a interrogé des individus pour leur demander comment une voiture autonome devait réagir face à un dilemme. Sans surprise, les réponses différent selon les personnes et les régions géographiques. Les chercheurs ont ainsi identifié trois grandes régions: le Sud (dans lequel on retrouve la France), l’Est et l’Ouest. Mais la question n’est pas tant de lister les normes en vigueur dans chaque société pour les répliquer mais de connaitre les bonnes manières de programmer, par exemple, une voiture autonome face à un dilemme.

Pour répondre à cette question il convient de s’intéresser aux arguments consistant à privilégier un choix au détriment d’un autre: l’enfant ou la personne âgée dans le cas de la voiture autonome. Le déontologisme, l’utilitarisme et l’éthique des vertus apportent des réponses différentes.

Le déontologisme d’Emmanuel Kant privilégie le respect des personnes. Dans cette optique aucun argument ne permet de privilégier un individu par rapport à l’autre. Tous les deux ont des droits identiques. Martin Gibert suggère dans son livre de procéder par tirage au sort.

La logique utilitariste ou conséquentialiste prédomine lorsque l’on examine les résultats des sondages de psychologie morale. Les personnes interrogées pensent en majorité qu’il faut préserver la vie de l’enfant, plus longue, toutes variables identiques par ailleurs.

La troisième théorie morale, l’éthique des vertus, provenant d’Aristote, peut apporter une autre lecture de cette situation. Une action est bonne si et seulement si elle correspond à ce que ferait une personne vertueuse dans des circonstances analogues.

Martin Gibert a pris le parti dans son ouvrage de proposer une méthode pour traduire en algorithmes l’éthique des vertus. Cette méthode sappuie sur lapprentissage supervisé, consistant à apporter des exemples pour nourrir l’algorithme qui apprend peu à peu. Pour obtenir des robots vertueux il faudrait procéder en trois étapes. Tout d’abord identifier les personnes vertueuses, celles qui serviront dexemple. Cela suppose d’admettre que certaines personnes sont plus vertueuses que d’autres, que l’on est capable de les reconnaitre. Ensuite il faudrait identifier les comportements vertueux de ces personnes, notamment leur demander ce qu’elles feraient dans le cas de la voiture autonome. La dernière étape consisterait à transposer les informations recueillies en algorithmes. En dehors des situations exceptionnelles de consensus entre toutes les personnes vertueuses, il conviendrait de réaliser un tirage au sort. La décision refléterait ce que pensent les personnes vertueuses avec un élément de hasard.

«Faire la morale aux robots: une introduction à l’éthique des algorithmes»

La question posée par l'éthique des algorithmes, c'est donc celle de savoir quelles règles implanter dans les robots, et comment le faire.

Pour l’auteur l’approche vertueuse, qu’il assimile à une théorie de la décision correcte, revêt plusieurs avantages. Compatible avec les autres, plus souple, elle permet de ne pas figer la moralité. Selon lui, entre un robot cherchant à maximiser le bien-être global, à respecter des règles universelles ou à se comporter comme une bonne personne, le dernier inspire davantage confiance et sera donc mieux accepté socialement.

L'OBVIA, un réseau de recherche ouvert

L’Observatoire international sur les impacts sociétaux de l’IA et du numérique (OBVIA) est un réseau de recherche ouvert qui fédère les expertises de plus de 220 chercheur·e·s en sciences humaines et sociales, en sciences et génie, et en santé. C’est un espace ouvert de discussion et de réflexion pour l’ensemble des parties prenantes au développement et à l’utilisation de l’IA et du numérique.

Notre mission, en se fondant sur une interrogation critique des innovations technologiques, est de soulever des enjeux cruciaux et d’identifier des solutions plausibles aux problèmes et opportunités posés par les développements de l’IA et du numérique au Québec et ailleurs dans le monde.

Nous voulons contribuer à définir le bien commun qui devrait être poursuivi par ces innovations en produisant des connaissances ou en menant des projets de recherche-création sur leurs retombées sociales et en interpellant les institutions démocratiques. Nos travaux s’inscrivent dans une perspective d’innovation responsable.

×

A lire aussi