Éthique et intelligence artificielle : les lignes directrices de la Commission européenne

Intelligence artificielle
Le 12 avril 2019

Les progrès de l’intelligence artificielle (IA), mais aussi de la robotique et des technologies « autonomes » soulèvent de multiples questions morales. Les efforts entrepris pour trouver des réponses aux défis éthiques et sociétaux ont mis en évidence l’intérêt d’un processus de réflexion et de dialogue collectif centré sur les valeurs de la société et le rôle que les technologies doivent jouer. La Commission européenne propose 7 principes à suivre en matière d'éthique dans l'IA, en complément de sa stratégie européenne sur l'IA d'avril 2018.

Au niveau européen, l’absence d’approche harmonisée a d’abord poussé le Parlement[1] à prôner une série de mesures visant la robotique avancée, y compris par l’élaboration d’un cadre d’orientation éthique pour la conception, la production et l’utilisation des robots. À la suite de la publication de sa stratégie européenne sur l'intelligence artificielle (IA) en avril 2018, la Commission a mis en place un groupe composé de 52 experts indépendants représentant le monde universitaire, l'industrie et la société civile. Ce groupe a publié un projet de lignes directrices en matière d'éthique en décembre 2018, sur la base duquel ont été organisées une consultation des parties prenantes et des représentants des États membres pour recueillir des réactions et retours d'informations.

La Commission a choisi une approche en trois étapes : définir les exigences clés pour une IA digne de confiance, lancer une phase pilote à grande échelle et élaborer un consensus international centré sur l'humain.

Pour cette phase pilote lancée début avril, la Commission invite l'industrie, les instituts de recherche et les autorités publiques à tester ses lignes directrices. L’IA peut s'avérer bénéfique dans des secteurs comme la santé, la consommation énergétique, la sécurité des véhicules, l'agriculture, le changement climatique et la gestion des risques financiers. Elle doit contribuer à la détection des fraudes et des menaces pesant sur la cybersécurité, et permettre de lutter plus efficacement contre la criminalité.

Ethique IA Commission européenne

Sept exigences ont été retenues par la Commission européenne pour parvenir à une IA digne de confiance :

  • Facteur humain et contrôle humain : les systèmes d'IA doivent être les vecteurs de sociétés équitables en se mettant au service de l'humain et des droits fondamentaux, sans restreindre ou dévoyer l'autonomie humaine.
  • Robustesse et sécurité : les algorithmes doivent être suffisamment sûrs, fiables et robustes pour gérer les erreurs ou les incohérences dans toutes les phases du cycle de vie des systèmes d'IA.
  • Respect de la vie privée et gouvernance des données : il faut que les citoyens aient la maîtrise totale de leurs données personnelles et que les données les concernant ne soient pas utilisées contre eux à des fins préjudiciables ou discriminatoires.
  • Transparence : la traçabilité des systèmes d'IA doit être assurée.
  • Diversité, nondiscrimination et équité : les systèmes d'IA devraient prendre en compte l'éventail des capacités, aptitudes et besoins humains, et leur accessibilité devrait être garantie.
  • Bien être sociétal et environnemental : l’IA doit être utilisée pour soutenir des évolutions sociales positives et renforcer la durabilité et la responsabilité écologique.
  • Responsabilisation : des mécanismes pour garantir la responsabilité des systèmes d'IA et les soumettre à une obligation de rendre des comptes.

D’ores - et - déjà, les entreprises, les administrations publiques et les organisations peuvent adhérer à l'Alliance européenne pour l'IA et seront informées du démarrage du processus pilote. Les membres du groupe d'experts de haut niveau aideront à présenter et à expliquer les lignes directrices aux parties prenantes concernées.

Dans une dernière étape, la Commission européenne souhaite renforcer sa coopération avec les partenaires partageant la même approche, comme le Japon, le Canada ou Singapour, et avoir un rôle actif dans les initiatives internationales, notamment au sein du G7 et du G20.

Les membres du groupe d'experts sur l'IA ont présenté leurs travaux durant la troisième Journée du numérique tenue à Bruxelles le 9 avril. En outre, pour garantir le développement éthique de l'IA, d'ici à l'automne 2019, la Commission :

  • lancera un ensemble de réseaux de centres d'excellence en matière d'IA ;
  • entamera la création de réseaux de pôles d'innovation numérique ;
  • et engagera, avec les États membres et les parties prenantes, des discussions destinées à concevoir et mettre en œuvre un modèle de partage des données et d'utilisation optimale des espaces de données communs.

Mariya Gabriel, commissaire chargée de l'économie et de la société numériques, considère qu’une étape a été franchie « sur la voie d'une IA éthique et sûre dans l'UE. Nous disposons désormais d'une base solide fondée sur les valeurs de l'UE et qui résulte d'un engagement profond et constructif de la part de nombreuses parties prenantes, y compris les entreprises, le monde universitaire et la société civile ».

[1] Parlement européen, commission des affaires juridiques, rapport contenant des recommandations à la Commission concernant des règles de droit civil sur la robotique (2015/2103[INL]), rapporteur Mady Delvaux.

×

A lire aussi