Revue

Dossier

Vers une intelligence artificielle responsable ?

Le 2 août 2019

Les décisions automatisées envahissent de plus en plus d’aspects de notre quotidien. Des algorithmes et des systèmes d’intelligence artificielle (IA) prennent des choix pour nous pour décider d’une attribution de logement, d’étude, de prêt, etc. Comment s’assurer que ces choix soient équitables, responsables, éthiques ? Qu’ils respectent la loi ? Qu’ils soient transparents quand les logiciels eux-mêmes ne savent pas toujours expliquer les motivations de leurs choix ? Comment anticiper les conséquences sociales des outils que l’on déploie ? Tel est l’enjeu de l’éthique appliquée aux algorithmes.

Résumé Comment rendre l’intelligence artificielle (IA) et les traitements algorithmiques responsables ? À l’heure où les politiques publiques et les grandes entreprises de la technologie se questionnent sur la responsabilité des calculs, construire des principes éthiques pour la recherche et le développement de ces technologies n’est pas si simple. Le risque, assurément, est de ne proposer que de grands principes, certes vertueux, mais qui peinent à devenir opérationnels. Des comités d’éthiques dépourvus de capacité d’action et déconnectés des modalités d’exécution. Pourtant, des solutions…
Cet article est réservé aux abonnés.
OU

Abonnez-vous à la revue Horizons publics

  • Formule Intégrale Pro

    6 numéros par an
    + 4 hors-séries
    + 10 comptes d'accès au site

  • Formule Intégrale Perso

    6 numéros par an
    + 4 hors-séries
    + 1 compte d'accès au site

S'abonner
×

A lire aussi