Revue
DossierDe nouvelles formes d’organisation et de management à créer
L’IA doit être un outil au service de tous, dans un cadre éthique et inclusif, garantissant que personne ne soit laissé pour compte.
L’ère de la transversalité
Si l’avènement du mode projet avait déjà apporté son lot de questionnements sur le fonctionnement transversal et le rôle du manager, l’arrivée de l’IA dans nos services ne fera que renforcer cette dynamique nécessaire à la conduite de projets innovants : entre entités nouvelles et transversales à créer (comme les directions innovation) et métiers émergents à manager différemment (chef de projet, chargé de mission, designer, etc.). La question de la transversalité s’impose plus qu’elle ne se pose lorsqu’on parle d’IA.
Mais alors, faut-il immanquablement créer des directions innovation si on souhaite lancer un projet d’IA ? Pour le professeur Steve Jacob, directeur du laboratoire de recherche sur la performance et l’évaluation de l’action publique de l’université de Laval au Canada que nous avons pu rencontrer, la réponse est claire. Dans son étude sur l’IA dans l’administration publique au Québec4, on constate que chacune des trois organisations publiques analysées s’est dotée d’une direction de l’innovation pour piloter les projets d’IA. La composition de ces équipes est cependant assez variable.
Toujours en lien avec les départements numériques, ces unités sont parfois composées de profils allant au-delà de compétences strictement numériques. La condition sine qua non de leur réussite étant les relations qu’elles entretiennent (voire créent) avec les autres départements et directions métiers de leur administration, et leur capacité à impulser un travail transversal devenant progressivement la norme, bien que ne faisant pas encore toujours partie de nos quotidiens. La création de direction/service/pôle innovation semble inévitable à la conduite d’un projet interne d’innovation et donc d’IA, principalement de par les compétences de gestion de projet, d’approche utilisateur et de questionnement du besoin qu’il pourra porter, au-delà de compétences techniques indispensables. Ces services viennent bousculer les organigrammes et fonctionnements établis.
En effet, cette transversalité imposée pousse à de nouvelles postures avec lesquelles les agents, et parfois surtout les managers, ne sont pas familiers, notamment dans le secteur public. Il faut désormais prendre le temps de questionner le besoin, d’itérer, voire de pivoter. Les managers se retrouvent ainsi face à des compétences qui leur étaient jusque-là inconnues pour certains.
Et le bât blesse lorsqu’il s’agit pour ces managers d’encadrer des agents aux compétences, voire aux profils nouveaux, car comment accompagner au quotidien, challenger et faire monter en compétence un agent dont on ne comprend que vaguement la teneur des missions et aptitudes ? Comme accompagner ses équipes lorsqu’elles sont embarquées dans une dynamique de projet innovant à laquelle elles n’ont pas plus été formées que leur manager ?
Cette transversalité n’est plus une option pour toute organisation qui souhaite innover, et l’enjeu est alors de s’assurer que chacun de ses managers est équipé pour intégrer cette nouvelle dynamique qu’il devra pousser au sein de son équipe.
Un parallèle avec le télétravail est peut-être plus parlant pour certains : dans certaines équipes, le manager sceptique face au travail hybride n’encourage pas le collectif à passer le pas, même si l’orientation a été décidée au sein de l’organisation ; dans un autre cas, le manager souhaitant impulser cette évolution mais démuni quant aux outils à sa disposition ne parviendra pas à engager tout son collectif ; ou encore au sein d’équipes laissées dans le flou, laissant à chacun la volonté/capacité à franchir le pas… L’adoption de systèmes d’IA pourrait subir le même sort.
La question de la transversalité s’impose plus qu’elle ne se pose lorsqu’on parle d’IA.
Dans tous les cas, lorsque les ressources primordiales n’ont pas été transmises, c’est toute l’organisation qui s’en retrouve profondément déstabilisée, laissant de côté ceux n’ayant pas le bagage nécessaire pour embarquer. Cette question relève donc de la gouvernance des entités et des moyens qu’elles sont prêtes à mettre en œuvre pour appuyer et rendre effective les transformations qu’elles souhaitent. Cependant, à l’échelle du manager, la solution reste de se former, de ne pas mettre de côté ou de dénigrer ces nouvelles compétences émergentes et de plus en plus incontournables qui s’immiscent déjà dans nos quotidiens. Par exemple, lorsqu’un product owner ou encore un designer de service public vient nous questionner sur nos besoins.
Erreurs de la machine ou erreurs humaines ?
Lorsque l’on pense IA, la première limite qui nous vient généralement à l’esprit est celle des biais ethniques ou de genre. Ces derniers ont d’ailleurs fait l’actualité à de nombreuses reprises. C’est pourquoi certains travaux se sont penchés sur la question. C’est le cas du travail de Joy Buolamwini, du MIT Media Lab, et Inloluwa Deborah Raji, de l’université de Toronto5. Dans le cadre de leurs recherches, elles ont voulu éprouver différentes technologies de reconnaissance faciale. Rapidement, il est apparu que ces technologies étaient moins performantes sur des visages à peau sombre en comparaison de visages à peau claire (aujourd’hui le problème et les performances semblent résolus). Il s’agit là d’un biais de représentation : l’algorithme a été entraîné à partir de bases de données pas assez diversifiées, ayant pour conséquence un impact direct sur les performances des technologies en cause. Il y avait là un biais dès les données d’entrée. Ceci est un exemple parmi tant d’autres, tant le nombre de biais est important et divers (temporel, d’agrégation, de sélection, etc.).
Cette transversalité n’est plus une option pour toute organisation qui souhaite innover, et l’enjeu est alors de s’assurer que chacun de ses managers est équipé pour intégrer cette nouvelle dynamique qu’il devra pousser au sein de son équipe.
Pour simplifier, on peut retenir que ces biais peuvent intervenir au début, dès l’entraînement de l’algorithme (en fonction de l’acquisition de données qu’il réalise), pendant son utilisation (suite aux interactions avec les utilisateurs) et être décuplés par le modèle prédictif lui-même (si les données d’apprentissage sont biaisées, l’algorithme va partir de ces premières hypothèses pour tirer des conclusions qui viendront renforcer ce biais)6.
Cependant, pour le Général Patrick Perrot, coordonnateur IA pour la Gendarmerie nationale et conseiller IA du commandement de la gendarmerie au sein du cyberespace (ComCyberGend), il faut faire attention à ne pas se cacher derrière la machine : « Il y a d’abord un être humain qui programme des règles. » 7 Pour lui, c’est alors prêter à l’IA plus d’intelligence humaine qu’elle n’en a. Comme expliqué plus haut, si les bases de données sont biaisées, l’effet sur l’algorithme est alors mécanique. C’est alors aux développeurs de se montrer vigilants, notamment sur les variables prises en compte, et en commençant parfois par prendre conscience de leurs propres biais cognitifs (croyances subjectives inconscientes).
Et le manager dans tout cela ? Il est évident qu’il devrait dans l’idéal être conscient des limites de ces outils (tout comme pour n’importe quel outil, par exemple les enjeux de cybersécurité liés à Internet), non pas pour réfléchir à comment modifier la technologie elle-même, ce n’est pas son rôle, mais pour savoir guider ses équipes. Dans la plupart des chaînes mises en place, les intelligences artificielles sont mises au service d’agents qui ont pour dernière étape la validation et/ou la prise de décision. Et justement, si comme nous le disions plus haut, l’outil peut connaître des limites de performance, cette vérification humaine est d’autant plus importante et pertinente.
Prenons un exemple simple : si vous décidez d’utiliser Excel pour calculer plus vite les dépenses de votre service, et que, pour une obscure raison, le logiciel a décidé de n’en faire qu’à sa tête et de ne pas prendre en compte certaines lignes, votre expérience vous fera dire que le chiffre total donné semble faible au regard des coûts habituels (par une vérification visuelle, vous voyez que certaines lignes ont été omises…). Excel vous aura tout de même fait gagner un temps considérable, même si vous avez eu à ajouter manuellement les lignes manquantes.
Ici, pas de problème notable, aussi longtemps que vous avez décidé de rester alerte et de ne pas vous en remettre corps et âme à la technologie, et qu’aucun de vos biais cognitifs n’a pris le dessus… Notamment le biais d’autorité, comme c’est souvent le cas face à l’IA. C’est ce que tendent à montrer différentes études. L’une d’entre elles, parue dans Frontiers in Robotics and AI8, a montré qu’en moyenne les participants travaillant en autonomie détectaient plus d’erreurs (4,2 par image) que leurs homologues qui inspectaient des circuits théoriquement déjà contrôlés par un robot (3,3 par image).
La même conclusion est apportée par les deux chercheuses Lucia Vicente et Helena Matute dans la revue Scientific Report9. Elles vont même un peu plus loin. Il a été demandé à deux groupes d’étudiants de poser un diagnostic après avoir inspecté des échantillons tissulaires. L’un des deux groupes était accompagné d’une IA volontairement erronée, sans que ce groupe le sache. Le groupe de contrôle, qui était quant à lui en autonomie, n’a commis aucune erreur, à la différence du premier groupe qui a reproduit les erreurs de leur assistance informatique. Par la suite, l’IA a été désactivée avant que les deux groupes ne poursuivent les tests. Les étudiants n’en ont pas été informés.
Il semblerait alors que le groupe précédemment assisté ait continué à répéter les erreurs portées par l’assistance informatique, comme si elles avaient été internalisées par les étudiants, laissant présager que l’effet négatif puisse perdurer dans le temps long. L’origine de ces résultats pourrait se trouver à travers un certain biais d’autorité (conscient ou non) de la part des cobayes qui auraient surévalué la qualité des décisions prises par l’IA. Imaginez, en tant que manager, que demain, vos agents ne soient plus en mesure de garantir un certain niveau de contrôle parce que, sans le savoir, ils font trop confiance aux algorithmes. C’est votre management qui se retrouve bousculé, là où on prônait l’autonomie il serait tentant de mettre en place un second contrôle… Ce qui ne ferait sens ni pour les agents qui se sentiraient trop supervisés, ni pour vous, ni pour le service pour lequel l’IA est censée apporter un gain de temps.
Le rôle du manager est d’accompagner les équipes dans leurs interactions avec la machine, en expliquant le pourquoi des choses et en élevant le niveau de vigilance des agents face aux outils qu’ils utilisent.
Mais alors, que peut faire le manager ? S’il ne peut que difficilement intervenir sur les biais liés à l’algorithme, son rôle est d’accompagner les équipes dans leurs interactions avec la machine, en expliquant le pourquoi des choses (le sens d’une vérification humaine, par exemple, pour lui redonner toute son importance) et en élevant le niveau de vigilance des agents face aux outils qu’ils utilisent.
L’enjeu est de les convaincre (et de leur faire réaliser) l’effort intellectuel à maintenir face à la détection d’erreurs. Dans certains cas, le défi sera de casser tout cycle négatif qui se serait mis en place lorsque les équipes n’auraient pas suffisamment détecté les anomalies produites, comme ce fut le cas pour notre groupe d’étudiants précédent. Un nouveau challenge donc pour le manager qui doit rester conscient qu’inclure des interactions hommes-machines, c’est aussi des relations qui s’accompagnent. Là où il serait tenté de rebasculer dans un management du « comment » (comment faire un contrôle efficace ?), tout le dilemme est justement de s’accrocher au pourquoi (pourquoi ce contrôle est essentiel ?), car ce n’est qu’en donnant du sens aux actions de son équipe que le manager parviendra à placer ses agents en responsabilité face à la machine.
Conclusion du livre blanc ChatGPT ne fera pas le café
L’intelligence artificielle, souvent perçue comme une révolution numérique, technologique et organisationnelle, s’impose progressivement sur toutes les lèvres. Secteur public, entreprises privées, citoyens, etc., elle transforme déjà nos organisations. Certains agents publics en font même un outil du quotidien, parfois sans le reconnaître ni en parler ouvertement (par honte ou par peur ?). Pourtant, nous en restons souvent à une vision réductrice, la limitant à des outils comme ChatGPT, utilisés comme moteur de recherche, correcteur orthographique ou gadget. Nous peinons encore à mesurer l’ampleur de son impact et la puissance des calculs qu’elle permet.
Et ce, alors même que l’IA s’impose comme une force motrice réinventant nos réalités, nos métiers et nos structures sociales. Elle représente autant une opportunité qu’un défi, interrogeant nos valeurs, nos modes d’organisation et notre rapport au monde. Cependant, elle doit impérativement rester un outil au service de nos objectifs collectifs et non une finalité en soi. Elle doit être mise au service de nos contrats sociaux et ne jamais se substituer à une réflexion politique approfondie.
L’intégration de l’IA doit s’inscrire dans un véritable projet d’administration, porté au plus haut niveau de la direction générale et accessible à tous les agents. Ce projet structurant nécessite une feuille de route claire, une planification détaillée et des étapes concrètes, sans se limiter à de simples lois ou déclarations d’intention.
Cette transition questionne profondément l’essence de certains métiers, provoquant des crises identitaires et redéfinissant les parcours professionnels, voire questionne la valeur du travail humain. Or, il est crucial de rappeler qu’un outil d’IA, qu’il s’agisse d’un correcteur syntaxique ou d’un synthétiseur de notes, ne remplace en rien notre production intellectuelle.
Pour préserver cette place centrale de l’activité de l’agent public, l’IA doit être employée de manière à valoriser les fonctions à forte valeur ajoutée : renforcer le lien humain, favoriser la proximité et répondre aux besoins des territoires, tout en veillant à protéger les agents de la surcharge que cette nouvelle répartition des tâches pourrait engendrer. L’IA ne doit en aucun cas chercher à remplacer l’intelligence humaine. C’est pourquoi il est crucial d’instaurer des garde-fous solides, tout en renforçant la formation des agents pour mieux comprendre et maîtriser cet outil.
Adopter l’IA ne doit pas être une décision précipitée. Ce choix doit être mûrement réfléchi, en tenant compte de ses impacts environnementaux, sociétaux, et des imaginaires qu’elle façonne. La nécessité d’une régulation et d’une réflexion collective s’impose alors comme une évidence.
Enfin, l’IA, émergeant principalement d’initiatives privées, véhicule une vision du monde qui influence nos imaginaires collectifs. Pour éviter qu’elle ne devienne une utopie biaisée, excluant une partie de l’humanité, il est impératif de politiser son développement.
L’IA doit être un outil au service de tous, dans un cadre éthique et inclusif, garantissant que personne ne soit laissé pour compte. Le potentiel de l’IA semble infini : soudainement, tout nous paraît réalisable. Cette perception même nous pousse à nous distancier de notre propre création, à nous déresponsabiliser. In fine, on en viendrait (presque) à oublier que cette technologie est imprégnée de nos volontés, croyances et biais. Il est temps de poser collectivement ce que nous souhaitons en faire pour savoir dans quelle direction aller.
- L’association FP21 est une association de jeunes agents publics qui vise notamment une diffusion de la transformation publique au sein de la fonction publique.
- https://fp21.fr/les-livres-blancs/
- Pages 14 à 20.
- Jacob S. et Souissi S., « L’intelligence artificielle dans l’administration publique au Québec », Cahiers de recherche sur l’administration publique à l’ère numérique 2022, no 5.
- Paul C. et Le Métayer D., Maîtriser l’IA au service de l’action publique. Une responsabilité individuelle et collective, 2022, Berger-Levrault, Au fil du débat-Action publique, p. 55.
- Pour plus d’exemples sur le sujet, se référer à Lum K. et Isaac W., « To predict and serve ? », Significance 2016, p. 16. Voir également Ferguson Y., « Ce que l’intelligence artificielle fait de l’homme au travail. Visite sociologique d’une entreprise », in Dubet F. (dir.), Les mutation du travail, 2019, La découverte, p. 23-42 ; Harcourt B. E., La société d’exposition. Désir et désobéissance à l’ère numérique, 2020, Seuil, La couleur des idées, ; Robinson D. et Koepke L., « Early Evidence on ‘Predictive Policing’ and Civil Rights », upturn.org 2016.
- Paul C. et Le Métayer D., Maîtriser l’IA au service de l’action publique. Une responsabilité individuelle et collective, op. cit., p. 47.
- « Sec. Human-Robot Interaction », Front. Robot. AI, 18 oct. 2023, vol. 10 (https://www.frontiersin.org/journals/robotics-and-ai/articles/10.3389/frobt.2023.1249252/full).
- Vicente L. et Matute H., « Humans Inherit Artificial Intelligence Biases », Scientific Report 2023, no 13, 15737.