Revue

Dossier

Intelligence artificielle et démocratie numérique : entre massification de la participation et illusion d’objectivité du traitement

Le 1 août 2019

Plus de deux millions de contributions publiées, 10 000 réunions d’initiatives locales organisées, 16 000 cahiers de doléances récoltés, 68 millions de mots produits, etc. Le Grand débat national, organisé durant trois mois début 2019 pour sortir de la crise des Gilets jaunes, a généré une masse considérable de données. Les prestataires privés en charge de l’analyse des données ont eu recours à l’analyse automatisée avec des outils d’intelligence artificielle (IA) et de l’interprétation « humaine ». Enjeux, limites et perspectives.

Résumé

Afin de répondre à la crise des Gilets jaunes, le président de la République Emmanuel Macron a lancé un Grand débat national qui s’est déroulé du 15 janvier au 15 mars 2019. En difficulté face à la contestation sociale malgré des concessions sur le pouvoir d’achat annoncées en décembre 2018, le président a proposé de recueillir les doléances des Français à travers des milliers de réunions sur tout le territoire, la mise en place d’une plateforme de collecte en ligne et l’organisation de dix-huit conférences régionales de citoyens tirés aux sorts.

Sur le plan quantitatif, plus de deux millions de contributions ont été publiées, 10 000 réunions d’initiatives locales organisées, 16 000 cahiers de doléances récoltés. On estime qu’environ 500 000 Français se sont exprimés. L’échelle de la consultation et le volume inédit des contributions impliquent inévitablement des moyens de traitement également inédits. Dans les délais impartis, la lecture humaine des 68 millions de mots produits est évidemment impossible. Peut-on démocratiquement accepter que toutes les contributions ne soient pas lues ? Si l’on souhaite assurer un égal traitement des participants, comment « faire parler » autant de contributions ? Comment rendre compte de la parole des Français qui se sont engagés pour participer ? La méthode choisie pour tenter de relever ces défis fait appel à des prestataires privés qui articulent une analyse automatisée avec des outils d’intelligence artificielle (IA) et de l’interprétation « humaine ».

À travers un retour critique sur les choix effectués pour mener à bien l’analyse du Grand débat national, cet article fait le pari que ce type d’expérimentation démocratique est une opportunité pour interroger le déploiement d’une « démocratie numérique » en France et prendre du recul sur l’appel aux technologies, comme l’IA, dans l’action publique.

Une procédure et des choix d’analyse contestés

L’objectif principal du débat et de ses différentes modalités participatives a été de récolter la parole des Français sur les quatre grands thèmes identifiés par l’exécutif : « la transition écologique », « la fiscalité et les dépenses publiques », « l’organisation de l’État et des services publics » et « la démocratie et la citoyenneté ». Dans un premier temps, la présidente de la Commission nationale du débat public (CNDP) Chantal Jouano a été sollicitée pour assurer le pilotage du débat. À la suite d’une série de divergences, elle a décidé de se retirer de l’exercice pour préserver l’intégrité de son institution. Le Gouvernement a alors repris le pilotage, et plus précisément deux ministres, Emmanuelle Wargon et Sébastien Lecornu, appuyés par un collège de cinq garants indépendants. Le service d’information du gouvernent (SIG) a été chargé de la dimension opérationnelle, avant que les têtes de l’exécutif ne reprennent la main pour les conclusions du débat.

Depuis la construction du cadrage jusqu’à la mise en place du dispositif les critiques ont été nombreuses, reprochant au débat d’être orienté et de principalement prolonger les orientations gouvernementales. Sur la partie numérique, le choix du prestataire qui a fourni la plateforme, Cap collectif, a également été très critiqué. Issu de la communauté des civic tech, ces acteurs qui cherchent à mobiliser les technologies numériques pour transformer la démocratie en facilitant la participation citoyenne1, le prestataire a fourni un outil, qui, sur demande du Gouvernement, n’était pas configuré pour encourager la délibération et l’échange au profit d’un simple dépôt de contributions. Les participants pouvaient soit répondre à un questionnaire, les « questions rapides », ou proposer des « contributions libres », elles aussi guidées par des questions de cadrage. Les internautes n’avaient, à aucun moment, la possibilité d’échanger entre eux, de discuter ou de commenter les autres contributions. Il a également été reproché à l’outil son manque de transparence2 : la plateforme est construite sur un code dit « propriétaire », c’est-à-dire que l’architecture technique est protégée et ne peut pas être examinée par les citoyens. Concrètement, cela veut dire que les réglages de la plateforme, à l’image de l’algorithme de hiérarchisation des contenus, ne peuvent être évalués. On ne peut donc pas connaître le critère qui permet à une contribution de se retrouver en première page : est-ce le plus récent ? Et à l’inverse, les sujets qui dérangent ne sont-ils pas relégués dans les dernières pages ? Impossible de le prouver clairement.

L’introduction de nouvelles technologies comme les outils de l’intelligence artificielle dans l’action publique pose de nombreuses questions. L’analyse des méthodes de traitement automatisé des données du grand débat permet de pointer plusieurs difficultés.

Un important dispositif a été mis en place pour traiter et analyser les données récoltées. Le SIG s’est ainsi appuyé sur le marché public attribué à l’institut de sondage Opinion way pour un lot d’analyse de données issues de consultations en ligne de différents ministères3 et leur a confié l’analyse des questions fermées. L’entreprise Qwam et son outil basé sur de l’intelligence artificielle (IA) Qwam analytics se sont chargés des contributions libres de la plateforme quand le consortium conduit par le cabinet Roland Berger – accompagné de Bluenove et Cognito – s’est vu attribuer l’analyse qualitative des cahiers de doléances et les comptes rendus des réunions publiques qui ont été numérisés par la Bibliothèque nationale de France (BNF). Contraint par les délais, la BNF n’a pu numériser l’ensemble des contributions papiers dans les quinze jours qui ont précédé la restitution, ce qui fait que les analyses ont principalement porté sur les données produites en ligne.

Sur le plan méthodologique, tous les prestataires affirment mélanger intelligence humaine et artificielle, sans véritablement expliciter les détails de leur travail.

Sur le plan méthodologique, tous les prestataires affirment mélanger intelligence humaine et artificielle, sans véritablement expliciter les détails de leur travail. L’IA mobilisée ici, principalement la technologie de « l’apprentissage approfondi/deep learning » où la machine peut « apprendre » en partant de données extérieures, à l’inverse de la programmation où elle applique principalement des règles pré-déterminées, a été utilisée sur les propositions « libres » des internautes. L’outil de Qwam permet en effet de traiter des volumes massifs de texte en s’appuyant sur des algorithmes et de l’apprentissage approfondi, il analyse chacun des verbatims et les compare à un dictionnaire de notions – de mots, de groupes de mots, d’idées – dont il est équipé. Ces notions sont extraites, étudiées dans leur contexte (le groupe de mot qui les entoure) pour en préciser le sens avant d’être potentiellement regroupées dans des catégories. Pour fonctionner, cette méthode nécessite que l’on fournisse des éléments à la machine pour définir son contexte. Ainsi, des centaines de milliers d’articles en ligne sur les sujets proches des thématiques ont été scannés par l’entreprise pour affiner l’analyse.

L’illusion de l’objectivité et le pluralisme des synthèses

On aurait naturellement tendance à attendre des machines une analyse objective du corpus, de nous fournir un processus rationnel susceptible de produire une lecture indiscutable de l’expression des Français. Or, un processus de construction du sens n’est, par essence, jamais objectif. Les sciences sociales, les sciences du langage et les chercheurs en traitement automatique du langage ont, depuis longtemps, identifié les nombreuses précautions à déployer pour parvenir à limiter les subjectivités et les effets d’interprétations. Leur conclusion est que la seule chose que puisse nous apporter le traitement automatique c’est de rendre un corpus intelligible, de le rendre manipulable pour qui souhaiterait produire des observations et de permettre d’en valoriser certains aspects avec une inévitable partialité.

Ainsi, le traitement automatique est porteur de nombreux biais d’analyse. Comme évoqué précédemment, la première étape de la méthodologie retenue consiste à scanner les documents, en partant d’un dictionnaire de termes, sans que soit objectivée la manière dont est constitué ce dictionnaire. De fait, l’analyse commence autour des termes sélectionnés, ce qui renforce inévitablement les effets d’évidences qui amènent à trouver principalement ce que l’on cherche au départ, et à passer à côté de ce qui n’avait pas été anticipé. Cette partie sémantique du traitement a l’avantage d’être rapide à déployer mais confère une importance très forte aux mots-clés, qui sont chargés d’incarner une idée, malgré le risque d’essentialisation : certaines idées, parmi les plus complexes sont difficilement solubles dans un terme. À titre d’exemple, la simple expression « Gilets jaunes » cache une grande variété de contextes idéologiques, de subtilités de positionnement qui vont se retrouver gommées par mécanisme de rapprochement. La grande taille du corpus rend ce point particulièrement problématique. Est-il seulement possible de rendre compte de la diversité des positionnements en partant de deux millions de contributions ?

Ainsi, le contexte de l’analyse est central et produit des variations de sens importantes. La machine est en difficulté pour capter l’intentionnalité de celui qui s’exprime et certains registres de discours, comme l’ironie, peinent à être pris en compte. Ainsi, l’expression « merci Macron » peut aussi bien être mobilisée par un partisan du président pour exprimer son soutien, que par un opposant pour produire une lecture décalée d’un événement ou d’un argument. Sur ce point, les prestataires affirment tous systématiser des interventions humaines sur les cas litigieux, sans que l’on identifie véritablement comment ils comptent repérer ces occurrences.

Le travail de l’outil de la société Qwam interroge également sur la manière dont vont s’effectuer les rapprochements autour des mots-clés : comment éviter les effets de seuils ? Combien d’occurrences sont nécessaires pour être intégrées à une catégorie ? À noter que le code source de l’outil est, lui aussi, propriétaire et que ses réglages ne peuvent être audités par des acteurs indépendants pour apporter des éléments de réponse à ces questions. Pour résumer, on peut affirmer, sans trop de doute, que l’automatisation de l’analyse et l’appel à l’IA ne permet pas de structurer « le » point de vue sur un sujet, mais contribue à définir une entrée sur le sujet, contraintes par la configuration socio-technique des outils mobilisés.

Ce constat sur l’hétérogénéité et la subjectivité des analyses produites par les technologies rend d’autant plus crucial l’appropriation des données produites par la plus grande diversité d’acteurs possible pour obtenir, et confronter, des points de vue et des arguments susceptibles de contribuer au débat démocratique. Pour pouvoir réaliser ces analyses, un certain nombre de préalables sont nécessaires. Il convient notamment de pouvoir assurer la mise à disposition des contributions des données en open data dès le début de la consultation (les contributions doivent être accessibles à tous dans un format exploitable par une machine) et la transparence sur le fonctionnement de la plateforme, notamment celle de l’algorithme de hiérarchisation des informations, doit être assurée. C’est à ces conditions que d’autres acteurs, issus du monde de la recherche, des associatifs, des journalistes et des citoyens pourront se saisir des données de la consultation. Pour le Grand débat national, la mise en place de l’open data a été poussive et peu anticipée. Elle ne s’est mise en place progressivement qu’après la mobilisation de collectifs de la société civile comme Code For France et une tribune « Ouvrons le Grand débat »4.

Une des originalités du Grand débat national est d’avoir permis une multitude d’analyses non-officielle à partir des données du débat5. Plusieurs équipes de recherche académiques ont ainsi proposé des analyses (l’Institut des systèmes complexes, le CNRS et l’INRIA, etc.), des journalistes à l’image de l’équipe « des décodeurs » du journal Le Monde ont publié de nombreux articles6. Un projet associatif, la « grande annotation », soutenu par Code For France, a connu un certain succès. Il s’agissait de permettre aux citoyens de venir faire, à la main, le travail de l’IA en annotant les contributions pour leur associer des mots-clés après lecture humaine. Plus de 1 000 personnes ont ainsi annoté 250 000 contributions. Cette approche permet ainsi de mettre l’accent sur la qualité des contributions plus que sur la récurrence des occurrences. Les utilisateurs seront chargés de classer les contributions les plus construites et de rétrograder les propositions les moins développées (en dessous de dix mots, par exemple) pour ne pas faire monter artificiellement certains mots-clés. Trois validations manuelles sont nécessaires pour qu’une annotation soit validée.

L’introduction de nouvelles technologies comme les outils de l’IA dans l’action publique pose de nombreuses questions. L’analyse des méthodes de traitement automatisé des données du grand débat permet de pointer plusieurs difficultés. La première d’entre elles concerne l’illusion d’objectivité et de neutralité que l’on peut conférer aux outils, particulièrement les plus récents et mal connus comme l’IA. Les prestataires déploient un discours rassurant qui mélange « bon sens des machines » qui seraient capables de traiter et de classer un corpus si imposant et appels à « l’intelligence humaine » – sans véritablement définir la contribution manuelle possible. Pourtant, les exemples développés dans cet article montrent que cet objectif est impossible à atteindre et que la lecture des corpus est toujours extrêmement
située et dépend des outils mobilisés. L’appel à l’IA telle que proposée risque principalement de mettre l’accent sur certains mots-clés, risquant au passage d’essentialiser la participation, de gommer les subtilités de l’expression (comme l’ironie) et de rendre secondaire l’analyse du message de la contribution par rapport à des objectifs sémantiques.

Le second point concerne la gouvernance des consultations en ligne. La multiplication des consultations publiques organisées via des plateformes numériques semble, à première vue, une opportunité pour la participation citoyenne en offrant la possibilité de récolter et de synthétiser rapidement un grand nombre de contributions. Cependant, on peut légitimement se demander si les formes très techniques d’ingénierie de la concertation qu’elles nécessitent ne risquent pas de creuser les inégalités d’accès à la compréhension de l’expression citoyenne. Lorsqu’elle est appropriée par des acteurs économiques soutenus par les pouvoirs publics, la démocratie numérique fait craindre une confiscation de la participation par des acteurs en capacité de déployer des outils onéreux, d’agir rapidement pour répondre à des calendriers politiques très contraints et accompagnés d’une grande visibilité médiatique.

Les asymétries de moyens et de pouvoir qui en découlent mettent à mal l’utopie numérique qui valorise l’activité de la « multitude » et la capacité à « faire soi-même/do it your self ». S’il est essentiel de repenser et de valoriser des formes d’analyse collaborative, des nouvelles modalités de science participative qui associent les citoyens, la recherche publique et la société civile à la compréhension de ces données, on ne peut faire l’économie d’une réflexion plus politique qui interroge la situation du rapport de force démocratique. Jusqu’à quand pourra-t-on se contenter de citoyens qui « refont » les analyses sans pouvoir définir les cadres de la participation ?

  1. Sur ce point, Mabi C., « Citoyen hackeur. Enjeux politiques des civic tech », La vie des idées 2 mai 2017, http://www.laviedesidees.fr/Citoyen-hackeur.html
  2. Sur ce point, tribune de Code for France, « Ouvrons le Grand débat », codefor.fr
  3. Opinion way, « Analyse des contributions au Grand débat national », Opinion-way.com 15 févr. 2019.
  4. Ibid.
  5. À titre d’illustration, le collectif Code For France a initié un recensement des initiatives de réutilisation des données : https://codeforfr.github.io/codefor-gdn-data/
  6. On peut notamment citer : Parienté J. et Ferrer M., « Doublons de contributions, participants frénétiques… les limites du Grand débat en ligne », lemonde.fr 8 avr. 2018.
×

A lire aussi