Revue

Dossier

Quand l’IA se donne un genre !

Le 5 août 2025

C'est le titre d'une émission proposée par Weka TV en partenariat avec la CASDEN Banque populaire que nous avons souhaité relayer dans ce dossier1. Souvent présentée comme une technologie neutre et objective, dont l’illusion de rationalité des algorithmes serait la preuve, l’intelligence artificielle (IA) est en réalité un artefact social, profondément influencé par les structures de pouvoir qui régissent nos sociétés. Construire la neutralité de l’IA est une urgence démocratique. 

L’IA, selon le Parlement européen, désigne « la possibilité pour une machine de reproduire des comportements liés aux humains, tels que le raisonnement, la planification et la créativité » 2. Elle permet à des dispositifs techniques d’analyser des données et d’agir de manière autonome dans un environnement donné. Présentée comme un levier d’innovation, de performance et de rationalisation, l’IA est souvent perçue comme neutre, objective et apolitique.

L’IA est profondément façonnée par celles et ceux qui la conçoivent, la codent, la déploient et l’utilisent. L’IA n’est pas neutre, elle est genrée.

Pourtant, comme l’ont rappelé les invitées de l’émission Parlez-vous public : « Quand l’IA se donne un genre ! », derrière cette apparente neutralité se cachent des biais puissamment enracinés dans nos structures sociales et se jouent des rapports de pouvoir bien réels, notamment en matière de genre.

L’IA est un artefact social. Elle est profondément façonnée par celles et ceux qui la conçoivent, la codent, la déploient et l’utilisent. L’IA n’est pas neutre, elle est genrée. Cette affirmation appelle une lecture critique et politique des systèmes techniques que nous déployons et interroge en profondeur leurs conditions de production.

L’histoire de l’IA : une intelligence genrée dès sa conception !

Dans son article « L’IA a-t-elle un genre ? », Vanessa Nurock, maîtresse de conférences en éthique à l’université Paris 8, définit le genre comme « des comportements socialement construits […] qui définissent des fonctions binaires marquées comme féminines ou masculines tout en installant une inégalité et une dynamique de pouvoir » 3.

Elle met en lumière l’effacement progressif des femmes dans les récits et les pratiques liés à l’IA, alors même que les premières équipes de développement de l’IA étaient mixtes. Ainsi, en 1945, six femmes ont programmé le tout premier superordinateur américain, Electronic Numerical Integrator And Computer (ENIAC). Pourtant, sur la photo officielle, seuls huit hommes blancs figurent. Les femmes ont été exclues des photos officielles et des communiqués de presse. Il faudra attendre 2023 pour que leur place dans l’histoire soit rétablie avec l’ouvrage hommage de Kathy Kleiman, programmeuse, avocate et défenseuses des droits numériques, Proving Ground. The Untold Story of the Six Women Who Programmed the World’s First Modern Computer4.

C’est que l’ordinateur « s’est constitué comme une machine genrée, et une machine à genrer le travail » dès l’origine, analyse Elsa Boyer dans sa biographie d’Alan Tuning5. Le pionnier de l’informatique et de l’IA, lucide sur la division sexuée des tâches, observait lui-même que les gestes confiés aux femmes dans les premiers travaux informatiques préfiguraient l’automatisation de fonctions intellectuelles plus valorisées.

C’est ainsi que la prétendue neutralisation de l’IA s’est traduite dans les faits par une invisibilisation des femmes et par l’affirmation d’une vision patriarcale de la technique, assignant aux hommes les postes stratégiques et aux femmes des fonctions de mise en œuvre invisibilisées.

Les applications contemporaines de l’IA ne font que prolonger cette assignation genrée et ces biais constitutifs de domination.

Un biais originel jamais corrigé

Ces logiques genrées n’appartiennent pas au passé : elles structurent encore aujourd’hui la conception et l’usage des technologies.

Les applications contemporaines de l’IA ne font que prolonger cette assignation genrée et ces biais constitutifs de domination. Les assistants vocaux, tels que Siri, Alexa ou Cortana, sont majoritairement dotés de voix féminines, symbolisant l’assistanat docile. En 2019, l’Organisation des Nations Unies pour l’éducation, la science et la culture (UNESCO) a dénoncé le fait que ces dispositifs sont conçus pour répondre de manière docile, y compris face à des propos sexistes ou agressifs. En 2024, l’agence des Nations Unies alerte même sur les dérives des grands modèles de langage (LLM), qui reproduisent des stéréotypes sexistes, raciaux ou homophobes6. Les femmes sont quatre fois plus souvent décrites comme travailleuses domestiques que les hommes, et associées aux termes « maison », « enfants » ou « famille », tandis que les hommes sont liés à « entreprise », « salaire », « carrière ».

Une IA alimentée aux biais genrés

Comment ces IA sont-elles si biaisées ? Les intervenantes de l’émission Parlez-vous public répondent : car elles apprennent à partir de données biaisées puisqu’issues d’un monde inégalitaire. En effet, les jeux de données utilisés pour entraîner les algorithmes sont souvent déséquilibrés, surreprésentant certaines catégories sociales, tout en négligeant ou invisibilisant les autres. Les conséquences sont majeures, notamment dans le domaine médical, où des diagnostics fondés sur des données masculines peuvent se révéler inadaptés aux corps et symptômes féminins.

À partir de ces données, l’IA mobilise des algorithmes7 dans le but de détecter des régularités, de formuler des prédictions ou de prendre des décisions de manière automatisée, en fonction des objectifs qui lui ont été assignés. Les algorithmes vont donc accentuer les biais par automatisation lors de leur apprentissage et de l’agrégation des données.

Résultat, explique Gabriela Belaid, dans le champ des ressources humaines par exemple, on aboutit à des fiches de postes et des CV genrés. On attend du « leadership » pour un homme, de « l’écoute » ou du « relationnel » pour une femme. L’IA, entraînée sur ce langage, en déduit que certains métiers sont genrés et renforce mécaniquement ces assignations. Sur le recrutement, les algorithmes d’analyse de CV se fondent sur des données passées. Ils prolongent les inégalités existantes. L’exemple d’Amazon est tristement célèbre : son IA de présélection avait écarté des candidatures féminines, considérant que les profils masculins étaient historiquement davantage recrutés.

Ces biais s’expliquent aussi par la faible présence des femmes dans les métiers et les équipes techniques. En 2024, 88 % des concepteurs d’algorithmes sont des hommes8. Dans la tech, seulement 27 % des professionnel·le·s sont des femmes, 17 % dans le numérique et moins de 7 % dans le développement de l’IA.

Alors que les métiers les plus automatisables sont souvent féminisés (fonctions administratives, relationnelles, de soins), les femmes sont très peu représentées dans les métiers émergents liés à l’IA et à la transformation numérique. Celles qui s’y engagent rencontrent des difficultés d’accès à l’emploi ou à l’alternance. Et lorsqu’elles sont recrutées, elles sont moins bien rémunérées (écart de 20 % dans les filières d’ingénieurs pour le premier emploi). Elles sont 80 % à quitter le secteur après une maternité, en général dès le premier enfant, alors même que ces métiers manquent terriblement de main-d’œuvre à tous les niveaux de responsabilité.

Cela impacte directement la transformation publique liée à l’IA. D’un côté, les métiers féminisés sont les plus menacés par l’automatisation ; de l’autre, les femmes sont moins représentées dans les postes qui pilotent cette transformation.

Quand la majorité de l’humanité reste sur le bord de la route digitale, il est urgent d’agir

C’est l’avertissement lancé par Elisabeth Moreno, dans la préface du guide Agissons vraiment pour une intelligence artificielle égalitaire entre femmes et hommes du Laboratoire de l’Égalité9. Pour l’ancienne ministre, les chiffres dans le domaine ne sont pas juste des statistiques, ce sont des signaux d’alarme !

Les enjeux de genre sont structurants dans la révolution technologique que traversent nos sociétés avec l’IA. Le défi d’une véritable neutralisation de l’IA est éthique et politique. Dégenrer l’IA, ce n’est pas simplement corriger les données et les algorithmes, c’est transformer en profondeur les structures de pouvoir qui la traversent. Cela suppose de féminiser les filières techniques, de valoriser des compétences souvent invisibles et d’impliquer les femmes à tous les niveaux – de la production à la décision.

Il convient d’agir de manière systématique et systémique. Si rien n’est fait, rappelle Gabriela Belaid, les projections sont glaçantes : la parité dans le numérique ne sera atteinte qu’en 2194 !

Les applications contemporaines de l’IA ne font que prolonger cette assignation genrée et ces biais constitutifs de domination.

Le diagnostic, les solutions et les espoirs sont là. Les enjeux de genre dans l’IA sont aujourd’hui reconnus à l’échelle internationale. L’IA Act10, adopté par l’Union européenne en 2024, fixe un cadre réglementaire ambitieux. Le Pacte numérique mondial11 appelle à des politiques publiques éthiques, durables et démocratiques. De nombreux rapports et guides sont produits12. Les acteurs se mobilisent avec des actions concrètes : correction des biais dans les données, vérification des algorithmes, fiches de poste non genrées, constitution pluridisciplinaire des équipes, intégration de la gouvernance éthique dès la conception.

Dans les collectivités locales, les fonctions de transformation et d’innovation attirent majoritairement des femmes. Elles souhaitent valoriser la médiation, l’écoute, la vision systémique. Ces compétences sont essentielles pour accompagner les usages de l’IA dans des contextes humains complexes. Dans un monde où la technique ne peut tout résoudre, ces savoir-faire sont d’autant plus stratégiques.

Si elle est pensée avec et pour la diversité, l’IA peut devenir un levier de justice sociale et de progrès démocratique. Et si dégenrer l’IA était la véritable révolution ?

  1. Émission animée par Hugues Perinel, journaliste, fondateur du Cercle des acteurs territoriaux et vice-président de Dirigeantes & Territoires, avec comme invitées : Aissia Kerkoub, directrice générale adjointe, secrétaire générale, ville de Lyon ; Gabriela Belaid, experte en IA, fondatrice du think tank Cercle Olympe de Gouges ; Juliette Duquesne, journaliste.
  2. Parlement européen, Intelligence artificielle : définition et utilisation, 7 sept. 2020.
  3. Nurock, V., « L’intelligence artificielle a-t-elle un genre ? », Cités 2019, no 80, p. 61-74.
  4. Kleiman K., Proving Ground. The Untold Story of the Six Women Who Programmed the World’s First Modern Computer, 2023, Grand Central Publishing.
  5. Boyer E., Turing, 2023, Les Pérégrines.
  6. UNESCO-Centre international de recherche sur l’intelligence artificielle, Challenging systematic prejudices : an investigation into bias against women and girls in large language models, 2024.
  7. Les algorithmes sont définis comme des ensembles finis et non ambigus d’instructions permettant de résoudre, par étapes, une classe définie de problèmes.
  8. Stéphane Piednoir, président de l’Office parlementaire d’évaluation des choix scientifiques et technologiques, à l’occasion du colloque au Sénat, « Femmes et IA : Briser les codes » : Graillot A., « Femmes et IA : “L’intelligence artificielle reflète les biais de la société” », publicsenat.fr 8 mars 2024.
  9. Laboratoire de l’Égalité, Agissons vraiment pour une intelligence artificielle égalitaire entre les femmes et les hommes, 2023-2024.
  10. « Règles pour une intelligence artificielle digne de confiance dans l’Union européenne », eur-lex.europa.eu (synthèse du Règlement (UE) 2024/1689 établissant des règles harmonisées concernant l’intelligence artificielle [règlement sur l’intelligence artificielle]).
  11. Nations Unies, Pacte numérique mondial, 23 sept. 2024 (https://www.un.org/digital-emerging-technologies/global-digital-compact).
  12. À titre d’exemples, nous citerons les rapports, guides ou livres blancs produits par le Cercle des acteurs territoriaux, le Laboratoire de l’Égalité, la Fondation Jean-Jaurès, etc.
×

A lire aussi