Quels avenirs nous réserve l’intelligence artificielle ?

L’événement a débuté par l’accueil des participants et l’ouverture par Carine Dartiguepeyrou, présidente de la SFDP. Elle a présenté les travaux de l’association et souligné sa mission de « mettre la prospective au service de la société ».
©Julien Nessi
Le 18 septembre 2025

Pour la XIIIe édition de son Printemps de la prospective, la Société française de prospective (SFDP) a réuni experts, prospectivistes et acteurs de l’innovation autour de ce thème. À quelques pas du canal Saint-Martin, dans les locaux de Cap Digital, cette rencontre a permis d’explorer les ruptures et les défis éthiques, sociétaux et même ontologiques posés par l’irruption fulgurante de l’intelligence artificielle (IA).

Mettre l’humain au cœur : la mission de la SFDP

L’événement a débuté par l’accueil des participants et l’ouverture par Carine Dartiguepeyrou, présidente de la SFDP. Elle a présenté les travaux de l’association et souligné sa mission de « mettre la prospective au service de la société ». L’objectif fondamental de la SFDP, récemment retravaillé avec les membres de son conseil d’administration, est de promouvoir une « réflexion prospective au service du progrès de l’humanité en harmonie avec le vivant et la terre ». La journée visait à mettre en évidence les points d’interdépendance de manière prospective et à faire ressortir les questionnements et tensions éthiques soulevés par l’IA.

Cap Digital, l’hôte de cette journée, a été présenté par Carlos Cuhna, son délégué général. Son rôle est de rassembler les acteurs de l’innovation numérique dans leur diversité pour les aider à développer des technologies (data, cloud, réseaux, etc.). Il a insisté sur la complémentarité entre l’innovation à court et moyen terme portée par Cap Digital et la vision à plus long terme de la prospective.

L’IA des Lumières : un idéal face à la métamorphose numérique

L’introduction de la journée a été consacrée au rapport L’IA des Lumières1, présenté par Francis Jutand2, vice-président de la SFDP et auteur du rapport éponyme. Ce concept d’« IA des Lumières » est celui d’une IA « au service de tous », un « levier de progrès humain, d’accès démocratique à la connaissance et de progrès écologique ». Selon lui, l’IA est une opportunité pour façonner une société cognitive en phase avec les valeurs d’humanisme et de progrès héritées des Lumières.

L'introduction de la journée a été consacrée au rapport L’IA des Lumières, présenté par Francis Jutand, vice-président de la SFDP et auteur du rapport éponyme.

Francis Jutand a décrit le processus de « métamorphose numérique » en trois phases : la convergence numérique et la création de l'« ubisphère » (années 1980-2000) où la communication est devenue numérique et ubiquitaire, le développement des plateformes de services et la création de la « cybersphère » (années 2000-2020) et la phase actuelle marquée par l’émergence de l’IA et des données (depuis 2020) qu’il nomme la « noosphère ». Il a souligné que l’IA représente une « véritable rupture épistémologique », passant de la recherche de connaissance par analyse et synthèse manuelle à l’utilisation d’un « espace dual de l’espace sémantique qui est l’espace statistique ». Les IAG actuelles fonctionnent en calculant la probabilité statistique de mots suivant d’autres, ce qui les rend « vraie au niveau statistique » mais « pas forcément vraie au niveau sémantique ». Il a averti qu’elles peuvent commettre des erreurs (hallucinations). Il voit l’IAG comme un « outil de maîtrise de la complexité » et une « coproduction humaine ». Cependant, il met en garde contre l’idée que l’IA pourrait devenir une intelligence indépendante, chemin qu’il juge « dangereux » et manipulatoire.

Les enjeux soulevés par cette métamorphose sont vastes, allant de l’intermédiation homme-monde à la fracture numérique, en passant par les enjeux éthiques, écologiques et spirituels. Francis Jutand a abordé la « guerre technologique » actuelle, notamment la « fuite en avant » des grands modèles généralistes, souvent promus par les GAFAM, dont la stratégie vise à dominer le marché et empêcher la concurrence. Il a suggéré que l’avenir pourrait être aux IA plus petites et spécialisées, formées sur des « contenus de qualité » et des structures d’apprentissage plus fines. Il a mis un accent particulier sur la « souveraineté », non seulement des données et des infrastructures (cloud), mais aussi des choix de moteurs d’IA et des usages. La dépendance aux grands modèles étrangers représente un coût financier énorme et une situation de « vassalisation ». Il a appelé à « organiser les puissances collectives de notre écosystème français et européen » par la coopération et l’utilisation de la régulation européenne.

Enfin, Francis Jutand a présenté l’IA comme une « rupture ontologique pour la société ». Il a évoqué un besoin crucial de « pilotage éthique » et le développement nécessaire de l'« économie du quaternaire » basée sur la donnée et la connaissance, une économie propice à la coopération et à la contribution. Il a conclu en appelant à « reprendre le contrôle de la trajectoire numérique ». Il a mis en avant la nécessité de défendre l’esprit humain et de partager les ressources (y compris la création de richesse).

L’esprit humain, patrimoine commun de l’humanité ? Une critique de L’IA des Lumières

Cette vision optimiste a été confrontée au point de vue de Mark Hunyadi3, philosophe et professeur à l’université catholique de Louvain. Intitulée « Pour une déclaration universelle des droits de l’esprit humain », qui est aussi le titre de l’un de ses livres récents4, sa présentation a formulé une « opinion quelque peu divergente » de celle de Francis Jutand, notamment sur l’expression « IA des Lumières ». S’il reconnaît l’apport du rapport, le philosophe exprime des « doutes ».

Sa critique repose sur la nature même du numérique, qu’il appelle le « numérique plus » (numérique augmenté de l’IA). Il pointe une « double finalité des outils numériques » : celle de l’utilisateur (communiquer, s’informer, se divertir) et celle du système (extraction de données). Pour lui, ces outils « ne sont pas faits pour l’usage qu’on en fait » mais sont avant tout des « appareils d’extraction de données ». Cette dissociation de finalité est « unique dans l’histoire des technologies », et se manifeste par le besoin permanent d’identification et la régulation comme le Règlement général sur la protection des données (RGPD). Elle engendre le « capitalisme de surveillance », mais ses possibilités de contrôle s’étendent bien au-delà de la sphère marchande (par exemple, données de santé pendant le covid).

Le deuxième point clé de Mark Hunyadi est que le « numérique devient de fait l’intermédiaire obligé au monde ». Pour accomplir la moindre action, il faut passer par le numérique. Il qualifie cela de « technologie de l’esprit », car elle s’immisce dans notre relation au monde, nous obligeant à « confier notre relation au monde à une interface technique », comme l’illustrent les futurs développements de lunettes connectées qui filtreront notre accès à la réalité. Cela remet même en question l’existence d’un « même monde objectif de référence ».

Selon Ioan Roxin, on peut aujourd’hui accomplir 700 années de recherche en un an grâce à l’utilisation d’une IA hybride : symbolique et connexionniste.

Troisièmement, imposer cette interface numérique nous plonge dans un « monde de données ». L’utilisateur tend à devenir un « simple opérateur cybernétique », une « machine à traiter des données », pris dans une « vaste roue cybernétique d’échange d’information ». L’esprit, étant plastique, apprend à se comporter en opérateur cybernétique. La « véritable menace fondamentale » est ainsi le « devenir cybernétique de l’esprit ». L’exemple des QR codes, que l’esprit humain ne peut décoder seul, illustre comment notre rôle se réduit à faire l’intermédiaire entre machines.

Selon le philosophe, le « numérique plus s’est imposé aux utilisateurs sous deux visages » : la « satisfaction immédiate » (le côté « pratique », la « tentation libidinale ») et la « rationalisation fonctionnelle » (gain d’efficacité, réduction des coûts). Ces deux aspects sont « au service de l’extraction des données ». Face à ces « tendances lourdes » convergeant vers la « colonisation de l’esprit », appeler à un usage raisonnable ou humaniste (comme l’IA des Lumières) lui semble un « vœu pieux » qui « vient se fracasser contre le roc de la logique d’extension et d’innovation de l’économie de la donnée ».

C’est dans ce contexte qu’il propose de « déclarer l’esprit humain patrimoine commun de l’humanité » par une « déclaration universelle des droits de l’esprit humain ». Il estime que l’éthique individualiste libérale moderne ne suffit pas à protéger l’esprit. Il est parfaitement imaginable d’avoir une société numérisée respectant les droits individuels, mais où les individus sont isolés et uniquement intégrés par la technique, comme sur les plateformes de streaming. L’Union européenne, avec ses projets de digitalisation intégrale, semble même promouvoir une « société d’individus occupée par la technique ». Le véritable « champ de bataille des titans » (les grandes entreprises technologiques) est l’esprit, qu’ils veulent coloniser. C’est donc l’esprit qu’il faut défendre. Une telle déclaration donnerait un « nouveau sens de la solidarité » à l’humanité, et affirmerait la « beauté et la grandeur de l’esprit humain » face à la menace. Il oppose cette capacité de l’esprit à « poser des questions » et « aller au-delà d’une donnée » à la fonction de traitement des données de l’IA et du devenir cybernétique de l’esprit.

Deux trajectoires possibles : techno-financière ou durable

Carine Dartiguepeyrou5, présidente de la SFDP, en analysant les « mégatendances socioculturelles et paradigmes émergents », a mis en perspective ces débats. Elle a identifié deux trajectoires principales : une trajectoire « techno-financière » dominante, portée par quelques acteurs, qui crée une rupture d’accélération risquant de nous précipiter vers la domination par la machine. L’alternative qu’elle voit est une trajectoire « durable », axée sur les dimensions économique, environnementale et sociétale, qui peine à décoller faute d’un « nouveau contrat social humaniste ».

Elle a observé un « décrochage de l’utopie techno-libérale » au profit d’une utopie « écologique » et, de manière croissante, d’une utopie de la « sécurité » (nostalgie, besoin de sécurité, peur de l’autre, repli identitaire). D’autres leviers de transformation incluent les aspirations post-matérialistes, le mouvement des « cultural creatives » cherchant plus de solidarité et de respect de la diversité, et un regain d’intérêt pour la spiritualité. Elle a souligné que les crises poussent les sociétés à se poser la question du « retour à l’essentiel » et du « sens ». La question clé est celle du « leadership de l’interdépendance » dans un monde complexe.

Carine Dartiguepeyrou a présenté une typologie des valeurs et des trajectoires, opposant « individualisme/intérêt général » et « technologie/durabilité ». Elle a décrit les risques de l’individualisme exacerbé (solitude, repli sur soi, déresponsabilisation). L’autre voie possible est le « dépassement de l’individualisme » par la culture de l’empathie et de l’altruisme, au service de l'« individuation » et de l’émancipation de l’esprit humain. Elle a insisté sur l’importance d’activer les valeurs individuelles et collectives pour la coopération et l’intérêt général. Elle a questionné si l’IA allait réellement améliorer nos « besoins fondamentaux » (accès à l’eau, l’air pur, etc.) et servir une société de respect, de coopération, d’apprentissage, de créativité et de liberté, ou si elle imposerait une loyauté à ses infrastructures. Il faut aujourd’hui écouter la « richesse et la diversité d’autres systèmes de valeur » pour éviter l’exclusion et trouver un équilibre juste. Ce sera l’une des clefs possibles pour assurer l’évolution sociétale.

Enjeux systémiques et éthiques : géopolitique, technologie et éducation

Camille Boulenguer, chercheuse à l’Institut de relations internationales et stratégiques (IRIS) et directrice de l’Observatoire géopolitique du numérique, a présenté une « géopolitique de l’IA ». Elle a décrit l’IA comme le pilier de la « course pour le leadership mondial entre les États-Unis et la Chine », qu’elle a qualifiés de « deux lièvres » face à une Europe « tortue ». Elle a détaillé les stratégies américaines pour dominer la chaîne de valeur (puces via Taiwan, ASML6, relocalisation, minerais rares, énergie) et la réponse chinoise (accès aux minerais, énergie). L’Europe est « en marge » de cette chaîne de valeur malgré une expertise académique. Le discours européen apparaît « fragmenté », comme l’a montré le récent Sommet sur l’action pour l’intelligence artificielle de Paris (févr. 2025). L’alliance entre la France et l’Inde pour promouvoir une IA éthique et au service de l’inclusion sociale a été présentée comme un partenariat stratégique intéressant. L’IA est un « outil pas neutre » dans cette course, notamment par l’influence cognitive possible via les biais des données d’entraînement.

Sébastien Massart, directeur de la stratégie de Dassault Systèmes, a présenté les « mondes virtuels » comme un nouveau « milieu de conception et d’industrie », dans le cadre de son intervention anglée sur la question « Quels avenirs avec les mondes virtuels et l’IA ? ». Ces mondes virtuels visent « à réunir le virtuel et le réel », non pas pour s’échapper mais pour « se retourner vers le monde réel et mieux gérer notre vie quotidienne et transformer nos sociétés, nos économies ». Il a montré comment ces outils, comme ceux développés par Dassault Systèmes depuis les années 1980 pour l’aéronautique, permettent d’accélérer rapidement les cycles de conception et d’expérimentation. Il a notamment cité, à titre d’exemple, les progrès fulgurants des avions électriques ou encore AlphaFold, le programme d’IA crée par DeepMind, une filiale de Google spécialisée dans l’apprentissage profond, pour les protéines7. Selon lui, l’IA offre des capacités exponentielles. Il prédit avec l’IA le règne de « l’économie générative » : une économie où « la part des actifs réels ne cesse de diminuer en regard de la part des actifs virtuels ». Dans ce nouveau monde, l’enjeu est de gérer des intangibles, revisiter les notions de souveraineté traditionnelle et investir le territoire en expansion des univers virtuels. « Il n’y a pas de planète B mais il y a une planète V, V comme virtuel. Nous devons travailler à une souveraineté conceptive. Bienvenue dans la renaissance industrielle », a-t-il conclu.

Ioan Roxin, professeur émérite à l’université Marie et Louis Pasteur, a abordé les aspects scientifiques, cognitifs et technologiques de l’IA dans le cadre de son intervention sur les « Impacts des agents IA : transformation ou disruption ? ». Selon lui, nous vivons une transformation très rapide. En recherche, on peut aujourd’hui accomplir 700 années de recherche en un an grâce à l’utilisation d’une « IA hybride : symbolique et connexionniste ». Il a distingué l’IA symbolique (basée sur des connaissances et règles) de l’IA connexionniste/statistique (basée sur les données). Il a expliqué le fonctionnement des grands modèles de langage (LLM), et a souligné aujourd’hui le rôle crucial de l’« ingénierie de prompt » et le développement des « agents » qui peuvent raisonner, agir et utiliser d’autres outils. Tout en montrant l’efficacité spectaculaire de ces agents (par exemple, création de contenu de cours en 1 h 40, nécessitant des mois de travail humain), il a lancé un avertissement majeur : les chercheurs ne comprennent pas toujours exactement ce que font ces modèles (« boîte noire »). Elles sont capables d’« écriture de code », de « se répliquer », et peuvent manipuler les informations. Le professeur émérite a conclu en affirmant que les agents IA sont « plus dangereux » que ce qu’on appelait l’IA générale.

Entreprises et collectivités locales
en première ligne face à l’IA

Une autre séquence a porté sur les enjeux éthiques : démocratie, innovation, coopération et gouvernance, avec les interventions Céline Colucci, déléguée générale du réseau des territoires innovants Les Interconnectés Carlos Cuhna, délégué général de Cap Digital, et Dominique Turcq, contributeur du Guide pratique sur l’IA et les conseils d’administration (nov. 2024) et auteur du livre qui vient de paraître Dirigeants et conseil d’administration, réveillez-vous ! Vous êtes hors-sol face aux exigences du xxie siècle (2025, EMS). Consultez le compte-rendu d’Olivier Réaud, administrateur de la SFDP, en ligne : https://www.societefrancaisedeprospective.fr/printemps-2025/

Enfin, Antoine Blondelle, enseignant-chercheur à l’université catholique de Lille a abordé l’impact de l’IA sur la formation des jeunes. Collaborant avec l’université de Columbia, la réflexion a porté sur les « stocks de compétences qui sont essentiels pour la maîtrise de l’IA et qui sont relativement stables ». Au-delà des compétences de base (littératie, numératie), il s’agit des compétences « métacognitives » (esprit critique, discernement), « interpersonnelles » (travail en équipe, intelligence émotionnelle) et « intrapersonnelles » (motivation, curiosité, apprendre à apprendre), ainsi que le « discernement éthique ». L’orateur a questionné la pertinence pédagogique d’utiliser l’IA dans les parcours d’apprentissage, notant que les usages actuels sont souvent axés sur la « performance » ou « la triche », plutôt que sur le cheminement et la compréhension profonde. Il a exprimé de fortes inquiétudes quant aux impacts sur la « santé mentale » (isolement, solitude, déshumanisation) et aux « questions éthiques » liées à la souveraineté, l’empreinte écologique, les données et la propriété. L’enjeu est de trouver la « juste place » pour l’IA et de mener les « bons combats » pour une utilisation éthique et bénéfique, en réenchantant les expériences d’apprentissage au-delà du tout écran.

La journée s’est conclue par une mise en perspective et en débat des questions prospectives et éthiques clefs, avec l’ensemble des participants et intervenants, animée par François Rousseau, trésorier de la SFDP, prospectiviste et expert en innovation sociale territoriale. Les discussions ont mis en lumière la complexité et l’impact multidimensionnel de l’IA, loin d’une vision unique. Le débat a porté sur l’optimisme d’une « IA des Lumières » au service du progrès et le « devenir cybernétique de l’esprit ». Les enjeux de souveraineté, qu’elle soit technologique, économique ou conceptive, sont en tout cas apparus comme cruciaux pour permettre des choix éclairés face à la domination de quelques acteurs globaux (GAFAM). La nécessité d’un pilotage éthique et d’un nouveau contrat social a été soulignée, en allant au-delà des seules régulations et en considérant davantage les valeurs qui guident notre développement. L’éducation, la culture, les compétences humaines sont indispensables pour comprendre et utiliser avec discernement l’IA. Ce XIIIe Printemps de la prospective a ainsi dressé un panorama riche des défis et des possibles avenirs de l’IA, rappelant que ces futurs ne sont pas inscrits mais dépendent des choix collectifs et individuels qui seront faits dès aujourd’hui.

  1. Jutand F., L’IA des Lumières : pour un développement éthique de l’IA, févr. 2025, Cap Digital.
  2. Prospectiviste du numérique et de l’IA, Francis Jutand est vice-président et pilote du groupe-projet « Prospective IA et numérique » de la SFDP, auteur du rapport L’IA des Lumières, op. cit.
  3. Professeur de philosophie, morale, sociale et politique à l’université catholique de Louvain, Marc Hunyadi propose, face à l’IA, une « Déclaration universelle des droits de l’esprit humain ».
  4. Hunyadi M., Déclaration universelle des droits de l’esprit humain. Une proposition, 2024, PUF.
  5. Carine Dartiguepeyrou est politologue, prospectiviste et praticienne des valeurs. Elle travaille sur les évolutions et émergences socioculturelles. Elle est autrice et coordinatrice d’ouvrages, dont Dartiguepeyrou C. et Saloff-Coste M. (dir.), Futurs. Regards internationaux et pluridisciplinaires sur l’avenir du monde, 2022, ISTE Éditions.
  6. Advanced Semiconductor Materials Lithography est l’un des leaders mondiaux de la fabrication de machines de photolithographie pour l’industrie des semi-conducteurs.
  7. AlphaFold utilise des réseaux de neurones pour prédire avec précision la structure tridimensionnelle des protéines à partir de leurs séquences d’acides aminés.
×

A lire aussi