Web

Tribunes

Intelligence artificielle : l’illusion de l’intelligence

Le 7 novembre 2019

Les techniques d’intelligence artificielle (IA) génèrent des vaccins, analysent des radiographies, répondent au téléphone, reconnaissent votre visage, conduisent nos voitures, pilotent nos usines, automatisent nos processus administratifs, fabriquent même des parfums !

 

Depuis le succès explosif du DeepLearning à l’ImageNet Large Scale Visual Recognition Challenge en 2012, les politiques, les industriels, et les médias ne cessent d’annoncer que l’IA constitue la prochaine révolution technologique.

 

À l’échelle mondiale, les grandes puissances économiques investissent des sommes colossales sur ce sujet et les GAFAM (Google, Amazon, Facebook, Apple, Microsoft) mènent la danse technologique depuis de nombreuses années grâce à leurs partenariats avec les universités les plus prestigieuses.

 

À sa hauteur, la France, patrie de nombreux scientifiques du domaine, s’est également emparée du sujet. En témoignent le rapport Villani, la création des Instituts Interdisciplinaires d’Intelligence Artificielle (3IA), la dynamique de l'Association française pour l’intelligence artificielle (AFIA) ainsi que les innombrables clusters, évènements, tables rondes sur le sujet.

 

 

L’IA, l’objet de tous les fantasmes !

Chaque percée technologique amène son lot de sceptiques et d’enthousiastes. Rappelons-nous qu’au début du XXe siècle, de Villedeuil annonçait que l’usage du train
« enflammeraient la rétine » à cause de la succession rapide des images[1]. L’IA aussi soulève la critique et les craintes, parfois à juste titre et parfois avec peu de rationalité. Notons que les dernières technologies naissantes tel que l’Internet des objets, la blockchain ou encore la réalité virtuelle n’ont pas amené un tel lot d’émotions et de craintes alors que leur impact sur le monde et l’industrie est tout aussi important. Lorsqu’on parle d’IA, les imaginaires se décuplent.

Deux visions de l’IA en toile de fond

Les « sachants » divergent sur le sujet. Deux camps idéologiques s’affrontent : le premier camp, celui d’Elon Musk ou d’Eric Sadin[2], nous mettent en garde devant la monstruosité et le potentiel destructeur de l’IA, redoutant les pires dystopies et scénarios de science-fiction. Le second camp, soutenu par Luc Julia[6], Yann Le Cun et bien d’autres scientifiques du domaine, nous rassure et met en évidence les potentiels et limites de ces technologies dîtes d’intelligence artificielle. À ma connaissance, seul le second camp connait l’envers du décor des réseaux de neurones.

Alors pourquoi observons-nous une telle tension à l’égard d’un ensemble de technologies, qui bien qu’émergentes, ancre leurs fondements dans les années 60 avec les travaux d’Alan Turing et Herbert Simon. Interrogeons-nous sur la nature de ce qu’on qualifie d’intelligence artificielle. De quoi parle-t-on exactement ? Comment les techniques modernes qualifiées d’intelligence artificielle fonctionnent ? Sont-elles réellement « intelligentes » ? Quel sont leur biais, leurs potentiels ?

Une question de sémantique

Tout d’abord la sémantique du terme d’Intelligence Artificielle nous apporte des indices. Initialement proposé par McCarty en 1956, le terme d’Intelligence Artificielle est proposé à une époque où il apparait probable de modéliser la complexité de l’intelligence humaine avec des ordinateurs. Nous savons aujourd’hui que nous en sommes encore très loin. Il est donc fort probable que le terme d’intelligence ait été choisi avec peu de nuance. En effet, le terme anglais « Intelligence » renvoie à la collecte et au traitement d’informations notamment dans la stratégie militaire. A contrario, le terme français d’intelligence souligne un rapport plus abstrait lié aux capacités conceptuelles, émotionnelles et adaptatives de l’homme. À cela s’ajoute le singulier régulièrement employé quant à l’Intelligence Artificielle. Il n’est pas une IA mais des IAs ou plus exactement des techniques qualifiées d’intelligence artificielle. La nuance est primordiale car l’emploi du pluriel rend caduque les pires dystopies dans lesquelles un SkyNet (l’IA du film Terminator) prendrait le contrôle du monde.

Cette dissonance linguistique nous indique pourquoi l’IA est perçue régulièrement à tort comme une entité à part entière plutôt qu’un énième mécanisme de traitement de l’information. Lorsqu’on regarde sous le capot des algorithmes d’IA, on trouve une grande quantité de statistiques et de manipulation de données chiffrées et peu d’intelligence à proprement parler.

Les rouages statistiques de l’IA

L’apprentissage automatique ou machine learning constitue le cœur des techniques d’IA faisant la première page des magazines spécialisés. Force est d’admettre que l’apprentissage automatique a ceci d’extraordinaire qu’il permet de produire des modèles non pas à partir d’un ensemble de connaissances issues de l’expertise humaine mais directement à partir des données d’un phénomène. Ainsi, il devient possible d’obtenir des modèles, des représentations en utilisant des exemples d’un phénomène sans avoir besoin d’impliquer une horde d’experts, d’ingénieurs et de statisticiens. L’apprentissage automatique permet de faire émerger (avec un degré de précision variable) des corrélations, des groupements dans des amas de données sans avoir beaucoup de connaissance préalable sur leur nature. Ainsi, on peut facilement demander à une machine de trouver les fonctions mathématiques expliquant un phénomène et les exploiter par la suite pour prédire, classer, prendre des décisions rationnelles. Encore faut-il avoir des données de qualité initialement…

Quand les données révèlent des facettes du monde

C’est ainsi que l’on arrive à faire écrire du texte à un ordinateur en lui montrant des sommes importantes d’exemples de phrases, de mots, de synonymes, etc. Dans nos assistants conversationnels, les mots se suivent et s’enchainent en respectant des probabilités contextuelles, sans que la machine ne comprenne pas un traitre mot de ce qu’elle écrit. De la même manière, il devient possible de détecter un cancer sur une radio, en s’appuyant sur les millions d’exemples pour lesquels nos chirurgiens ont correctement diagnostiqué la maladie, sans pour autant que la machine soit capable d’en tirer un diagnostic adapté. Et les exemples de ce type sont légions : reconnaitre des objets sur un flux vidéo pour guider les véhicules autonomes, détecter des fraudes dans des relevés bancaires, classer des livres, des films, des budgets, prédire les pannes dans nos usines, imputer des opérations comptables, etc.

Dès lors, l’illusion que la machine fait preuve d’intelligence est parfois bluffante. La réalité est que les données utilisées cachent des lois, des mécanismes de notre monde que l’IA ne fait que révéler. Est-ce pour autant intelligent ? La réponse est bien évidemment non. Ces techniques nous révèlent néanmoins certains mécanismes sous-jacents de nos organisations, nos cultures et nos vies. À compter du moment où des données sont disponibles et que l’homme dispose d’une expérience significative dans la manière de traiter ces données, il est possible de s’en remettre à l’apprentissage automatique pour en déduire les règles mathématiques qui régissent les processus existants.

Encore faut-il que les données fournies soient l’illustration précise des mécanismes à automatiser. Ce n’est malheureusement pas toujours le cas. C’est de cette manière que des IA deviennent racistes et misogynes, en conversant à l’identique comme les individus sur les réseaux sociaux. Les techniques d’IA ne deviennent que les révélateurs des travers de nos cultures et il nous incombe de rester prudents quant à la manière dont on les construit et utilise.

Penser l’IA comme un nouveau paradigme

Notons que ces techniques d’IA transforment aussi la manière de construire des algorithmes. Tout ou partie d’un logiciel peut désormais être construit par apprentissage plutôt que l’incarnation figée d’un ensemble de règles et de connaissances. En ce sens, l’IA pourrait être vue comme une forme de constructivisme mécanique. Ce nouveau paradigme offre un champ des possibles exponentiel, et rendra possible demain bien des idées qui restaient impensables hier, tant l’effort associé initialement paraissait colossal. Pour les équipes de développement logiciel, les ingénieurs, c’est une véritable révolution qui les conduira à revisiter complètement la manière dont ils construisent certaines applications et fonctionnalités.

Il est donc de la responsabilité de tous de rester éclairés quant à ces nouvelles mécaniques d’IA et au changement de paradigme qu’elles provoquent. Yann Ferguson, sociologue français, souligne à ce titre que le réel risque de l’IA est celui de l’enfermement dans nos schémas et du rejet de nos singularités, des exceptions, des imperfections qui sont les constituants de notre humanité.

A lire aussi