L’intelligence artificielle (IA) connaît un nouvel essor. Les succès de la technique connue sous le nom d’apprentissage en profondeur ont été présentés par de nombreux scientifiques, entreprises et médias comme la preuve que l’IA générale est à portée de main. C’est certain?
La réalité est très différente. Une analyse minutieuse révèle que les algorithmes actuels restent sujets à des erreurs catastrophiques, manquent de capacités de raisonnement et de contextualisation et ne possèdent rien qui ressemble de loin au bon sens humain.
Cela s’explique par le fait que, ces dernières années, la recherche en IA s’est concentrée sur la construction de machines efficaces à des fins spécifiques et très lucratives, mais aussi à des fins extrêmement limitées. Le coût social et scientifique d’une telle dérive pourrait être énorme.
Aujourd’hui, nous vivons un nouveau printemps d’intelligence artificielle. Et, comme aux printemps précédents, les prédictions abondent que l’arrivée de machines dotées d’une intelligence générale égale ou supérieure à celle des humains sera l’affaire de quelques décennies, et que cela nous conduira à la soi-disant « singularité »: le moment où les machines feront tout bien mieux que nous, y compris la recherche scientifique elle-même, ce qui donnera lieu à une nouvelle étape évolutive connue sous le nom de posthumanisme.
Ce printemps de l’IA, vêtu d’un nouveau costume, est-il l’indicateur que nous sommes bel et bien proches de réaliser le rêve de l’intelligence artificielle générale ? Ou peut-être que l’intelligence artificielle est nue, comme l’empereur dans le conte de Hans Christian Andersen, et que le moment présent n’est qu’une étape de plus sur le très long chemin vers ce rêve ?
Dans les lignes qui suivent, je soutiendrai qu’en effet, l’intelligence artificielle (IA) est encore nue. Pour comprendre pourquoi, il est nécessaire d’analyser l’origine de la fièvre que nous connaissons, quelles sont les applications spécifiques qui ont donné lieu à toutes sortes de déclarations et de titres exagérés, et comment fonctionnent réellement ces applications et ce qui ne va pas avec elles. Comme nous le verrons, l’IA actuelle est loin d’atteindre l’objectif de l’IA générale. Et ce n’est pas parce qu’il reste quelques détails à peaufiner ou un manque de puissance de calcul, mais plutôt à cause de l’approche qu’a prise cette discipline ces dernières années. Ce qui devrait nous effrayer, ce n’est pas une singularité future due à l’existence hypothétique de superintelligences artificielles, mais un présent dans lequel nous confions de plus en plus de décisions à des machines stupides.
L’engouement actuel pour l’IA découle des avancées récentes de la technique connue sous le nom d’apprentissage en profondeur (le « nouveau costume ») dans le contexte de la reconnaissance d’images, des jeux de société et du traitement du langage.
Tout a commencé en 2012, lorsqu’une équipe de l’Université de Toronto dirigée par Geoffrey Hinton est parvenue à obtenir un type de réseau de neurones, dit « convolutionnel », permettant d’atteindre un taux correct de 85 % en classant, parmi mille catégories possibles, 150 000 images. de la base de données .ImageNet. De tels réseaux avaient été introduits en 1980 à partir des travaux du chercheur japonais Kunishiko Fukushima, qui avait mis au point le « néocognitron », un réseau de neurones artificiels inspiré, quant à lui, des études de David Hubel et Torsten Wiesel sur le système visuel des animaux, travaux pour lesquels ces chercheurs ont reçu le prix Nobel en 1981 [ voir « Brain Mechanisms of Vision », de David H. Hubel et Torsten N. Wiesel ; Recherche et science, novembre 1979].
Hubel et Wiesel ont découvert que notre cortex visuel est organisé selon une hiérarchie de couches, de sorte que les neurones contenus dans chaque couche détectent des caractéristiques de complexité croissante dans les objets d’une image. Par exemple, les neurones de la première couche se déclenchent lorsqu’ils détectent des caractéristiques simples, telles que les bords d’objets. Ils transmettent ensuite leur niveau d’activation aux neurones de la deuxième couche, où des caractéristiques un peu plus complexes sont détectées, qui correspondent essentiellement à des combinaisons des caractéristiques détectées dans la couche précédente (par exemple, un ensemble d’arêtes qui donnent naissance à un polygone, un cercle, une ellipse, etc.). Le processus se poursuit jusqu’à atteindre la dernière couche, qui détecte des objets entiers et permet de les identifier. Par exemple, si l’image contient un visage.