La théorie quantique des champs est le formalisme utilisé par les physiciens pour décrire le comportement des particules élémentaires, telles que les électrons, les photons ou les quarks. Jusqu’à aujourd’hui, cette théorie s’est avérée un succès retentissant. Pour rappeler un exemple célèbre, le calcul du moment magnétique de l’électron a conduit à la vérification expérimentale la plus précise d’une prédiction théorique de toute l’histoire des sciences.

Depuis ses débuts il y a environ 90 ans, la théorie quantique des champs a été conçue pour rendre compte de la nature à son niveau le plus fondamental : celui des particules élémentaires et de leurs champs quantiques correspondants. Mais ce formalisme pourrait-il être tout aussi efficace pour décrire un comportement « émergent » ? c’est-à-dire le type de phénomènes collectifs qui surviennent lorsque de nombreux constituants de base interagissent les uns avec les autres?

Un exemple typique de ce type de comportement est fourni par le cerveau humain. Bien qu’elle soit constituée d’éléments simples (les neurones) qui interagissent entre eux selon des règles relativement simples, ces interactions donnent rapidement naissance à des phénomènes collectifs véritablement nouveaux. Celles-ci résultent finalement d’interactions entre neurones, mais affectent le cerveau dans son ensemble. Dès lors, on peut se demander s’il est possible de concevoir une théorie physique décrivant avec précision cette classe de phénomènes collectifs.

Dans des travaux récents menés par notre groupe à l’université de Swansea et publiés en avril dernier dans Physical Review D , nous avons découvert une relation surprenante entre certaines théories quantiques des champs et certains algorithmes d’apprentissage automatique. Plus précisément, nous avons montré que certains réseaux de neurones et d’autres systèmes d’intelligence artificielle peuvent être directement décrits par des modèles informatiques de théories quantiques des champs. Ce résultat inattendu ouvre la voie à l’étude de l’apprentissage automatique à l’aide du formalisme de la théorie des champs, tout en offrant une nouvelle voie prometteuse pour étudier les fondements mathématiques de la théorie des champs elle-même.

Le lien entre la théorie des champs et l’intelligence artificielle découle d’un certain formalisme utilisé en physique des particules, connu sous le nom de théorie des champs sur réseau . Ce cadre s’écarte de celui largement utilisé en physique des particules, et sa principale caractéristique est qu’il modélise l’espace et le temps comme s’ils étaient constitués de « pixels » de taille finie. Cette façon de traiter l’espace-temps a l’avantage de parvenir à garder sous contrôle les équations à résoudre. Cependant, cela nécessite d’en résoudre un nombre gigantesque, ce qui signifie que cela ne peut se faire qu’à l’aide de supercalculateurs puissants.

Bien que cette technique de calcul en physique des particules remonte aux années 1970, ce n’est que ces dernières années, grâce à l’avènement des supercalculateurs modernes, qu’elle a réussi à augmenter sa précision. Dans la recherche de méthodes pour accélérer encore ces calculs exigeants, l’apprentissage automatique a été proposé comme l’une des solutions possibles.

L’une des méthodes d’apprentissage automatique les plus utilisées dans la théorie des champs sur treillis est celle basée sur les réseaux de neurones. Un réseau de neurones n’est rien d’autre qu’un ensemble de nœuds (« neurones ») interconnectés par des liens. D’un point de vue mathématique, de tels réseaux peuvent être décrits par un graphe : la représentation abstraite d’un ensemble de sommets reliés entre eux par des arêtes. Si l’on identifie chaque sommet à une variable d’un certain type, les arêtes reliant différents sommets introduisent une forme de dépendance entre les variables correspondantes.

Un point clé est que de telles structures basées sur des graphes sont également utilisées dans la théorie des champs sur treillis ; spécifiquement, pour représenter un champ quantique dans un espace-temps discret ou « pixelisé ». Grâce à ce parallélisme, il est possible de trouver un langage mathématique commun pour décrire à la fois l’apprentissage automatique et la théorie des champs sur treillis.

Ce langage mathématique courant est connu en termes techniques sous le nom de « champs aléatoires de Markov ». De manière simplifiée, ce formalisme décrit un ensemble de variables aléatoires dont chacune peut être identifiée aux nœuds d’un graphe. De telles variables doivent satisfaire la soi-disant « propriété de Markov », du nom du mathématicien russe du XIXe siècle Andrei Markov. Cette propriété établit que les événements qui se produisent dans une certaine région du graphe doivent être indépendants de ceux qui se produisent dans des zones éloignées.

La propriété de Markov est liée à une caractéristique connue sous le nom d’« amnésie » ( sans mémoire ) : le fait que l’état d’un système dépend uniquement de ce qui s’est passé à l’instant précédent, mais pas de ces événements qui se sont produits plus loin dans le passé. Dans certains algorithmes d’apprentissage automatique, tels que ceux utilisés dans le traitement d’images, cette propriété de Markov est utilisée pour découvrir des structures locales dans les images.

Dans le contexte des champs quantiques, la condition de Markov peut apparaître en raison de la discrétisation de l’espace-temps. Dans ce cas, la propriété de Markov est équivalente à la condition de localité : le principe physique bien connu selon lequel les événements qui se produisent dans une certaine région de l’espace-temps ne peuvent être affectés que par des événements proches, mais pas par ceux qui se produisent à des points distants; le même principe qui interdit l’existence d’actions instantanées entre des points distants de l’espace-temps).

Tous ces parallèles nous permettent d’anticiper une relation entre la théorie quantique des champs et l’apprentissage automatique. Dans nos travaux, nous avons établi qu’il en est bien ainsi en montrant que certaines théories des champs satisfont à un certain théorème connu sous le nom de « théorème de Hammersley-Clifford ». Il garantit rigoureusement que de telles théories de champ satisfont la condition de Markov et peuvent donc être reformulées en termes d’algorithmes d’apprentissage automatique.

Notre résultat ouvre la possibilité d’utiliser les théories des champs pour dériver de nouveaux algorithmes d’apprentissage automatique pour des tâches spécifiques, telles que la segmentation d’images (le processus de division d’une image en différentes parties, telles que les zones claires et sombres d’une image) . photographie en noir et blanc, par exemple). Cela est possible car les propriétés physiques des champs quantiques, telles que leur tendance à minimiser l’énergie et d’autres quantités, correspondent aux processus d’optimisation utilisés dans l’apprentissage automatique.

Par exemple, dans nos travaux, nous avons montré l’équivalence entre une certaine théorie quantique des champs et un algorithme qui peut être entraîné pour apprendre une image. Après la formation, si l’algorithme reçoit un ensemble aléatoire de pixels, il les réorganisera jusqu’à ce qu’il atteigne une « configuration d’équilibrage » qui reproduit fidèlement l’image d’origine.

Cette équivalence entre algorithmes et théories des champs pourrait faire émerger de nouvelles idées en intelligence artificielle. Par exemple, on sait depuis un certain temps que certains algorithmes peuvent être liés à la description mathématique de certains systèmes physiques, tels que les soi-disant « verres de spin » (une ligne de recherche lancée par le physicien italien Giorgio Parisi et que cette année a été récompensée par l’attribution du prix Nobel de physique). Nos résultats pourraient éclairer la manière d’interpréter ces algorithmes d’apprentissage automatique, qui peuvent désormais être étudiés avec des outils de théorie des champs.

À cet égard, il serait intéressant d’explorer les transitions de phase possibles dans ces algorithmes qui ont un équivalent en théorie quantique des champs. En physique, une transition de phase décrit un changement brusque dans les propriétés d’un système, comme lorsque l’eau bout et se transforme en vapeur. On sait depuis des années que, lors d’une transition de phase, des systèmes physiques très différents finissent par obéir aux mêmes lois, auquel cas on dit qu’ils appartiennent à la même « classe d’universalité ». C’est un concept très puissant en physique qui permet une bien meilleure compréhension des propriétés d’un système. Maintenant, nous pouvons explorer si ces algorithmes équivalents aux théories des champs subissent des transitions de phase au cours de leur processus d’apprentissage et, si c’est le cas, à quelle classe d’universalité ils appartiennent.

En plus d’utiliser la physique pour mieux comprendre l’intelligence artificielle, nos résultats ouvrent également la porte à l’utilisation de l’apprentissage automatique pour des applications physiques ; par exemple, pour approximer des théories de champ complexes par des théories plus simples. Aujourd’hui, les applications de l’apprentissage automatique à la théorie des champs peuvent encore être envisagées à ses balbutiements, de sorte que cette équivalence pourrait inspirer des pistes de recherche entièrement nouvelles.

Enfin, ce lien entre la physique fondamentale et l’apprentissage automatique peut être lié à une question très profonde et jusqu’à présent non résolue : quels sont les fondements mathématiques de la théorie quantique des champs?

Au cours des dernières décennies, cette question a été explorée sous de multiples angles. L’une d’entre elles est ce qu’on appelle la « théorie quantique constructive des champs », dont une partie traite de la question du point de vue des champs de Markov aléatoires. Par conséquent, cette connexion entre la théorie des champs et l’apprentissage automatique ouvre l’opportunité d’entamer un dialogue à l’intersection de la physique, de l’informatique et des mathématiques; celui qui pourrait finir par transformer les trois disciplines.

Previous articleUn algorithme qui conçoit des expériences quantiques
Next articleIl est temps d’exiger des explications de l’intelligence artificielle