Andy craint de contracter le COVID-19. Incapable de lire tous les articles qu’il voit sur le sujet, il se tourne vers des amis de confiance pour obtenir des conseils. Quand on pense sur Facebook que la peur de la pandémie est exagérée, Andy écarte cette idée.
Mais ensuite, l’hôtel où il travaille ferme ses portes et, son travail étant menacé, Andy commence à se demander à quel point la menace du nouveau virus est vraiment sérieuse. Après tout, vous ne connaissez personne qui soit mort de l’infection. Un collègue partage un article affirmant que la « panique » du COVID-19 a été conçue par Big Pharma de mèche avec des politiciens corrompus, ce qui concorde avec les appréhensions d’Andy à propos du gouvernement. Une recherche sur Internet vous mène rapidement à des pages qui prétendent que le COVID-19 n’est pas pire que la grippe. Andy rejoint un groupe virtuel de personnes qui ont été licenciées ou qui craignent que cela n’arrive et se demandent bientôt, comme beaucoup d’entre eux, si la pandémie est réelle. Lorsqu’elle découvre que plusieurs de ses nouveaux amis envisagent de participer à une manifestation anti-confinement, elle décide de les accompagner. Presque aucun des participants à la manifestation de masse ne porte de masque, et lui non plus. Plus tard, sa sœur l’interroge sur la manifestation, et Andy transmet une conviction qui fait déjà partie de son identité : le COVID-19 est un canular. Presque aucun des participants à la manifestation de masse ne porte de masque, et lui non plus. Plus tard, sa sœur l’interroge sur la manifestation, et Andy transmet une conviction qui fait déjà partie de son identité : le COVID-19 est un canular. Presque aucun des participants à la manifestation de masse ne porte de masque, et lui non plus. Plus tard, sa sœur l’interroge sur la manifestation, et Andy transmet une conviction qui fait déjà partie de son identité : le COVID-19 est un canular.
Cet exemple illustre une profusion de biais cognitifs. Nous préférons les informations provenant de personnes en qui nous avons confiance, notre « endogroupe ». Nous accordons plus d’attention aux informations sur les risques (perte d’emploi, dans le cas d’Andy) et sommes plus susceptibles de les partager. Nous recherchons et nous souvenons des choses qui correspondent à ce que nous savons et comprenons déjà. Ces préjugés sont le produit de notre passé évolutif et nous ont aidés pendant des dizaines de milliers d’années : ceux qui se comportaient en conséquence (par exemple, ne pas s’approcher du bord d’un étang où quelqu’un prétendait avoir vu un serpent) étaient plus susceptibles de survivre.
Cependant, les nouvelles technologies amplifient ces biais de manière pernicieuse. Les moteurs de recherche dirigent Andy vers des pages qui exacerbent ses soupçons, et les médias sociaux le mettent en contact avec des personnes partageant les mêmes idées, alimentant ses peurs. Pour aggraver les choses, les bots (comptes automatisés qui se font passer pour des personnes) permettent à des acteurs mal informés ou malveillants de tirer parti de leurs vulnérabilités.
La prolifération des informations en ligne aggrave le problème. Afficher et créer des blogs, des vidéos, des tweets et des mèmes est devenu si facile et abordable que le marché de l’information en est inondé. Incapables de traiter tout ce matériel, nous laissons nos biais cognitifs décider où nous devons diriger notre attention, et ces raccourcis mentaux influencent de manière préjudiciable les types d’informations que nous recherchons, comprenons, retenons et répétons.
Il est urgent de comprendre ces vulnérabilités cognitives et comment elles sont utilisées ou manipulées par les algorithmes. Nuestros equipos en la Universidad de Warwick y en el Observatorio de Redes Sociales (OSoMe, por sus siglas en inglés) de la Universidad de Indiana en Bloomington emplean experimentos cognitivos, simulaciones, minería de datos e inteligencia artificial para comprender las vulnerabilidades de los usuarios de réseaux sociaux. Les études psychologiques de l’évolution de l’information menées à Warwick guident les modèles informatiques conçus en Indiana, et vice versa. Nous développons également des outils d’analyse et de machine learning pour lutter contre la manipulation sur les réseaux sociaux. Certains d’entre eux aident déjà les journalistes, les organisations de la société civile et les citoyens ordinaires à repérer les faux acteurs.