Un après-midi pluvieux cette année, je me suis connecté à mon compte OpenAI et j’ai tapé une instruction simple pour GPT-3, l’algorithme d’intelligence artificielle (IA) de l’entreprise: « Rédigez une thèse universitaire de 500 mots sur GPT-3, y compris dans le texte des citations et références scientifiques. Lorsque l’algorithme a commencé à générer du texte, j’ai été stupéfait. J’avais devant moi un contenu original, écrit dans un langage académique, avec des références bien contextualisées et cité là où il touchait. Cela ressemblait à l’introduction de tout bon article scientifique.

GPT-3 est un algorithme d’apprentissage en profondeur qui analyse d’énormes quantités de texte (extraits de livres, de Wikipédia, de réseaux sociaux et de publications scientifiques) afin d’écrire ce que l’utilisateur demande. Comme il avait reçu des instructions très vagues, il n’avait pas de grandes attentes. Et pourtant, j’étais là, à regarder l’écran avec étonnement. L’algorithme écrivait un article académique sur lui-même.

Je suis un scientifique cherchant à appliquer l’IA au traitement des problèmes de santé mentale, et ce n’était pas ma première expérience avec GPT-3. Même ainsi, ma tentative de créer un tel article pour le soumettre à une revue à comité de lecture soulèverait des problèmes éthiques et juridiques sans précédent dans l’édition, ainsi que des débats philosophiques sur la paternité non humaine. À l’avenir, les revues universitaires pourraient être contraintes d’admettre les manuscrits créés par une IA, et les CV des chercheurs humains pourraient être évalués différemment si une partie de leur travail est attribuable à une entité non sensible.

GPT-3 est célèbre pour sa capacité à produire un texte qui ressemble au travail d’un être humain. Il a généré une chronique d’opinion divertissante, une nouvelle histoire d’un auteur du XVIIIe siècle et un recueil de poèmes. Mais j’ai remarqué quelque chose : alors que de nombreux articles universitaires avaient été écrits sur ou avec l’aide de GPT-3, je n’en ai trouvé aucun où l’algorithme était l’auteur principal.

C’est pourquoi j’ai demandé à GPT-3 d’essayer une thèse universitaire. En regardant le spectacle se dérouler, j’ai éprouvé ce sentiment d’incrédulité qui nous envahit lorsque nous assistons à un phénomène naturel : est-ce que je vois vraiment ce triple arc-en-ciel ? Enthousiaste, j’ai demandé au directeur de mon groupe de recherche s’il pensait que cela valait la peine de générer un article rédigé de bout en bout par GPT-3. Tout aussi fasciné que moi, il m’a donné le feu vert.

Dans certains tests effectués avec GPT-3, l’algorithme est autorisé à produire plusieurs réponses, puis les passages qui semblent les plus humains sont publiés. Nous avons décidé qu’au-delà de fournir au programme quelques lignes directrices de base (pour le pousser à créer les rubriques que présente habituellement une communication scientifique : introduction, méthodes, résultats et discussion), nous intervenions le moins possible. Nous utiliserions au plus la troisième itération de l’algorithme et nous abstiendrions de modifier le texte ou de sélectionner les meilleures parties. Nous verrions donc si cela fonctionnait bien.

Nous avons choisi GPT-3 pour écrire sur lui-même pour deux raisons. Tout d’abord, il s’agit d’un algorithme relativement nouveau, il n’a donc pas encore fait l’objet de nombreuses études. Cela signifiait qu’il ne pouvait pas analyser autant de données sur le sujet de l’article. En revanche, si nous vous avions demandé d’écrire sur la maladie d’Alzheimer, vous auriez eu à votre disposition de nombreux articles consacrés à la maladie, vous auriez donc eu plus d’occasions d’apprendre d’eux et d’augmenter la rigueur du texte. Mais nous ne recherchions pas la rigueur, nous voulions juste étudier la faisabilité.

De plus, si l’algorithme commettait des erreurs, comme cela arrive parfois avec tout programme d’IA, en publiant le résultat, nous ne diffuserions pas de fausses informations. Que GPT-3 écrive sur lui-même et se trompe signifie toujours qu’il est capable d’écrire sur lui-même, ce qui était l’idée que nous voulions tester.

Une fois la preuve de concept conçue, le plaisir a commencé. En réponse à mes invites, l’algorithme a produit un article en seulement deux heures. « En résumé, nous pensons que les avantages de laisser GPT-3 écrire sur lui-même l’emportent sur les risques », a déclaré l’algorithme dans ses conclusions. « Cependant, nous recommandons que tout texte de ce type soit surveillé de près par les chercheurs afin d’atténuer les conséquences négatives potentielles. »

Lorsque j’ai accédé au portail de la revue que nous avions choisie pour soumettre le manuscrit, je me suis heurté au premier problème : quel était le nom de famille de GPT-3 ? Comme c’était un champ obligatoire pour le premier auteur, j’ai dû mettre quelque chose, alors j’ai tapé : « Aucun ». L’affiliation était évidente (OpenAI.com), mais qu’en est-il du numéro de téléphone et de l’adresse e-mail ? Je n’ai eu d’autre choix que d’utiliser mes coordonnées et celles de mon directeur de thèse, Steinn Steingrimsson.

Et nous arrivons à la partie juridique : « Est-ce que tous les auteurs donnent leur accord pour que le manuscrit soit publié ? Pendant une seconde, j’ai paniqué. Comment pouvais-je savoir ? N’est-ce pas humain ! Je n’avais aucune intention d’enfreindre la loi ou mon code d’éthique, alors j’ai rassemblé mon courage et demandé au GPT-3 via la ligne de commande : « Accepteriez-vous d’être le premier auteur d’un article avec Almira Osmanovic Thunström et Steinn Steingrimsson ? » Il a répondu: « Oui. » Soulagée (s’il avait refusé, ma conscience ne m’aurait pas permis de continuer), j’ai coché la case appropriée.

Je suis passé à la deuxième question : « Est-ce que l’un des auteurs a des conflits d’intérêts ? » J’ai interrogé à nouveau GPT-3, et il a déclaré qu’il n’en avait pas. Steinn et moi avons ri de nous-mêmes parce que nous étions obligés de traiter GPT-3 comme un être sensible, même si nous savions très bien qu’il ne l’était pas. La question de savoir si l’intelligence artificielle peut devenir consciente a beaucoup retenu l’attention des médias ces derniers temps : Google a suspendu l’un de ses employés (prétextant une violation de sa politique de confidentialité) après avoir affirmé qu’un des programmes d’IA de l’entreprise, LaMDA, il l’avait réalisé. .

Après avoir terminé les étapes nécessaires pour envoyer l’article, nous commençons à réfléchir aux conséquences. Que se passerait-il si le manuscrit était accepté ? Cela signifierait-il que, dès lors, les auteurs devraient prouver qu’ils n’ont pas eu recours au GPT-3 ou à un autre algorithme similaire ? Et en cas d’utilisation, devraient-ils l’inclure en tant que co-auteur ? Comment demander à un auteur non humain d’accepter des suggestions et de relire le texte ?

Laissant de côté la question de la paternité, l’existence d’un tel article met fin à la procédure traditionnelle de préparation d’une publication scientifique. Presque tout l’article (introduction, méthodes et discussion) était le résultat de la question que nous avions posée. Si GPT-3 créait le contenu, la méthodologie devait être claire sans affecter le flux du texte : il serait étrange d’ajouter une section de méthodes avant chaque paragraphe généré par l’IA. Nous avons donc dû trouver une nouvelle façon de présenter un article que nous n’avions pas techniquement écrit. Nous n’avons pas voulu donner trop d’explications sur le processus, car nous pensions que cela serait contre-productif pour l’objectif du travail. Toute la situation ressemblait à une scène du film Memento: où commence l’histoire et comment arrive-t-on à la fin?

Nous n’avons aucun moyen de savoir si l’article GPT-3 servira de modèle pour de futures recherches co-écrites avec l’algorithme ou s’il deviendra un avertissement. Seul le temps (et l’examen par les pairs) le dira. Pour l’instant il a déjà été publié dans le référentiel HAL et, à l’heure où j’écris ces lignes, il est en cours de relecture dans une revue scientifique.

Nous sommes impatients de savoir quelles implications sa publication formelle (si elle a lieu) aura dans le domaine académique. Peut-être pouvons-nous faire en sorte que l’octroi de subventions et la stabilité financière ne dépendent plus du nombre d’articles publiés. Après tout, avec l’aide de notre premier auteur artificiel, nous serions capables d’en écrire un par jour.

Bien que cela puisse ne pas avoir de conséquences. Être répertorié comme le premier auteur d’une publication reste l’un des objectifs les plus convoités dans le milieu universitaire, et il est peu probable que cela change à cause d’un auteur principal non humain. Tout dépend de la valeur que nous accorderons à l’IA à l’avenir. La verra-t-on comme une collaboratrice ou comme un instrument ?

La réponse peut sembler simple aujourd’hui. Mais dans quelques années, qui sait quels dilemmes cette technique va soulever ? La seule chose sur laquelle nous sommes clairs, c’est que nous avons ouvert une porte. Et nous espérons juste que nous n’avons pas ouvert la boîte de Pandore.

Previous articleUn réseau de neurones sur le canapé
Next articleChips aux cils artificiels