7. « Imiter le vrai, ce n’est pas dire vrai »
Alexei Grinbaum est directeur de recherche et président du Comité opérationnel pilote d’éthique du numérique du CEA. Son tout récent livre Parole de machines décrit la relation des humains avec ces machines « parlantes » que sont les IA.
De quelle manière l’IA générative a-t-elle pénétré les domaines des sciences et de la recherche ?
Aujourd’hui, des systèmes peuvent écrire un poème, aider à résoudre un problème de mathématiques ou encore conseiller sur une recette de cuisine. L’humanité travaille avec ces outils, en particulier les jeunes générations qui vont grandir dans un monde peuplé d’IA génératives. La révolution des transformers de 2017, suivie par les évolutions que nous sommes en train de vivre ont permis de passer de systèmes pointus dans un domaine vers des systèmes d’IA génératives capables de travailler sur de multiples tâches. Il faut voir ces IA non pas comme des remplaçants mais comme des assistants, voire des collaborateurs. Cette révolution concerne aussi les sciences. Il existe des usages des systèmes d’IA générative dans le domaine scientifique auxquels nous n’avions peut-être pas pensé il y a une dizaine d’années.
Au sein de mon organisme de recherche par exemple, j’ai déjà l’habitude d’utiliser l’IA en appui avec mes post-docs. Alors que nous avions autrefois un rendez-vous hebdomadaire pour constater l’avancement de leur article de recherche, ils peuvent désormais se servir d’un outil comme ChatGPT en le configurant comme un directeur de recherche spécialiste. L’IA peut faire ressortir les points forts et les points faibles du papier, en formuler une critique, etc. L’IA, sorte de sparring partner, propose rarement des idées scientifiques intéressantes, mais s’avère très utile pour critiquer et aider à bien rédiger.
La manière dont nous publions commence elle aussi à évoluer. Ce n’est pas un secret : énormément de relecteurs passent par les chatbots. Notre système de relecture par les pairs va lui aussi évoluer. Certes, l’apprentissage des LLM (Large Language Model) est asémantique : ils n’analysent absolument pas le sens. En revanche, comme les relecteurs manquent très généralement de temps, leur envoyer un article très lourd de 40 pages n’est pas nécessairement très judicieux. Un passage par les LLM permettrait peut-être de faire une sélection des éléments les plus percutants de leurs travaux.
Cet article est réservé aux adhérents de la SFEN. Pour lire la suite et avoir accès à l’ensemble de nos archives, abonnez-vous à la Revue Générale Nucléaire.