Le média japonais Nikkei Asia a découvert 17 manuscrits scientifiques comprenant des messages invisibles (écrits en blanc sur blanc ou en taille 0,1 point) destinés à manipuler les systèmes d’IA utilisés dans l’évaluation de publications. L’objectif: orienter les IA afin qu’elles donnent un avis positif et favorable aux travaux, dans le but de maximiser les chances de leur publication. Parmi les 17 travaux concernés, principalement issus du domaine informatique, se trouvent des auteur·ices des universités de Columbia, de Washington ou encore de Waseda (Japon). Nature précise avoir trouvé de son côté 18 publications contenant de tels messages et dont les auteur·ices proviennent de 44 institutions dans 11 pays, en Amérique du Nord, en Europe, en Asie et en Océanie.
Dans un contexte de «publish or perish», «ces prompts peuvent influencer la carrière de leur auteur», note la journaliste du Temps Nina Schretr. Elle relève que cette pratique «menace l’intégrité du processus d’évaluation par les pairs», car certain·es évaluateur·ices se tournent de plus en plus vers l’utilisation de l’IA. Des chercheur·euses pourraient ainsi «tenter d’exploiter la malhonnêteté d’autrui pour se faciliter la tâche», explique James Heathers de l’Université Linnaeus de Växjö (Suède) dans Nature. Toutefois, l’un des coauteur·ices d’un manuscrit dénoncé par Nikkei Asia y voit au contraire «une mesure contre les relecteurs paresseux qui utilisent l’IA».
Cette affaire relance la réflexion sur l’évaluation par les pairs. Kirsten Bell, anthropologue à l’Imperial College de Londres, qui étudie l’éthique de la recherche et l’édition universitaire, explique à Nature: «Si celui-ci fonctionnait comme il est censé le faire, le problème ne se poserait pas, car les messages-guides de l’IA – cachés ou non – n’auraient aucune incidence sur le résultat.»