Dans un article publié dans la revue Physica Scripta, la phrase «Régénérer la réponse» a été détectée par Guillaume Cabanac, informaticien à l’université de Toulouse et limier scientifique. Ainsi, un fort doute que les auteurs de l’article aient utilisé ChatGPT a ensuite été confirmé par les auteurs eux-mêmes. Néanmoins ils ne l’avaient pas déclaré au moment de la soumission, raison pour laquelle l’éditeur a décidé de retirer cet article. Kim Eggleton, responsable de l’évaluation par les pairs et de l’intégrité de la recherche chez IOP Publishing, l’éditeur de Physica Scripta à Bristol, au Royaume-Uni, déclare qu’«[il] s’agit d’une violation de [leurs] politiques éthiques».
Toutefois, il ne s’agit pas d’un cas isolé. En effet, nombreux sont les articles qui échappent aux évaluations des pairs: Monsieur Cabanac déclare avoir «repéré plus d’une douzaine d’articles de revues contenant les phrases révélatrices de ChatGPT «Régénérer la réponse» ou «En tant que modèle linguistique de l’IA, je…»» depuis avril 2023. Un autre problème qui se pose lorsqu’on fait une «utilisation malhonnête de ChatGPT» ce sont les références générées par ce logiciel: elles peuvent être fausses ou même ne pas exister lorsqu’on les recherche.
- recherche – qualité
- transformation numérique
- transparence – recherche
- recherche – éthique
- ChatGPT
- intelligence artificielle