Définition d’un cadre pour l’utilisation d’outils d’IA par les candidates et candidats, et évaluatrices et évaluateurs auprès du fnrs
L’utilisation des chatbots dans le monde de la recherche est d’ores et déjà une réalité : développement de codes informatiques, recherche d’informations, assistance à la rédaction et autres multiples cas d’utilisation font de ChatGPT et GPT-4 de précieux outils. Il est dès lors crucial d’anticiper les potentiels incidents et de sensibiliser les chercheuses et chercheurs à une utilisation responsable de ces outils.
Par exemple, la dernière révision du code de conduite européen pour l’intégrité en recherche[1] tient compte des récentes avancées en IA. On peut notamment y lire les passages suivants :
“Researchers report their results and methods, including the use of external services or AI and automated tools, in a way that is compatible with the accepted norms of the discipline and facilitates verification or replication, where applicable.”
“(...) examples of other unacceptable practices include, but are not confined, to: (...) Hiding the use of AI or automated tools in the creation of content or drafting of publications.”
L’objectif visé est donc la transparence. S’il ne fait aucun doute que les outils IA ont des potentialités pouvant être exploitées positivement en recherche, l’Allea (All European Academies) estime qu’il est crucial que leur utilisation soit clairement mentionnée[2].
Définition d’un cadre pour l’utilisation des outils d’IA
Les décisions reprises ci-dessous concernent tous les outils d’IA et ne se limitent pas à ChatGPT.
- Candidates et candidats
L’utilisation d’outils d’IA pour la rédaction de dossiers de candidature est autorisée sous réserve que la candidate ou le candidat documente l’utilisation qu’il en fait : la mention explicite de toute utilisation d’outils IA dans le cadre de la rédaction de leur projet de recherche est exigée. Cette proposition est alignée sur les principes du code de conduite européen pour l’intégrité en recherche
En pratique, un champ dédié à cette fin sera inséré dans le formulaire électronique de candidature sur la plateforme e-space pour les (à partir des) appels ouverts en 2024.
- Évaluatrices et évaluateurs
L’utilisation des outils d’IA dans le travail d’évaluation des expertes et experts à distance et des membres de Commissions scientifiques est interdite, ces outils ne fournissent notamment aucune garantie quant au respect de la confidentialité des informations qui leurs sont fournies.
Il sera fait mention de cette interdiction aux étapes suivantes :
- dans le guide de l’évaluateur ;
- sur la plateforme e-space lorsque les évaluateurs devront compléter leurs évaluations ;
- au niveau du Data Protection Agreement qui doit être validé par toute personne en charge d’une évaluation.
[1] Allea / All European Academies – The European Code of Conduct for Research Integrity, https://allea.org/code-of-conduct/, consulté le 07/07/2023
[2] Ibid.