Retours sur le cycle des ateliers IA
Retours et synthèses des réflexions issues du cycle d’atelier "IA et Recherche"
Six ateliers IA ont eu lieu en ligne au cours de la session d’hiver 2025. Les intervenant·e·s, Frédéric Clavert, Nicolas Sauret, Samuel Szoniecky, Gérald Kembellec, Joaquine Barbet, Servanne Monjour et Lise Verlaet nous ont tour à tour proposé des réflexions autour de l’automatisation des pratiques de recherche et d’édition scientifique. Un septième et dernier atelier a eu lieu dans le cadre des états généraux du réseau Circé le 8 mai 2025, il a été l’opportunité de revenir sur l’ensemble des ateliers et notamment des discussions qui ont eu lieu.
Frédéric Clavert a présenté la fonction d’explication automatique de code dans les articles du JDH.
Nicolas Sauret et Samuel Szoniecky ont proposé une réflexion sur le positionnement éthique lié à l’utilisation des IA génératives en partant du projet Revue3.0 comme point de départ à la rédaction d’un document cadre.
Gérald Kembellec et Joaquine Barbet ont présenté les conclusions d’un projet d’automatisation de la production de résumés pour des revues savantes.
Gérald Kembellec, seul cette fois, a amorcé une conversation sur la notion de palimpseste numérique pour une structuration sémantique des données numériques.
Servanne Monjour a présenté le projet sur la révision bibliographique assistée par IA effectué avec la revue Humanités numériques.
Lise Verlaet a présenté les réflexions sur l’utilisation d’un assistant d’édition scientifique sous la forme d’une IA générative pour la plateforme NumeRev ainsi que les conclusions préliminaires d’un questionnaire envoyé par des masterant.e.s aux utilisateur.ice.s de NumeRev sur leurs usages de l’IA.
Alexia Schneider et Marcello Vitali-Rosati ont proposé une réflexion sur l’automatisation dans le contexte de la chaîne éditoriale des revues savantes à partir du cas pratique de l’obtention d’une liste d’évaluateur.ice.s automatique.
Participant·e·s et intervenant·e·s étaient des coordinateur·ice·s de revues en SHS et différent·e·s chercheur·se·s interressé·e·s sur le sujet et lié·e·s à Revue3.0.
Le format d’une heure était réparti en 15 minutes environ de présentation suivies de 45 minutes d’échange.
Ce document propose une synthèse des problématiques soulevées au cours des échanges.
Problématiques soulevées par les ateliers
Quelles tâches peuvent être automatisées ?
Dans le champ de la recherche et de l’édition scientifique, de nombreuses tâches techniques ou répétitives semblent être éligibles à l’automatisation. Cela inclut la mise en forme des manuscrits selon des normes éditoriales, la détection de plagiat, l’indexation automatique, la génération de résumés ou de mots-clés, l’extraction de métadonnées, voire la présélection d’articles selon des critères définis. Du côté de la recherche, des processus comme la revue de littérature, la classification de corpus, l’analyse statistique ou la traduction assistée peuvent également bénéficier de systèmes automatisés. Ces usages permettent supposément de gagner en efficacité, mais posent aussi la question du degré d’intervention humaine souhaité dans des activités historiquement évaluées sur leur rigueur et leur contextualisation critique.
Quelles tâches voulons-nous automatiser ?
L’adoption rapide d’outils d’IA générative sur des tâches très variées laisse voir que potentiellement tout peut être automatiser et que la question se situe plutôt dans ce que nous voulons ou acceptons de déléguer à des machines. La volonté d’automatiser certaines tâches dépend moins des capacités techniques actuelles que des valeurs que la communauté scientifique souhaite préserver. Il ne s’agit pas seulement d’optimiser les flux de production, ce qui fait le jeu du paradigme de l’hyperproductivité, mais de déterminer quelles tâches sont compatibles avec une délégation à des machines sans compromettre la qualité ou l’éthique scientifique.
Le fait que la délégation de certaines tâches comme l’édition ou la relecture grammaticale soit plus facilement acceptée, par comparaison à la réticence de l’automatisation de tâches impliquant une responsabilité comme la sélection des articles ou la génération de contenus révèle un système de valeur potentiellement ébranlé par les capacités des IA génératives. La tension entre efficacité et responsabilité domine aujourd’hui le débat sur les usages de l’IA. En tentant de définir un compromis acceptable entre gain de temps et de ressources et délégation des tâches à fortes valeurs scientifiques nous observons en réalité la redéfinition des notions fondamentales de scientificité.
Quel est le standard actuel ? ChatGPT ?
L’arrivée de ChatGPT a marqué un tournant dans la diffusion massive d’outils d’IA générative accessibles au grand public et aux chercheurs. Son usage s’est rapidement étendu à des tâches comme la reformulation, la génération de résumés ou la stimulation d’idées. Toutefois, son statut reste ambivalent : outil d’appoint pour certains, menace pour d’autres, il soulève des questions sur la propriété intellectuelle, la fiabilité des contenus produits et l’effacement des sources. ChatGPT cristallise ainsi les débats sur l’usage éthique et méthodologique des IA dans la recherche, en rendant visible des pratiques parfois discrètes, voire non déclarées.
Actuellement, il n’existe pas de standard unifié dans l’usage de l’IA et la description de ces usages dans les milieux scientifiques. Les pratiques varient fortement selon les disciplines, les revues, et les contextes institutionnels. Certaines plateformes d’édition intègrent déjà des outils d’aide à la rédaction, de vérification automatique ou de recommandation bibliographique, mais souvent sans transparence sur leur fonctionnement. Du côté de la recherche, les standards en matière d’IA restent en construction, notamment en ce qui concerne la traçabilité des outils utilisés, l’évaluation de la qualité des sorties générées, ou l’intégrité des données produites par des modèles probabilistes.
Quelles sont les nouvelles pratiques discrètes (Mullet et Clavert, 2021) ?
À l’image de ce que Mullet et Clavert qualifient de « pratiques discrètes », l’IA générative est souvent utilisée en coulisses : reformulation de paragraphes, aide à la rédaction en langue étrangère, génération de résumés ou d’e-mails pour les auteurs ou les évaluateurs. Ces usages ne sont pas toujours mentionnés explicitement, mais ils modifient les gestes ordinaires de la recherche et de l’édition. Ils transforment aussi la répartition du travail et la perception des compétences : que signifie encore « bien écrire » si un outil peut générer du texte fluide à partir d’un prompt rudimentaire ?
Uniformisation des pratiques et adaptation à un outil générique ?
L’adoption d’outils comme ChatGPT ou d’IA généralistes pourrait conduire à une standardisation des formats et des contenus scientifiques. En se pliant aux logiques d’un outil conçu sur des modèles linguistiques dominants, les chercheur.se.s risquent d’adapter leur manière d’écrire ou de structurer leur pensée pour correspondre aux réponses attendues ou aux formes valorisées par ces systèmes. Cela pose la question d’une possible homogénéisation des pratiques scientifiques au détriment de la diversité épistémologique, linguistique et méthodologique.On assisterait ainsi au développement moins d’une IA générale que d’une utilisation générale et généraliste de l’IA. Et derrière l’outil générique, c’est une culture implicite de la recherche qui se trouve peu à peu alignée sur les standards d’un modèle entraîné pour la performance linguistique plus que pour la rigueur critique.
S’agit-il seulement de trouver des alternatives plus performantes ou plus éthiques à ChatGPT ?
La question dépasse largement la simple recherche d’outils « meilleurs » et celle de comparer les différents modèles existants. Elle renvoie à des choix de société et de politique scientifique : quels acteurs voulons-nous soutenir (start-ups locales, consortiums publics, entreprises privées mondialisées) ? Quels critères d’éthique et de transparence sont exigés des systèmes utilisés dans l’évaluation, la publication ou l’écriture scientifique ? Trouver des alternatives suppose aussi de réfléchir aux modèles économiques et aux infrastructures sociotechniques qui sous-tendent l’usage de l’IA dans nos métiers. Cela implique de ne pas seulement comparer les performances, mais d’évaluer l’impact global de ces outils sur l’écosystème de la recherche.
L’IA générative questionne certains fondements de la recherche et de l’édition
L’usage d’IA générative met en tension plusieurs piliers de la scientificité. Par exemple, si une bibliographie peut être automatiquement générée à partir de résumés ou de prompts, elle perd son statut de trace d’un travail intellectuel préalable et situé. Elle ne peut plus être l’indicateur de connaissance et de maîtrise des normes bibliographiques de sa discipline. L’automatisation des pratiques bibliographiques, rédactionnelles ou évaluatives peut transformer la perception de ce qui fonde la validité d’un travail scientifique et renforcer le désintérêt des chercheur.euse.s vis-à-vis de ces fondements de la scientificité.
Que faisons-nous du gain de temps supposé ?
Le principal argument en faveur de l’IA est souvent le gain de temps ou de ressources humaines. Mais ce temps libéré est rarement réinvesti dans l’amélioration qualitative des travaux : il est le plus souvent absorbé par une pression accrue à produire davantage. Cela alimente une logique de productivité continue, où l’accélération des processus ne va pas de pair avec une revalorisation de l’attention, de la lenteur ou de la rigueur. Le risque est que l’IA serve moins à mieux penser qu’à penser plus vite, au prix d’un affaiblissement de la réflexivité scientifique. L’enjeu est donc de savoir comment transformer ce gain de moyens en opportunité pour repenser nos finalités, nos rythmes et nos exigences dans la production de savoir.
Conclusion du cycle d’échange
Les échanges ont mis au jour un intérêt croissant de la part des participant.e.s pour la rédaction de guides pratiques voire éthiques des différents outils d’IA ce qui révèle aussi un besoin de formalisation d’une typologie de l’IA et des pratiques associées dans le cadre de la recherche scientifique et de l’édition savante.
Se dessine alors un rôle privilégié pour la communauté des Humanités Numériques en tant qu’intermédiaire disciplinaire de choix pour répondre à cette demande.
Bibliographie
Muller, Caroline, and Frédéric Clavert. 2021. “De La Poussière à La Lumière Bleue: Émotions, Récits, Gestes de l’archive à l’ère Numérique.” Signata, no. 12 (May). https://doi.org/10.4000/signata.3136.