Protocoles d'annotation dans Sens Public
Ce projet vise à adopter un protocole d’évaluation entièrement ouvert pour la revue Sens public.
Dans l’état actuel du protocole de la revue, l’identité des évaluateur·ice·s est connue par les auteur·ice·s et réciproquement, mais les évaluateur·ice·s n’ont pas accès aux commentaires les un·e·s des autres.
Nous cherchons donc à élargir cette visée de transparence dans l’évaluation.
À l’aide de l’éditeur de texte Stylo et de l’outil d’annotation Hypothesis, Sens public veut permettre à tou·te·s les actant·e·s du processus de révision et d’évaluation d’intervenir ensemble, sur le même document.
Concrètement, les évaluateur·ice·s sont encouragé·e·s à formuler, à visage découvert, des commentaires qui seront visibles pour l’auteur·ice, mais aussi pour les autres évaluateur·ice·s.
Tou·te·s les participant·e·s pourront ensuite répondre et réagir aux commentaires.
Nous espérons ainsi favoriser le dialogue entre chercheur·euse·s et faire de la conversation un véhicule d’échange prometteur dans le processus de rédaction scientifique.
Il s’agit aussi, au fil des expérimentations, de penser à de nouveaux moyens de favoriser la conversation scientifique et d’améliorer le protocole selon les réflexions développées.
Problématique
Le processus d’évaluation par les pairs en double aveugle comporte son lot d’enjeux, notamment en ce qui concerne les hauts taux d’acceptation des articles et la faible quantité de modifications substantielles entre l’article soumis et celui qui est éventuellement publié.
Bien que l’évaluation ouverte ne représente pas la panacée face aux problèmes de l’évaluation à l’aveugle – les articles évalués à visage découvert ont un taux de rejet encore plus bas que les articles évalués en double aveugle – elle permet toutefois de déstabiliser le paradigme de la validation des savoirs dans le milieu scientifique.
Ce projet vise à dynamiser et à humaniser l’étape de l’évaluation des articles, afin qu’elle se présente moins sous la forme de formulaires, de rapports et de décisions relayées par l’éditeur·ice et davantage comme une discussion entre collègues autour d’un sujet d’intérêt commun.
Par le biais d’allers-retours permettant aux évaluateur·ice·s d’effectuer un travail collaboratif, les annotations ouvertes pourront également rendre l’étape d’édition de l’article plus riche pour l’auteur·ice.
Ce·tte dernier·e pourra en effet rebondir sur les remarques d’évaluation, en demandant des précisions, formulant des commentaires et justifiant certains choix, autant d’échanges qui stimuleront un retravail orienté et attentif des articles.
Enjeux techniques
Le processus d’évaluation actuel repose sur l’envoi par courriel d’un formulaire développé selon les besoins de Sens public, à remplir directement dans le courriel de retour, ainsi que de liens vers la prévisualisation Stylo de l’article à évaluer. Les évaluateur·ice·s sont ainsi libres de laisser des commentaires sur la page de prévisualisation de l’article par le biais d’annotations effectuées grâce à l’outil Hypothesis ou de ne remplir que le formulaire. Les commentaires ciblés sont souvent les plus riches pour les auteur·ice·s, et il s’agit donc d’encourager cette forme d’évaluation en fournissant un soutien technique, par vidéoconférences sur Jitsi, pour l’utilisation d’Hypothesis et de Stylo. La chaîne technique fera l’objet de transformations au fil des expérimentations sur le protocole d’évaluation.
Actions de recherche
1. Formulaire d’évaluation
- Apprécier la richesse des commentaires laissés dans le formulaire
- Tester la mise en place de consignes plus ou moins contraignantes pour la rédaction des commentaires dans le formulaire
- Ajuster les sections du formulaire pour favoriser la pertinence des évaluations selon les besoins des articles ou de la revue en général
- Prendre note de l’arrimage entre le formulaire et les annotations Hypothesis
2. Annotations Hypothesis
- Fournir aux évaluateur·ice·s un seul lien vers une même page Web afin que chacun·e puisse voir les commentaires Hypothesis de l’autre
- Établir un tableau statistique sur le nombre de commentaires laissés, prenant en compte l’ordre des évaluateur·ice·s (Évaluateur·ice 1 et Évaluateur·ice 2), et le nombre d’interactions entre évaluateur·ice·s
- Recueillir des données subjectives
- questions posées par les évaluateur·ice·s par courriel
- besoins en soutien technique
- réponses au processus d’évaluation
Livrables
- Protocole d'annotation adapté au cadre épistémologique de la revue Sens Public
- Documentation de l'expérience en vue d'éventuelles expériences similaires dans d'autres revues
- Diffusion des enjeux théoriques et techniques de l'expérience à travers une conférence internationale dans le domaine des humanités numériques