Recherche documentaire et IA : il est temps de mettre à jour notre propre système

Un billet que j’ai trouvé particulièrement éclairant dans cette période où l’IA* est partout, c’est celui-ci : “We’re Good at Search”… Just Not the Kind That the AI era Demands – a Provocation, dans lequel Aaron Tay dit, en substance, que les bibliothécaires ne sont pas subitement devenus des quiches en recherche, mais qu’ils et elles doivent mettre à jour leur « système d’exploitation » pour mieux appréhender les ressources et outils documentaires boostés à l’IA que l’on commence à leur vendre.

Nous vivons désormais dans un monde défini par une terminologie peu familière : recherche en langage naturel, recherche sémantique, « dense embedding », « vector embedding », génération augmentée par récupération, recherche approfondie, recherche agentique. Il ne s’agit pas seulement de mots à la mode, mais de familles d’approches fondamentalement différentes de la recherche d’informations, avec des compromis et des implications différents à mesure que nous allons au-delà de la simple recherche booléenne.

Aaron observe cependant que, quand ils et elles évaluent une ressource, les bibliothécaires ont tendance à se concentrer sur les fonctionnalités « externes » de la ressource, beaucoup plus que sur la pertinence intrinsèque de la recherche : on va s’axer plus sur les contenus, la compatibilité avec les résolveurs de liens, la fourniture de statistiques exploitables (si on est gestionnaire de documentation électronique) ou la présence de filtres, les possibilités de créer des alertes, le langage d’interrogation (si on est formateur.ice), bref on évalue rarement de manière consciente et systématique la qualité du moteur de recherche lui-même. Aaron explique ce biais par le fait que « depuis 15 ou 20 ans, les bases de données académiques fonctionnent toutes fondamentalement de la même manière : indexer le contenu dans un index inversé / rechercher avec des opérateurs booléens / classer avec une variante de TF-IDF ou BM25. »

[Petite parenthèse sémantique : TF-IDF (rien à voir avec les transports en Ile de France), c’est une méthode de pondération des résultats, et BM25 un algorithme de classement (et pas une radio libre) de la famille des sacs de mots, oui moi aussi j’ai appris des choses 🙂 ]

Or l’interrogation en langage naturel et la recherche sémantique bouleversent cette logique : elles permettent de se passer des booléens et des correspondances de mots-clés pour trouver quand même des documents pertinents. Avec l’IA, changement de paradigme : les « pure players » de la recherche s’appuient peu ou prou sur les mêmes sources ouvertes (Semantic scholar, OpenAlex), et ce sont les algorithmes qui font la différence. La limite avec les sources payantes devrait même progressivement s’atténuer : le protocole MCP permet déjà une sorte d’interopérabilité entre outils IA et contenus externes (et donc potentiellement aussi sous abonnement). Du côté des acteurs plus traditionnels du secteur que sont les éditeurs, la plus-value réside toujours dans les contenus sous abonnement. Leur approche reste globalement « propriétaire », certains déployant des outils IA sur leurs contenus et invitant les autres fournisseurs de contenus à rejoindre leur écosystème, et d’autres préférant mettre leurs contenus à la disposition des outils IA. La question est désormais : comment on évalue un algorithme ?

Pour Aaron Tay, il y a là un enjeu majeur de formation à la recherche d’information pour la profession :

Il s’agit notamment de comprendre comment fonctionnent les « embeddings » vectoriels, en quoi la recherche sémantique est différente, comment fonctionne la génération augmentée par récupération (RAG) et comment tester formellement les performances d’un moteur de recherche.

(* Je sais que le terme IA recouvre des techniques bien différentes, entendez ici IA comme IA générative)

[Photo : Troca-troca par Elias Rovielo sur Flickr, CC BY-NC-SA]

NISO RP-49-202X, ou comment expliquer aux éditeurs qu’ils doivent simplifier leurs workflows

La NISO (National Information Standards Organization) publie un projet de recommandation intitulé « Open Access Business Processes (OABP) Recommended Practice » (NISO RP-49-202X), ouvert aux commentaires publics jusqu’au 17 octobre 2025.

Alors que la plupart des workflows ont été initialement conçus pour les modèles par abonnement, ce texte tente de répondre à l’essor des publications en accès ouvert, en proposant :

  • Un glossaire partagé pour clarifier la terminologie,
  • Des spécifications claires de métadonnées afin d’harmoniser l’échange d’informations,
  • Des indications pour le reporting, le suivi financier et la gestion des accords.

L’idée, c’est de faciliter la collaboration entre tous les acteurs du secteur de la publication scientifique, quels que soient leurs modèles, en ajoutant un peu plus de transparence au passage.

Les autrices identifient un certain nombre de lacunes dans les process actuels, notamment :

  • Des normes et des métadonnées insuffisantes : elles soulignent le manque cruel de standards robustes pour le transfert des données entre acteurs à différents stades des workflows, des difficultés pour désambiguïser et vérifier affiliations institutionnelles, les agences de financement et les appels à projets, souvent à cause de champs en texte libre peu structurés. A cela s’ajoute la sous-utilisation des identifiants persistants (PIDs), qui existent pourtant pour les auteurs comme pour les institutions, et le manque de capacité des systèmes à gérer des paiements multi-acteurs, et/ou multi-affiliations. Ces insuffisances compliquent aussi la production de rapports pour évaluer les accords.
  • Une communication imprécise et non/mal définie : les autrices pointent un manque de clarté entre acteurs sur qui communique quoi, quand, comment et à qui dans les workflows, qui aboutit à des réponses parfois contradictoires dans la communication sur les coûts, les licences, les critères d’éligibilité, et les changements dans les portefeuilles de revues. Les éditeurs ne renseignent pas non plus systématiquement toutes les dates importantes (soumission, acceptation, publication), ce qui peut impacter l’éligibilité des articles. Tout cela entraîne confusion et frustration chez les auteurs, notamment lors de la phase de soumission de leurs publications.

Elles proposent pour y remédier, entre autres :

  • La création d’un dictionnaire de données normalisé pour structurer échanges et rapports.
  • L’intégration systématique des identifiants persistants dans tous les workflows, pour améliorer la traçabilité et la désambiguïsation.
  • Une définition claire des responsabilités et des modes de communication pour les différents acteurs à chaque étape des workflows.
  • Le développement d’un cadre modulable, pour s’adapter aux contextes locaux et aux modèles économiques différents.
  • La mise en place de mécanismes pour le suivi de toutes ces transactions, intégrant une meilleure gestion des paiements multi-acteurs.

Le projet se concentre uniquement pour l’instant sur les articles de revues, avec la perspective dans un deuxième temps d’étendre les recommandations aux livres, aux prépublications et aux actes de conférences.

Si vous envisagez de vous lancer dans la documentation électronique ou la science ouverte, ce type de document offre un bon panorama des modèles et des enjeux à l’oeuvre.

[Image : Reflect by xiaofan]

POSI : des principes à suivre pour les infrastructures de science ouverte

L’écosystème de la recherche repose de plus en plus sur des infrastructures ouvertes : archives ouvertes, entrepôts de données, outils de recommandation, outils de peer-reviewing… Comment garantir leur transparence, leur gouvernance démocratique et leur soutenabilité ? C’est là qu’interviennent les Principes POSI (Principles of Open Scholarly Infrastructure), élaborés en 2015 et adoptés depuis par plusieurs organisations.

Qu’est-ce que POSI ?

Les principes POSI, destinés aux infrastructures de science ouverte, couvrent trois grands domaines :

  • Gouvernance (transparence, indépendance, implication de la communauté)
  • Soutenabilité (modèle économique, réserves financières, planification à long terme)
  • Garanties de continuité (préparation à la transmission ou à la fermeture, portabilité des données, interopérabilité, sécurité et archivage des données)

L’objectif de ces principes est d’inciter les infrastructures à se positionner sur tous les aspects de leur activité, afin de leur permettre de rester ouvertes, fiables et au service de la communauté scientifique, indépendamment des aléas économiques ou institutionnels. L’affichage de ces principes indique que les infrastructures sont sur une trajectoire vertueuse de science ouverte.

Et après ? POSI 2.0

Evidemment ce n’est pas la panacée, et les choses ont changé en 10 ans, c’est pourquoi une vaste consultation communautaire a été lancée en début d’année, pour préparer POSI 2.0 (oui c’est soooo 2008 !). Parmi les évolutions majeures proposées  :

  • Élargir l’applicabilité : Adapter les principes pour qu’ils soient pertinents pour tous types d’organisations, et expliciter comment s’auto-évaluer quand certains principes ne s’appliquent pas.
  • Reformuler le principe sur la transparence opérationnelle : Séparer la transparence des opérations (finances, politiques internes, feuille de route…) de la transparence de la gouvernance (décisions, statuts, élection des représentants…).
  • Renforcer le « Living Will » : Mieux définir les conditions de transfert ou de liquidation, et exiger des clauses précises pour protéger la mission et les actifs.
  • Reconnaître les apports du volontariat : Intégrer explicitement les ressources humaines non financières dans la planification de la soutenabilité.
  • Intégrer l’interopérabilité et les standards ouverts : Ajouter un principe dédié à la compatibilité et à l’utilisation de standards ouverts, pour favoriser l’intégration et la résilience des infrastructures.
  • Clarifier la gestion des fonds et des réserves financières  : Préciser les attentes sur la constitution de réserves, adaptées à la taille et au contexte de chaque organisation.
  • Prendre en compte la sécurité des données : Intégrer les enjeux de sécurité, en plus de la confidentialité, et prévoir l’archivage des données auprès de tiers de confiance.

La révision en cours, dont la publication est attendue courant 2025, vise à rendre POSI plus clair et mieux adapté à la diversité des acteurs de la science ouverte.

[Photo : Marta Terry L. sur Flickr]

Les hauts et les bas du gold OA

Tête de chien noir aux yeux marron étonné

Dans le dernier n° de leur newsletter The Brief (dans le 1er article, intitulé « Retrenchment »), Clarke & Esposito font une analyse du paysage de la publication scientifique ces dernières années ; ils constatent :

– une baisse du volume pour les éditeurs full OA, notamment MDPI et Frontiers, que les auteurs corrèlent au flop d’Hindawi (je ne vois pas bien pourquoi, il doit y avoir quelquechose qui m’échappe)

– celle-ci profiterait aux 3 gros éditeurs traditionnels (Elsevier, Springer-Nature et Wiley pour le tiercé dans l’ordre) : ça pourrait sans doute être nuancé si on avait accès aux données source de l’étude (tirées de Dimensions)

– côté revues, ce serait le retour des mega-revues (notamment PLOS One) – je découvre à cette occasion « Cureus Journal of medical science« , une autre mega-revue de chez Springer-Nature dont je n’avais jamais entendu parler : il s’agit plutôt d’une plateforme de publication en continu, sans APC, l’éditeur faisant payer un « service d’édition préférentielle » (« preferred editing fees ») pour les reviews et les autres articles nécessitant un formatage ou une amélioration linguistique (370$ en moyenne, plafonnés à 1300$).
Les auteurs raisonnent globalement, alors qu’il y a sans doute des disparités en fonction des pays et des disciplines à prendre en compte ; par ailleurs d’autres facteurs, tels que des changements dans les priorités de recherche, dans les politiques de financement de la recherche ou même dans les préférences des auteurs pourraient aussi expliquer ces tendances (et pas seulement le renforcement des contrôles d’intégrité chez les éditeurs full OA ou bien les changements dans les politiques de publication en Chine), à mon avis. On verra si ces tendances se confirment…

[Photo : Cureus par Vladimir Samsonik]

La RRS en action

Il me semblait avoir déjà évoqué la Rights Retention Strategy de la cOAlition S, mais non. Il s’agit du dispositif promu par la Coalition pour arriver à respecter les principes du Plan S : pour faire court, l’objectif de la RRS est de permettre aux auteurs d’exercer les droits qu’ils possèdent sur leurs manuscrits afin de déposer une copie de leur article accepté pour publication (MAA) dans une archive ouverte, et de fait, d’y donner un accès immédiat. C’est bien la notion d’immédiateté qui est importante ici : le MAA peut la plupart du temps être déposé sur une archive ouverte, mais souvent avec une période d’embargo d’au moins 6 mois. Concrètement, la RRS se matérialise par l’ajout sur le MAA d’une licence CC et d’une mention du type : « À des fins de libre accès, une licence CC-BY a été appliquée par les auteurs au présent document et le sera à toute version ultérieure jusqu’au manuscrit auteur accepté pour publication résultant de cette soumission. » dans les remerciements.

Ross Mounce, directeur des projets OA de la fondation Arcadia, a examiné un corpus de plus de 500 articles, conférences et chapitres d’ouvrage suivant les recommandations de la RRS mise en avant par la coalition S pour atteindre un accès ouvert immédiat. Il constate que tous les « gros » éditeurs jouent le jeu et autorisent le dépôt immédiat des manuscrits validés pour publication (ie AAM ou MAA ou postprint) dans une archive ouverte sous licence CC-BY, et cela indépendamment de la discipline (il cite l’exemple d’une revue d’histoire). Et il ajoute que la mise à disposition des articles dans des archives ouvertes sous licence CC facilite leur réutilisation en général, et sur Wikipedia en particulier, ce qui contribue à en augmenter la visibilité. Plus près de chez nous, Maxence Larrieu, ingénieur de l’Université Paris Cité, a mis en ligne un outil de suivi des publications déposées dans HAL obéissant à cette stratégie : le french RRS monitor, qui référence une centaine d’articles déposés depuis 2021.

Sources :

Renforcement de la politique d’accès ouvert du gouvernement américain

L’Office of science and technology policy (OSTP) de la Maison Blanche vient de mettre à jour la politique gouvernementale de mise à disposition et de diffusion des résultats de la recherche scientifique publique, définie en 2013. Celle-ci concerne désormais toutes les agences de financement de la recherche (et plus seulement les plus importantes), donc aussi celles qui couvrent les SHS, ce qui est nouveau (et promet de nombreuses discussions avec les éditeurs…) ; les agences ont jusqu’à fin 2026 pour la mettre en oeuvre.

Cette nouvelle politique marque la fin des embargos sur les publications : on vise l’OA immédiat, fini les 6 ou 12 mois. A noter, sont concernées les publications avec un auteur ou un co-auteur bénéficiant d’un financement public : pour les collaborations ça risque d’être compliqué – ou au contraire de simplifier les choses… Enfin je dis public, mais c’est fédéral : il va déjà falloir une harmonisation locale entre la politique fédérale et les mandats des universités américaines – on peut supposer que tout le monde va dans le même sens, mais il est toujours possible qu’il y ait des points de friction.

Par « publication », le memorandum entend a minima les articles scientifiques validés par les pairs ; pour les livres et chapitres de livres, et les communications c’est à la discrétion des agences.

Les données de recherche sont prises en compte dans ce dispositif : elles doivent être mises à disposition en même temps que les publications le cas échéant, et faire l’objet de plans de gestions des données. Par ailleurs, les entrepôts de données doivent être conformes aux préconisations du National Science and Technology Council.

Si des frais de publication et/ou des frais de gestion des données « raisonnables » peuvent être intégrés dans les budgets de recherche, la voie verte reste privilégiée : tout doit être déposé dans une archive ouverte ou un entrepôt de données définis par les agences, il ne suffit pas de publier dans une revue OA.

L’accent est également mis sur les questions d’intégrité scientifique : une plus grande transparence sur les affiliations et les financements est demandée pour redonner aux contribuables américains confiance dans la recherche publique ; celle-ci passe entre autres par l’attribution d’identifiants pérennes pour toutes les productions de recherche, y compris les protocoles et les financements.

Bref, une avancée significative pour l’accès ouvert, à saluer, reste à voir comment tout cela va être implémenté : un équivalent à la stratégie de rétention des droits de la Coalition S va-t-il émerger ? Celle-ci en tout cas « se réjouit de travailler avec l’OSTP et d’autres agences de financement afin d’aligner davantage nos politiques en vue de fournir un accès ouvert et immédiat aux résultats de la recherche. »

Sources : OSTP Issues Guidance to Make Federally Funded Research Freely Available Without Delay, Memorandum of the OSTP, Peter Suber, Coalition S welcomes the updated Open Access policy guidance from the White House Office of Science Technology and Policy

Actualités de SPARC Europe, septembre 2020

SPARC Europe a dans sa feuille de route un certain nombre d’activités pour promouvoir l’accès ouvert, je me dis que ça peut être intéressant, à l’occasion, de relayer les livrables produits ici, donc je tente un premier « digest » :

  • SPARC Europe participe au projet Invest in Open, qui s’intéresse au financement des infrastructures de science ouverte. Dans ce cadre, une dizaine d’interviews d’acteurs de la science ouverte sont en cours de réalisation, dont les 2 premiers viennent d’être publiés : il s’agit d’Our Research, l’entreprise derrière Unpaywall et Unsub, et de Redalyc, la plateforme de publication implantée à l’Université autonome de l’Etat du Mexique.
    • Our Research est une entreprise à but non lucratif, qui se finance en répondant à des appels à projet (grants et bourses), auxquels s’ajoutent les contributions des gros utilisateurs du service Unpaywall et depuis peu les abonnements institutionnels à Unsub. La co-fondatrice prévoit de conserver ces sources de financement diversifiées, et souligne la difficulté du positionnement d’Our Research vis à vis des institutions, à cheval entre vendeur et partenaire, mais sans forcément disposer des moyens RH pour gérer la partie commerciale.
    • Redalyc est une structure portée un réseau coopératif d’universités d’Amérique Latine, dont le financement est principalement institutionnel. Le fonctionnement de la plateforme passe aussi par les contributions non financières des universités partenaires, ce qui permet de partager les développements par exemple. L’accès ouvert est vu comme un bien commun, qui permet à la fois de visibiliser la production scientifique de cette région du monde et de professionnaliser les structures qui y participent : l’accent est mis sur le transfert de compétences au sein de la communauté, pour pouvoir rester indépendant des sociétés commerciales, et l’utilisation de l’IA permet de diminuer significativement les coûts de publication. Le fait de ne pas faire partie du « marché » de l’édition scientifique, et de ne pas être reconnu par les dispositifs d’évaluation est un handicap. Redalyc oriente sa stratégie de développement vers un renforcement du modèle « diamant » et vers une ouverture à d’autres régions du monde.

Source : 10 key interviews : insights into the sustainability of open intrastructure services

  • SPARC Europe diffuse ces jours-ci un rapport sur les politiques des éditeurs et des plateformes de diffusion en matière de conservation des droits d’auteur et de licences ouvertes. L’étude, menée à l’été 2020, examine les possibilités de partage et de dépôt sur une archive ouverte des publications, les types de contrats (cession, exclusivité) et de licences, ainsi que l’accessibilité de ces informations pour les auteurs. Elle s’est basée sur les infos disponibles sur les sites de 10 éditeurs (+ échanges pour affiner) et sur les revues OA indexées dans le DOAJ.
    • « Les résultats de l’analyse des dix grands éditeurs universitaires et des revues européennes répertoriées par le DOAJ montrent que les positions politiques actuelles des éditeurs en matière de propriété intellectuelle et de licence ne sont pas encore largement alignées sur les principes du Plan S. » : en effet, il reste encore beaucoup d’articles disponibles en mode hybride (donc pas encore totalement « flippés » par les accords transformants), avec dans la majeure partie des cas un embargo, sans conservation systématique des droits par les auteurs. Le rapport fait des recommandations aux éditeurs, aux organismes financeurs de la recherche, aux institutions de recherche, et aux auteurs, et conclut :
    • « Alors que certains éditeurs affirment que leurs politiques protègent l’auteur contre d’éventuels plagiats ou violations des droits d’auteur ou gèrent les demandes de réutilisation de leur travail, d’autres éditeurs actualisent leurs politiques pour favoriser la démarche d’accès ouvert, en prenant des mesures pour soutenir le changement, ce qui est louable. La communauté de l’OA attend avec impatience qu’un plus grand nombre d’éditeurs adaptent leurs politiques de rétention des droits et d’octroi de licences pour accompagner les auteurs dont ils dépendent. »

Source : Open Access: An Analysis of Publisher Copyright and Licensing Policies in Europe, 2020

[Disclaimer : je suis vice-présidente de SPARC Europe]

[Photo : Mizzou CAFNR]

Europe et science ouverte : rapport de l’OSPP

L’Open Science Policy Platform, comme son nom ne l’indique pas, c’est un groupe d’experts mandatés par la Commission européenne pour la conseiller sur le développement et la mise en place d’une politique de science ouverte au niveau européen. Son action s’est déroulée en 2 phases : 2016-2018 et 2018-2020. La première phase a donné lieu en 2018 à un rapport intermédiaire définissant les 8 priorités mises à l’agenda de la CE concernant la science ouverte, assorties de recommandations :

  • Reconnaissance et incitation
  • Indicateurs et métriques de nouvelle génération
  • Futur de la communication scientifique
  • European open science cloud (EOSC)
  • Données FAIR
  • Intégrité de la recherche
  • Compétences et formation
  • Science citoyenne (ou participative)

Mai 2020, fin de la 2ème phase, le rapport final de l’OSPP est disponible, et c’est une lecture fort intéressante pour voir quels sont les enjeux de science ouverte pour l’Europe. La première partie présente le travail réalisé au cours du deuxième mandat sur les « Practical commitments for implementation », ie les engagements concrets de mise en oeuvre des 8 priorités mentionnées plus haut, analysés au prisme de chaque groupe d’acteurs de la science ouverte : universités, organismes de recherche, financeurs, BU, chercheurs, sociétés savantes, organisations de science citoyenne, éditeurs. 2 actions transverses ont également été lancées : la création de l’Open registry (voir plus bas) et du CoNOSC, le conseil des coordonnateurs nationaux de la science ouverte. 

La deuxième partie donne un état d’avancement synthétique des recommandations, et liste les barrières à la mise en place des recommandations selon chaque type d’acteur (sans surprise et à des degrés divers : les financements, la formation, le mode d’évaluation, la réglementation sur le copyright, les modèles économiques, l’absence de politiques et/ou d’infrastructures). On trouve également en annexe A la position de chaque communauté vis à vis des 8 grands thèmes.  

La troisième partie définit les contours d’une politique de recherche basée sur le partage des connaissances pour 2030, selon 5 axes :

  • Une structure de carrière universitaire qui récompense un large éventail de résultats, de pratiques et de comportements afin de maximiser les contributions à un système de partage des connaissances en matière de recherche : une première action est la création, sous l’égide de la RDA, d’une plateforme collaborative de signalement (« Open registry ») des initiatives, projets, résultats et autres pilotes portant sur le dispositif de reconnaissance universitaire (et/via l’utilisation responsable des métriques).
  • Une recherche fiable, transparente et intègre : elle passerait par l’organisation de workshops pour établir des standards en matière d’intégrité de la recherche au sein de la communauté
  • Une recherche propice à l’innovation : avec des politiques claires concernant la réutilisation des connaissances et des technologies dans un contexte compétitif, une infrastructure rassemblant outils et services (EOSC oui mais pas d’infrastructure technique suffisante à ce stade), un cadre réglementaire clair, notamment pour ce qui est de la propriété intellectuelle – je cite « L’équilibre entre l’ouverture des données et la protection des droits de propriété intellectuelle doit être conforme au principe « aussi ouvert que possible, aussi fermé que nécessaire ». Et aussi un marché transparent (inclusif pour le secteur économique, notamment les PME) et une recherche basée sur la réciprocité (avec des politiques en matière de propriété intellectuelle permettant de maintenir la plus-value économique à l’intérieur des frontières de l’Europe)
  • Une culture de la recherche ouverte à la diversité et à l’égalité des chances
  • Une politique et des pratiques de recherche basées sur la preuve (« evidence-based policy and practices ») : soutien à une stratégie de « recherche sur la recherche » 

L’articulation entre science ouverte et propriété intellectuelle semble être le sujet du moment, chose qui ne m’avait pas parue si prégnante à la lecture du premier rapport : « Le juste équilibre entre la science ouverte, le potentiel d’optimisation de l’utilisation et de la réutilisation des données et des résultats de la recherche, les droits de propriété intellectuelle et la compétitivité des entreprises privées doit être encouragé et devenir un élément central du prochain cycle de discussions sur l’avenir d’un système de partage des connaissances en matière de recherche. Il existe des limites à l’ouverture et celles-ci doivent être reconnues et prises en compte à mesure que le système évolue. »

Consensus sur les prédateurs

Un groupe de chercheurs internationaux (et beaucoup canadiens) s’est trituré les méninges pour arriver à une définition des revues et éditeurs prédateurs, publiée fin 2019 dans Nature sous le titre « Predatory journals : no definition, no offence » : « La définition consensuelle à laquelle nous sommes parvenus était la suivante : « Les revues et les éditeurs prédateurs sont des entités qui privilégient l’intérêt personnel au détriment de la recherche et se caractérisent par des informations fausses ou trompeuses, un non-respect des bonnes pratiques éditoriales et de publication, un manque de transparence et/ou l’utilisation de pratiques de démarchage agressives et sans discernement. »

Les membres de ce groupe informel soulignent la difficulté d’arriver à un consensus ; ils avouent avoir laissé de côté certains critères jugés trop subjectifs, comme l’intention de tromper (« intent to deceive ») ou, plus étonnant, l’absence de qualité du peer-review, qui est quand même un élément constitutif des revues prédatrices – apparemment c’est la difficulté à évaluer cette qualité, en raison du manque de transparence du processus de peer-review chez un grand nombre d’éditeurs, qui a abouti à l’exclusion de ce critère.

Certains acteurs de l’open access soulignent que cette définition peut s’appliquer à certains éditeurs reconnus, d’autres que justement les critères retenus sont favorables, comme par hasard, à la revue Nature qui publie l’article, et que les auteurs ne sont pas forcément représentatifs (à part un indien, aucun auteur asiatique, par exemple).

Certes il existe plusieurs listes noires et blanches, gratuites et payantes : celles de Cabell, celle de Beall qui n’est plus mise à jour, celle du DOAJ. Et le site Think. Check. Submit (et son cousin Think. Check. Attend pour les conférences). Mais visiblement cela ne suffit pas pour endiguer le phénomène, au vu de la littérature abondante sur le sujet. Du coup le groupe invite les bonnes volontés à participer à la lutte contre les prédateurs sur son site.

A noter, au passage : les éditeurs prédateurs font feu de tout bois, et utilisent des outils tout à fait respectables pour diffuser leur production : par exemple WASET, un des éditeurs prédateurs les plus connus (pour ses revues et ses conférences), dispose de sa propre « communauté » sur Zenodo.

[Photo by Markus Spiske on Unsplash]

La vie sans Elsevier

Ce n’est pas l’idéal, ni une fin en soi, mais faire de la recherche sans accès aux revues d’Elsevier, ou du moins sans accès à la collection complète, est envisageable dans une certaine mesure, c’est du moins ce que nous montrent ces 2 sujets en provenance de la Suède et de la Floride :

En Suède, les bibliothèques membres du consortium Bibsam ont suspendu leur contrat avec Elsevier entre juillet 2018 et fin 2019, en raison de l’incapacité de l’éditeur à proposer une offre acceptable mixant les coûts de consultation (les abonnements) et les coûts de publication (les APC). Dans un rapport très détaillé, elles analysent les conséquences de la décision de non-renouvellement sur les chercheurs (une enquête a été menée), sur leurs institutions et sur l’activité du consortium lui-même :

  • L’opinion des chercheurs est partagée sur l’impact de cette politique sur leur recherche. Un peu plus de la moitié (54%) des répondants disent qu’elle a une influence négative sur leur travail : la veille prend plus de temps, et elle est incomplète du fait du manque d’accès, en particulier dans les domaines disciplinaires bien couverts par le catalogue de l’éditeur (la santé essentiellement). L’autre moitié fait état d’un impact moindre, les revues de l’éditeur ayant pour ceux-ci moins d’importance dans leurs champs de recherche. Plus de 80% des chercheurs ayant répondu à l’enquête indiquent avoir eu besoin d’un article non accessible au cours de la période : pour ceux-ci, 42% ont laissé tomber, 42% ont trouvé leur bonheur sur Sci-hub ou Researchgate, le reste ayant recours à peu près à part égale à la BU, à l’auteur ou à un collègue. Les alternatives légales type PEB n’ont pas rencontré de succès : difficile de rivaliser en terme de rapidité, même avec un service performant. L’enseignement intéressant aussi, c’est l’effet négatif en terme d’image sur l’éditeur, qui conduit les chercheurs à modifier leurs activités de publication : près de la moitié des répondants disent désormais refuser de publier, de faire du peer-review ou de remplir des fonctions éditoriales chez Elsevier.
  • Pour les universités membres du consortium, le non-renouvellement a été l’occasion de faire de la pédagogie auprès de leurs instances de gouvernance et de leurs chercheurs, à la fois sur les raisons de ce non-renouvellement, et aussi sur les moyens d’accès alternatifs aux articles, que ce soit les extensions, le PEB ou un service de fourniture de document payant (les 2 systèmes coexistent). La mise en place et/ou le renforcement des usages de ces services s’est fait à un coût marginal, rapporté au coût annuel pour l’accès à la Freedom.
  • Au niveau du consortium, les négociations avec d’autres éditeurs se sont intensifiées autour des questions d’open access.

Au final, les négociations ont repris et abouti selon les conditions suivantes (pour une économie de 1,7M d’euros par an) :

  • Accès à la collection Freedom
  • Droit de publication illimité dans les revues de la Freedom et toutes les revues en open access + droit de publication en OA pour 100 articles dans les revues hybrides de Cell Press, le tout sous licence CC-BY (sauf avis différent de l’auteur)
  • Pas de frais d’accès aux archives en cas de sortie
  • Accord de 3 ans, avec une augmentation annuelle à 2,5%

Par ailleurs en Floride, l’université a annulé son contrat global (« big deal ») en mars 2019, pour faire passer sa facture de 2 à 1 million de dollars, et son portefeuille de 1800 à 150 titres. L’éditeur avait prédit aux bibliothécaires que ce choix allait leur coûter au moins autant en solutions de remplacement type pay-per-view. Mais en fait non : à la surprise générale, au bout de 8 mois de fonctionnement, seuls 20 000$ ont été dépensés sur ce poste ; l’histoire ne dit pas combien l’université continue de dépenser en APC…

[Photo by Frank Okay on Unsplash]


janvier 2026
L M M J V S D
 1234
567891011
12131415161718
19202122232425
262728293031  

Archives

Licence

Licence Creative Commons
Ce(tte) œuvre est mise à disposition selon les termes de la Licence Creative Commons Attribution 3.0 France.