La RRS en action

Il me semblait avoir déjà évoqué la Rights Retention Strategy de la cOAlition S, mais non. Il s’agit du dispositif promu par la Coalition pour arriver à respecter les principes du Plan S : pour faire court, l’objectif de la RRS est de permettre aux auteurs d’exercer les droits qu’ils possèdent sur leurs manuscrits afin de déposer une copie de leur article accepté pour publication (MAA) dans une archive ouverte, et de fait, d’y donner un accès immédiat. C’est bien la notion d’immédiateté qui est importante ici : le MAA peut la plupart du temps être déposé sur une archive ouverte, mais souvent avec une période d’embargo d’au moins 6 mois. Concrètement, la RRS se matérialise par l’ajout sur le MAA d’une licence CC et d’une mention du type : « À des fins de libre accès, une licence CC-BY a été appliquée par les auteurs au présent document et le sera à toute version ultérieure jusqu’au manuscrit auteur accepté pour publication résultant de cette soumission. » dans les remerciements.

Ross Mounce, directeur des projets OA de la fondation Arcadia, a examiné un corpus de plus de 500 articles, conférences et chapitres d’ouvrage suivant les recommandations de la RRS mise en avant par la coalition S pour atteindre un accès ouvert immédiat. Il constate que tous les « gros » éditeurs jouent le jeu et autorisent le dépôt immédiat des manuscrits validés pour publication (ie AAM ou MAA ou postprint) dans une archive ouverte sous licence CC-BY, et cela indépendamment de la discipline (il cite l’exemple d’une revue d’histoire). Et il ajoute que la mise à disposition des articles dans des archives ouvertes sous licence CC facilite leur réutilisation en général, et sur Wikipedia en particulier, ce qui contribue à en augmenter la visibilité. Plus près de chez nous, Maxence Larrieu, ingénieur de l’Université Paris Cité, a mis en ligne un outil de suivi des publications déposées dans HAL obéissant à cette stratégie : le french RRS monitor, qui référence une centaine d’articles déposés depuis 2021.

Sources :

Renforcement de la politique d’accès ouvert du gouvernement américain

L’Office of science and technology policy (OSTP) de la Maison Blanche vient de mettre à jour la politique gouvernementale de mise à disposition et de diffusion des résultats de la recherche scientifique publique, définie en 2013. Celle-ci concerne désormais toutes les agences de financement de la recherche (et plus seulement les plus importantes), donc aussi celles qui couvrent les SHS, ce qui est nouveau (et promet de nombreuses discussions avec les éditeurs…) ; les agences ont jusqu’à fin 2026 pour la mettre en oeuvre.

Cette nouvelle politique marque la fin des embargos sur les publications : on vise l’OA immédiat, fini les 6 ou 12 mois. A noter, sont concernées les publications avec un auteur ou un co-auteur bénéficiant d’un financement public : pour les collaborations ça risque d’être compliqué – ou au contraire de simplifier les choses… Enfin je dis public, mais c’est fédéral : il va déjà falloir une harmonisation locale entre la politique fédérale et les mandats des universités américaines – on peut supposer que tout le monde va dans le même sens, mais il est toujours possible qu’il y ait des points de friction.

Par « publication », le memorandum entend a minima les articles scientifiques validés par les pairs ; pour les livres et chapitres de livres, et les communications c’est à la discrétion des agences.

Les données de recherche sont prises en compte dans ce dispositif : elles doivent être mises à disposition en même temps que les publications le cas échéant, et faire l’objet de plans de gestions des données. Par ailleurs, les entrepôts de données doivent être conformes aux préconisations du National Science and Technology Council.

Si des frais de publication et/ou des frais de gestion des données « raisonnables » peuvent être intégrés dans les budgets de recherche, la voie verte reste privilégiée : tout doit être déposé dans une archive ouverte ou un entrepôt de données définis par les agences, il ne suffit pas de publier dans une revue OA.

L’accent est également mis sur les questions d’intégrité scientifique : une plus grande transparence sur les affiliations et les financements est demandée pour redonner aux contribuables américains confiance dans la recherche publique ; celle-ci passe entre autres par l’attribution d’identifiants pérennes pour toutes les productions de recherche, y compris les protocoles et les financements.

Bref, une avancée significative pour l’accès ouvert, à saluer, reste à voir comment tout cela va être implémenté : un équivalent à la stratégie de rétention des droits de la Coalition S va-t-il émerger ? Celle-ci en tout cas « se réjouit de travailler avec l’OSTP et d’autres agences de financement afin d’aligner davantage nos politiques en vue de fournir un accès ouvert et immédiat aux résultats de la recherche. »

Sources : OSTP Issues Guidance to Make Federally Funded Research Freely Available Without Delay, Memorandum of the OSTP, Peter Suber, Coalition S welcomes the updated Open Access policy guidance from the White House Office of Science Technology and Policy

Actualités de SPARC Europe, septembre 2020

SPARC Europe a dans sa feuille de route un certain nombre d’activités pour promouvoir l’accès ouvert, je me dis que ça peut être intéressant, à l’occasion, de relayer les livrables produits ici, donc je tente un premier « digest » :

  • SPARC Europe participe au projet Invest in Open, qui s’intéresse au financement des infrastructures de science ouverte. Dans ce cadre, une dizaine d’interviews d’acteurs de la science ouverte sont en cours de réalisation, dont les 2 premiers viennent d’être publiés : il s’agit d’Our Research, l’entreprise derrière Unpaywall et Unsub, et de Redalyc, la plateforme de publication implantée à l’Université autonome de l’Etat du Mexique.
    • Our Research est une entreprise à but non lucratif, qui se finance en répondant à des appels à projet (grants et bourses), auxquels s’ajoutent les contributions des gros utilisateurs du service Unpaywall et depuis peu les abonnements institutionnels à Unsub. La co-fondatrice prévoit de conserver ces sources de financement diversifiées, et souligne la difficulté du positionnement d’Our Research vis à vis des institutions, à cheval entre vendeur et partenaire, mais sans forcément disposer des moyens RH pour gérer la partie commerciale.
    • Redalyc est une structure portée un réseau coopératif d’universités d’Amérique Latine, dont le financement est principalement institutionnel. Le fonctionnement de la plateforme passe aussi par les contributions non financières des universités partenaires, ce qui permet de partager les développements par exemple. L’accès ouvert est vu comme un bien commun, qui permet à la fois de visibiliser la production scientifique de cette région du monde et de professionnaliser les structures qui y participent : l’accent est mis sur le transfert de compétences au sein de la communauté, pour pouvoir rester indépendant des sociétés commerciales, et l’utilisation de l’IA permet de diminuer significativement les coûts de publication. Le fait de ne pas faire partie du « marché » de l’édition scientifique, et de ne pas être reconnu par les dispositifs d’évaluation est un handicap. Redalyc oriente sa stratégie de développement vers un renforcement du modèle « diamant » et vers une ouverture à d’autres régions du monde.

Source : 10 key interviews : insights into the sustainability of open intrastructure services

  • SPARC Europe diffuse ces jours-ci un rapport sur les politiques des éditeurs et des plateformes de diffusion en matière de conservation des droits d’auteur et de licences ouvertes. L’étude, menée à l’été 2020, examine les possibilités de partage et de dépôt sur une archive ouverte des publications, les types de contrats (cession, exclusivité) et de licences, ainsi que l’accessibilité de ces informations pour les auteurs. Elle s’est basée sur les infos disponibles sur les sites de 10 éditeurs (+ échanges pour affiner) et sur les revues OA indexées dans le DOAJ.
    • « Les résultats de l’analyse des dix grands éditeurs universitaires et des revues européennes répertoriées par le DOAJ montrent que les positions politiques actuelles des éditeurs en matière de propriété intellectuelle et de licence ne sont pas encore largement alignées sur les principes du Plan S. » : en effet, il reste encore beaucoup d’articles disponibles en mode hybride (donc pas encore totalement « flippés » par les accords transformants), avec dans la majeure partie des cas un embargo, sans conservation systématique des droits par les auteurs. Le rapport fait des recommandations aux éditeurs, aux organismes financeurs de la recherche, aux institutions de recherche, et aux auteurs, et conclut :
    • « Alors que certains éditeurs affirment que leurs politiques protègent l’auteur contre d’éventuels plagiats ou violations des droits d’auteur ou gèrent les demandes de réutilisation de leur travail, d’autres éditeurs actualisent leurs politiques pour favoriser la démarche d’accès ouvert, en prenant des mesures pour soutenir le changement, ce qui est louable. La communauté de l’OA attend avec impatience qu’un plus grand nombre d’éditeurs adaptent leurs politiques de rétention des droits et d’octroi de licences pour accompagner les auteurs dont ils dépendent. »

Source : Open Access: An Analysis of Publisher Copyright and Licensing Policies in Europe, 2020

[Disclaimer : je suis vice-présidente de SPARC Europe]

[Photo : Mizzou CAFNR]

Europe et science ouverte : rapport de l’OSPP

L’Open Science Policy Platform, comme son nom ne l’indique pas, c’est un groupe d’experts mandatés par la Commission européenne pour la conseiller sur le développement et la mise en place d’une politique de science ouverte au niveau européen. Son action s’est déroulée en 2 phases : 2016-2018 et 2018-2020. La première phase a donné lieu en 2018 à un rapport intermédiaire définissant les 8 priorités mises à l’agenda de la CE concernant la science ouverte, assorties de recommandations :

  • Reconnaissance et incitation
  • Indicateurs et métriques de nouvelle génération
  • Futur de la communication scientifique
  • European open science cloud (EOSC)
  • Données FAIR
  • Intégrité de la recherche
  • Compétences et formation
  • Science citoyenne (ou participative)

Mai 2020, fin de la 2ème phase, le rapport final de l’OSPP est disponible, et c’est une lecture fort intéressante pour voir quels sont les enjeux de science ouverte pour l’Europe. La première partie présente le travail réalisé au cours du deuxième mandat sur les « Practical commitments for implementation », ie les engagements concrets de mise en oeuvre des 8 priorités mentionnées plus haut, analysés au prisme de chaque groupe d’acteurs de la science ouverte : universités, organismes de recherche, financeurs, BU, chercheurs, sociétés savantes, organisations de science citoyenne, éditeurs. 2 actions transverses ont également été lancées : la création de l’Open registry (voir plus bas) et du CoNOSC, le conseil des coordonnateurs nationaux de la science ouverte. 

La deuxième partie donne un état d’avancement synthétique des recommandations, et liste les barrières à la mise en place des recommandations selon chaque type d’acteur (sans surprise et à des degrés divers : les financements, la formation, le mode d’évaluation, la réglementation sur le copyright, les modèles économiques, l’absence de politiques et/ou d’infrastructures). On trouve également en annexe A la position de chaque communauté vis à vis des 8 grands thèmes.  

La troisième partie définit les contours d’une politique de recherche basée sur le partage des connaissances pour 2030, selon 5 axes :

  • Une structure de carrière universitaire qui récompense un large éventail de résultats, de pratiques et de comportements afin de maximiser les contributions à un système de partage des connaissances en matière de recherche : une première action est la création, sous l’égide de la RDA, d’une plateforme collaborative de signalement (« Open registry ») des initiatives, projets, résultats et autres pilotes portant sur le dispositif de reconnaissance universitaire (et/via l’utilisation responsable des métriques).
  • Une recherche fiable, transparente et intègre : elle passerait par l’organisation de workshops pour établir des standards en matière d’intégrité de la recherche au sein de la communauté
  • Une recherche propice à l’innovation : avec des politiques claires concernant la réutilisation des connaissances et des technologies dans un contexte compétitif, une infrastructure rassemblant outils et services (EOSC oui mais pas d’infrastructure technique suffisante à ce stade), un cadre réglementaire clair, notamment pour ce qui est de la propriété intellectuelle – je cite « L’équilibre entre l’ouverture des données et la protection des droits de propriété intellectuelle doit être conforme au principe « aussi ouvert que possible, aussi fermé que nécessaire ». Et aussi un marché transparent (inclusif pour le secteur économique, notamment les PME) et une recherche basée sur la réciprocité (avec des politiques en matière de propriété intellectuelle permettant de maintenir la plus-value économique à l’intérieur des frontières de l’Europe)
  • Une culture de la recherche ouverte à la diversité et à l’égalité des chances
  • Une politique et des pratiques de recherche basées sur la preuve (« evidence-based policy and practices ») : soutien à une stratégie de « recherche sur la recherche » 

L’articulation entre science ouverte et propriété intellectuelle semble être le sujet du moment, chose qui ne m’avait pas parue si prégnante à la lecture du premier rapport : « Le juste équilibre entre la science ouverte, le potentiel d’optimisation de l’utilisation et de la réutilisation des données et des résultats de la recherche, les droits de propriété intellectuelle et la compétitivité des entreprises privées doit être encouragé et devenir un élément central du prochain cycle de discussions sur l’avenir d’un système de partage des connaissances en matière de recherche. Il existe des limites à l’ouverture et celles-ci doivent être reconnues et prises en compte à mesure que le système évolue. »

Consensus sur les prédateurs

Un groupe de chercheurs internationaux (et beaucoup canadiens) s’est trituré les méninges pour arriver à une définition des revues et éditeurs prédateurs, publiée fin 2019 dans Nature sous le titre « Predatory journals : no definition, no offence » : « La définition consensuelle à laquelle nous sommes parvenus était la suivante : « Les revues et les éditeurs prédateurs sont des entités qui privilégient l’intérêt personnel au détriment de la recherche et se caractérisent par des informations fausses ou trompeuses, un non-respect des bonnes pratiques éditoriales et de publication, un manque de transparence et/ou l’utilisation de pratiques de démarchage agressives et sans discernement. »

Les membres de ce groupe informel soulignent la difficulté d’arriver à un consensus ; ils avouent avoir laissé de côté certains critères jugés trop subjectifs, comme l’intention de tromper (« intent to deceive ») ou, plus étonnant, l’absence de qualité du peer-review, qui est quand même un élément constitutif des revues prédatrices – apparemment c’est la difficulté à évaluer cette qualité, en raison du manque de transparence du processus de peer-review chez un grand nombre d’éditeurs, qui a abouti à l’exclusion de ce critère.

Certains acteurs de l’open access soulignent que cette définition peut s’appliquer à certains éditeurs reconnus, d’autres que justement les critères retenus sont favorables, comme par hasard, à la revue Nature qui publie l’article, et que les auteurs ne sont pas forcément représentatifs (à part un indien, aucun auteur asiatique, par exemple).

Certes il existe plusieurs listes noires et blanches, gratuites et payantes : celles de Cabell, celle de Beall qui n’est plus mise à jour, celle du DOAJ. Et le site Think. Check. Submit (et son cousin Think. Check. Attend pour les conférences). Mais visiblement cela ne suffit pas pour endiguer le phénomène, au vu de la littérature abondante sur le sujet. Du coup le groupe invite les bonnes volontés à participer à la lutte contre les prédateurs sur son site.

A noter, au passage : les éditeurs prédateurs font feu de tout bois, et utilisent des outils tout à fait respectables pour diffuser leur production : par exemple WASET, un des éditeurs prédateurs les plus connus (pour ses revues et ses conférences), dispose de sa propre « communauté » sur Zenodo.

[Photo by Markus Spiske on Unsplash]

La vie sans Elsevier

Ce n’est pas l’idéal, ni une fin en soi, mais faire de la recherche sans accès aux revues d’Elsevier, ou du moins sans accès à la collection complète, est envisageable dans une certaine mesure, c’est du moins ce que nous montrent ces 2 sujets en provenance de la Suède et de la Floride :

En Suède, les bibliothèques membres du consortium Bibsam ont suspendu leur contrat avec Elsevier entre juillet 2018 et fin 2019, en raison de l’incapacité de l’éditeur à proposer une offre acceptable mixant les coûts de consultation (les abonnements) et les coûts de publication (les APC). Dans un rapport très détaillé, elles analysent les conséquences de la décision de non-renouvellement sur les chercheurs (une enquête a été menée), sur leurs institutions et sur l’activité du consortium lui-même :

  • L’opinion des chercheurs est partagée sur l’impact de cette politique sur leur recherche. Un peu plus de la moitié (54%) des répondants disent qu’elle a une influence négative sur leur travail : la veille prend plus de temps, et elle est incomplète du fait du manque d’accès, en particulier dans les domaines disciplinaires bien couverts par le catalogue de l’éditeur (la santé essentiellement). L’autre moitié fait état d’un impact moindre, les revues de l’éditeur ayant pour ceux-ci moins d’importance dans leurs champs de recherche. Plus de 80% des chercheurs ayant répondu à l’enquête indiquent avoir eu besoin d’un article non accessible au cours de la période : pour ceux-ci, 42% ont laissé tomber, 42% ont trouvé leur bonheur sur Sci-hub ou Researchgate, le reste ayant recours à peu près à part égale à la BU, à l’auteur ou à un collègue. Les alternatives légales type PEB n’ont pas rencontré de succès : difficile de rivaliser en terme de rapidité, même avec un service performant. L’enseignement intéressant aussi, c’est l’effet négatif en terme d’image sur l’éditeur, qui conduit les chercheurs à modifier leurs activités de publication : près de la moitié des répondants disent désormais refuser de publier, de faire du peer-review ou de remplir des fonctions éditoriales chez Elsevier.
  • Pour les universités membres du consortium, le non-renouvellement a été l’occasion de faire de la pédagogie auprès de leurs instances de gouvernance et de leurs chercheurs, à la fois sur les raisons de ce non-renouvellement, et aussi sur les moyens d’accès alternatifs aux articles, que ce soit les extensions, le PEB ou un service de fourniture de document payant (les 2 systèmes coexistent). La mise en place et/ou le renforcement des usages de ces services s’est fait à un coût marginal, rapporté au coût annuel pour l’accès à la Freedom.
  • Au niveau du consortium, les négociations avec d’autres éditeurs se sont intensifiées autour des questions d’open access.

Au final, les négociations ont repris et abouti selon les conditions suivantes (pour une économie de 1,7M d’euros par an) :

  • Accès à la collection Freedom
  • Droit de publication illimité dans les revues de la Freedom et toutes les revues en open access + droit de publication en OA pour 100 articles dans les revues hybrides de Cell Press, le tout sous licence CC-BY (sauf avis différent de l’auteur)
  • Pas de frais d’accès aux archives en cas de sortie
  • Accord de 3 ans, avec une augmentation annuelle à 2,5%

Par ailleurs en Floride, l’université a annulé son contrat global (« big deal ») en mars 2019, pour faire passer sa facture de 2 à 1 million de dollars, et son portefeuille de 1800 à 150 titres. L’éditeur avait prédit aux bibliothécaires que ce choix allait leur coûter au moins autant en solutions de remplacement type pay-per-view. Mais en fait non : à la surprise générale, au bout de 8 mois de fonctionnement, seuls 20 000$ ont été dépensés sur ce poste ; l’histoire ne dit pas combien l’université continue de dépenser en APC…

[Photo by Frank Okay on Unsplash]

RA21 : que va mon EZproxy devenir ?

Cette fois c’est Nicolas Doux, responsable de la BU Médecine-Pharmacie de l’Université de Poitiers, qui a bien voulu répondre à mon invitation, et nous fait un point sur le futur système d’authentification pour l’accès aux ressources électroniques soutenu par les éditeurs, RA21. Merci à lui de nous aider à y voir plus clair !

Longleat-maze

Les bibliothèques universitaires ont développé une offre de documentation électronique de plus en plus étendue et diversifiée. Nos usagers attendent de cette offre un accès rapide et simple qui n’est plus limité par un lieu et ses horaires d’ouverture, ni par le matériel ou la connexion internet utilisée. Shibboleth, OpenAthens, EZproxy… les bibliothèques utilisent différents protocoles pour donner accès à leurs ressources électroniques. RA21 (Ressources Access for 21st Century) se propose de les remplacer. Ca ne concerne pas seulement les revues électroniques mais aussi les eBooks, les bases de données et plus largement toutes les ressources électroniques.

RA21 est une initiative conjointe portée par :

  • STM (Scientific, Technical and Medical Publishers) l’association internationale des éditeurs scientifiques et techniques
  • NISO (National Information Standards Organization) basée aux Etats Unis

Plusieurs éditeurs participent au projet, et non des moindres : Elsevier, Springer Nature, Wiley, ACS, IEEE, Wolters Kluwer, Taylor and Francis. On y trouve également de nombreux prestataires des bibliothèques : Proquest[1], OCLC, Ebsco, OpenAthens, LibLynx. Ainsi que de nombreux établissement universitaires : University of Rotterdam, Bath Spa University, University of Illinois, Carnegie Mellon University, University of Bath, Coastal Carolina University.


[1] Ex Libris est une filiale de Proquest.

Qu’est-ce que RA21 aurait de mieux que mon EZproxy ?

Selon Todd Carpenter, directeur exécutif du NISO, le système actuel est devenu insuffisant dans le contexte du développement des accès à l’internet par les matériels mobiles comme les smartphones. Dès qu’un utilisateur quitte le réseau de son université, par exemple pour passer en 4G sur son portable, les plateformes d’éditeurs ne pourraient plus identifier les droits d’accès. L’utilisateur peut trouver une référence dans de nombreux environnements numériques qui ne feraient pas le lien avec les accès que lui confèrent l’établissement abonné auquel il est appartient. Todd Carpenter insiste sur les limites des accès distants mis en place dans les établissements avec des des logiciels de type reversed proxy, comme EZproxy. En clair, hors du réseau universitaire, Google Scholar, Pubmed, une boîte mail, etc… mettraient l’usager dans un cul de sac pour localiser l’accès au texte intégral. Todd Carpenter souligne que dans ce cas c’est la bibliothèque qui ne remplit pas sa mission.

Nicolas Morin voit en RA21 une solution à la dispersion géographique de l’université française et à la complexité de ses réseaux informatiques : « à Paris par exemple ou pour les chercheurs qui se déplacent beaucoup ou n’ont pas de bureau sur le Campus. (…) Les universités, grandes écoles, qui divorcent, fusionnent, s’allient dans des COMUE, des établissements publics, le CNRS partout, les licences nationales, les contrats communs avec les hôpitaux, etc. Dans ce contexte, il est quasiment impossible (…) de gérer correctement les accès auxquels elle a droit sur la seule base des adresses IP ».

Le projet RA21 ajoute ensuite : « another big concern for the librarian community is that users who are unable to access content via their institutions’ systems often turn to other channels instead. ». Cette assertion évoque le monstre dans le placard, ces « autres canaux », Sci-Hub et LibGen pour ne pas les nommer, avec lesquels ont été illégalement copiées 78%[1] des publications sur les serveurs des éditeurs scientifiques, pour ensuite les diffuser illégalement. Éditeurs scientifiques dont STM défend les légitimes intérêts. Rappelons que, malgré un accès légal aux ressources – hors campus ou sur le campus – certains utilisateurs préfèrent utiliser Sci-Hub pour accéder aux documents plutôt que les abonnements de leurs institutions. Academia et ResearchGate sont aussi visés par la documentation du projet.

Un dernier argument est avancé en faveur de RA21 : il mettrait tous les établissements à égalité, certains n’ayant pas eu le soutien politique ou les moyens de déployer leurs plateformes de service. Et pour ceux l’ayant fait, ce serait l’occasion de faire des économies d’échelle, si ce n’est en coûts directs au moins en déchargeant les services informatiques de la gestion des applications déployées localement, comme EZproxy.

billet1

[1] Substantiellement plus pour les éditeurs participants à RA21 : Elsevier 96.9% ; Springer Nature 89.7% ; Wiley-Blackwell 94.7% ; Taylor & Francis 92.6% ; Wolters Kluwer 79.4% ; American Chemical Society 98.8%.

Au fait, comment fonctionne EZproxy ?

Avec le système actuel, l’éditeur ouvre la consultation à ses collections en se basant sur la reconnaissance de l’IP du réseau d’un abonné. Une adresse IP est un numéro d’identification qui est attribué de façon permanente ou provisoire à chaque périphérique relié à un réseau informatique qui utilise l’Internet Protocol ; enregistrées et routables sur Internet, les IP sont publiques.

En complément, la bibliothèque donne l’accès à ses ressources à l’extérieur de son réseau avec un VPN, en identifiant ces usagers à partir d’une base de données personnelles, un LDAP (Lightweight Directory Access Protocol). Les bibliothèques ont pour la plupart déployé EZproxy, un serveur mandataire qui sert d’intermédiaire entre l’usager et un fournisseur de ressources numériques. Ces établissements gèrent l’identification de l’usager à partir de leur CAS (Central Authentication Service) qui utilise les données du LDAP. Nicolas Morin rappelle qu’en France, la situation est caractérisée par un déploiement extensif de ce système, de préférence aux autre solutions, comme Shibboleth par exemple. Nicolas Morin recommande aux bibliothèques un effort supplémentaire en travaillant avec les partenaires internes (juridiques, techniques) de l’institution pour bien délimiter ces transferts d’information à ce qui est nécessaire et juste ce qui est nécessaire.

Le problème avec cette méthode c’est qu’on ne peut pas utiliser l’URL normale de l’éditeur comme, au hasard, « https://www.sciencedirect.com ». Il faut y intégrer un élément qui renvoie au proxy de l’établissement abonné, comme « https://www-sciencedirect-com.ressources.univ-poitiers.fr/ ». Convenons que c’est contre-intuitif pour un usager lambda, obligé de passer sur le site de son établissement pour récupérer les URL « proxyfiées » de ses abonnements. Selon le contexte, la proportion d’accès hors campus peut devenir très importante.

Dans cette configuration, l’éditeur ne collecte pas toutes les informations : « to the vendor of the electronic resource, the patron appears to be on campus rather than at a remote location. » L’établissement abonné contrôle à la fois l’identité des utilisateurs, l’identification et les données d’utilisation, puisque les applications sont installées sur ses serveurs. Jusqu’à présent, si l’éditeur fournissait des statistiques d’utilisation de ses collections, il ne pouvait les croiser avec les données personnelles d’utilisateurs, tout au plus un statut (étudiants, enseignant-chercheur, lecteur extérieur…).

Et comment fonctionne RA21 ?

Avec RA21, STM et NISO veulent donc proposer une façon simple, sécurisée et universelle d’identifier l’accès (légal) à la documentation électronique. Elle serait commune à toutes les institutions abonnées.

RA21 est conçu comme une un système d’identification fédéré basé sur SAML (Security assertion markup language), un standard informatique définissant un protocole pour échanger des informations liées à la sécurité. Jusque-là rien de révolutionnaire, car Shibboleth et OpenAthens ont déjà construit leur infrastructure sur SAML. Moins conçu pour identifier les différents accès à un document (open access ou paywalled), RA21 est construit pour échanger des informations liées à la sécurité, essentiellement un identifiant personnel et un indicateur d’affiliation à un établissement autorisé. « Essentially SAML is a structure for describing how information is exchanged about the rights that allow someone to access something. » In fine, le protocole sert à vérifier les droits d’accès donc à protéger les éditeurs contre les accès illégaux, ceux qui n’ont pas fait l’objet d’une licence négociée et rémunérée par les établissements d’enseignement supérieur et de recherche.

RA21 a lancé plusieurs programmes pilotes dont deux destinés aux établissements d’enseignement supérieur :

  • Privacy Preserving Persistent WAYF (P3W) basé sur SAML, c’est-à-dire l’application qui contrôle l’identité des utilisateurs ;
  • WAYF Cloud, une plateforme pour faciliter l’échanges des données d’identification entre portails d’éditeurs, que vous pouvez tester en ligne ; lesquelles données sont, dans la configuration actuelle, générées et stockées localement par le LDAP de l’établissement.

Tel que l’analyse Aaron Tay, en plus des identifiants personnels, RA21 enregistrera dès la première connexion le deviceID… l’identifiant du matériel sur lequel l’utilisateur accède aux plateformes de l’éditeurs : PC, portable, tablette, smartphone… A sa première connexion, il sera demandé à l’utilisateur de choisir son établissement avant de saisir identifiant et mot de passe, comme avec Shibboleth ou OpenAthens. Dès la connexion suivante, RA21 gardera en mémoire l’association entre l’identifiant de l’utilisateur et celui de sa (ses) machine(s) pour offrir une identification plus rapide qui se passera de la déclaration de son établissement.

La différence paraît ténue avec Shibboleth et OpenAthens. A la deuxième connexion avec un appareil, la différence évidente pour l’usager serait la disparition du choix de son établissement. Nicolas Morin décrit l’utilisation d’un cookie qui s’installerait dans le navigateur, pour garder en mémoire les établissements dont l’utilisateur aura utilisé les abonnements.

Dans cette configuration, ce sera RA21 qui non seulement gérera l’identité des utilisateurs mais en plus, autorisera – ou non – l’accès. De cette manière, toutes les données d’activité transiteront par leurs applications, P3W et WAYF Cloud. Un éditeur aurait donc un accès complet à l’activité de ses abonnés : le moment, le lieu, des éléments de profils… ? Pourrait-il les relier aux historiques de consultation de ses collections numériques ou de tous autres services ? Le comité d’organisation du RA21 affirme que toutes les garanties seront mises en place dans les configurations du service : non seulement les éditeurs n’auraient pas d’intérêt commercial à le faire (sic), mais le protocole SAML anonymiserait chaque usager avec un pseudonyme. Néanmoins, NISO reconnaît explicitement que RA21 procurera aux éditeurs des avantages pour l’accès aux données générées par les utilisateurs via l’approche de la connexion unique. Au final, RA21 renvoie à l’établissement abonné la responsabilité de protéger la confidentialité des identités et plus largement de gérer cet aspect auprès de ses publics. Ce sera donc aux bibliothèques de choisir quelle informations seront exportées du LDAP vers WAYF Cloud, évitant les données trop personnelles mais devant fournir celles qui permettront à P3W/SAML d’identifier l’établissement et, par voie de conséquence, ses droits d’accès. La conformité du RA21 au RGPD européen mériterait une analyse approfondie. Des voix se sont élevées dans notre communauté professionnelle pour avertir qu’un problème de sécurité pour les éditeurs pourrait devenir un problème de données personnelles pour nos publics, en privant les utilisateurs de tout contrôle.

Et en quoi RA21 va-t-il modifier le fonctionnement de ma bibliothèque ?

RA21 a explicitement confirmé que son objectif est bien d’abandonner les accès basés sur l’IP. Le déploiement de RA21 réécrira les serveurs proxy des éditeurs et de différents prestataires (Proquest, OCLC, Ebsco) pour les transformer en SAML bridges : au lieu de diriger une requête d’accès directement à l’éditeur, le protocole redirigera la requête vers les serveurs de P3W (Privacy Preserving Persistent WAYF) qui utiliseront une URL WAYFless pour accéder au document. Les URL WAYFless  remplaceront les URL proxyfiées. Jusqu’à maintenant, c’est l’établissement abonné qui gérait cette URL avec des applications locales ; avec EZpaarse, il collectait une base de logs constituant l’historique des consultations. Ces logs permettent de produire des statistiques d’utilisation affinées par profils d’usagers anonymisés. Pour la même finalité, le projet RA21 propose un service Granular Usage Statistics à ses clients. Lors d’un webinaire UKSG, Lisa Hinchliffe interpellait les participants sur la manière dont RA21 traiterait les walk-in users (visiteurs non-inscrits en bibliothèque) pour l’accès aux ressources électroniques dans les locaux de la bibliothèque, car ils ne peuvent généralement pas s’authentifier avec des systèmes locaux. Il faudra également s’interroger sur les lecteurs extérieurs (ni étudiants, ni personnels de l’université mais inscrits en BU). Pour l’instant on ne sait pas si RA21 pourra gérer des accès restreints aux locaux de l’université – comme les licences d’éditeurs l’autorisent généralement pour les walk-in users et les lecteurs extérieurs – ni comment on générera leur compte.

RA21 est un protocole qui n’a été conçu que pour gérer les droits d’accès à la documentation électronique. Il n’intègre aucune des autres fonctionnalités avec lesquelles les bibliothèques pourront exercer toute la diversité de leurs missions. De prime abord, RA21 a donc une fonction unique et identique à la fonction de base d’outils de services courants : résolveurs de liens, extensions Browker Browser autrement appelés Access Brokers (Lean Library, Kopernio, Anywhere Access, Libkey Nomad, CASA Campus Activated Subscriber Access). Comparé à eux, RA21 a un avantage : si une installation locale est nécessaire avec nos outils actuels – dans le navigateur avec un « browker browser » ou dans chaque application avec un résolveur – RA21 s’en dispense. Cependant, dans un résolveur comme dans un browker browser, la bibliothèque peut implémenter d’autres services. Le résolveur peut, par exemple, à partir d’une référence de document, renvoyer vers les collections imprimées, le prêt entre bibliothèques, un accès green open access, des libguides, la médiation d’un bibliothécaire/documentaliste… ce que Lisa Hinchliffe appelle l’implémentation d’une assistance contextuelle et adaptative. Avec la mise en production de RA21, elle redoute une régression des bibliothèques, là où nous avons axé nos efforts depuis plusieurs années : le user-centered discovery and delivery. Elle rappelle aussi, si c’était nécessaire, combien pour nos usagers l’activité en ligne reste encore liée à une activité IRL en investissant les espaces physiques et dans l’interaction avec ses pairs et les professionnels de la documentation. RA21 a le potentiel pour réduire notablement le champs d’action des bibliothèques, peut-être même est-il construit sur une conception très restrictive de nos missions.

On doit aussi se demander quel sera le périmètre des contenus pour lesquels RA21 gérera les accès. Lisa Hinchliffe rappelle, si c’était nécessaire, que la bibliothèque a vocation à donner accès à tous les contenus, qu’ils soient propriétaires ou sous des licences ouvertes. Dans nos établissements, de nombreuses collections numériques manquent déjà de métadonnées adéquates pour une découvrabilité optimale : bibliothèques numériques, dépôts institutionnels, données de la recherche, presses locales… C’est une question stratégique que ces ressources soient intégrées à tous les services de découvertes, RA21 inclus. Le plan S européen, le plan français pour la science ouverte, veulent rendre obligatoire l’accès ouvert pour les publications et pour les données issues de recherches financées sur projets, en déposant les documents sur des plateformes publiques ; BASE – Bielefeld Academic Search Engine – en recense 7000 dans le monde. RA21 propose une réponse à cette préoccupation et elle mérite qu’on s’y attarde. Son système d’accès fédéré lui paraît pertinent à deux titres pour le green open access :

  • P3W et WAYF Cloud pourrait être implémentés sur les plateformes pour gérer les droits d’accès, en améliorant la sécurité et la fiabilité des systèmes locaux ;
  • Ils fourniraient aussi des outils de mesure des usages car les bibliothèques n’auraient plus ? aucun moyen de les mesurer (sic). 

Il fallait effectivement s’attarder sur ces propositions et l’appréciation qu’elles ont de nos services. Leur mise en œuvre rendrait nos ressources en green open access techniquement dépendante du RA21 ; on pourrait se demander si leurs données d’utilisation seraient partagées avec d’autres acteurs, comme les éditeurs.

Roger C. Schonfeld[2] expose néanmoins d’autres possibilité d’intégration, au niveau du service rendu à l’utilisateur. Si une plateforme fournit l’accès à la version preprint d’un article, RA21 pourrait être paramétré pour permettre à certains utilisateurs qui n’ont pas accès à la version éditeur – et donc payante – de se voir proposer l’accès à une version alternative gratuite, comme le preprint. Il cite en exemple les efforts d’Elsevier pour connecter ses plateformes avec les dépôts institutionnels. Il reconnaît néanmoins que cela pourrait permettre aux éditeurs de réduire la visibilité de cette offre alternative, bien qu’aucune partie ne l’ai jamais explicitement exprimé.

Outre l’implémentation des ressources open access des bibliothèques, la question se pose de savoir quels éditeurs se déploieront sous le protocole RA21. Sans trop s’avancer, ce sera le cas des éditeurs à l’initiative du projet : Elsevier, Springer Nature, Wiley, ACS, IEEE, Wolters Kluwer, Taylor and Francis. Dans un marché oligopolistique, ces éditeurs ont une position dominante en diffusant la moitié des publications scientifiques. Cependant, JournalSeek, la base de données anglophone de journaux académiques et scientifiques, référence 39226 journaux publiés par 6617 éditeurs à ce jour. Lisa Hinchliffe craint que les plus petits éditeurs n’aient pas les moyens – humains, techniques financiers – d’adapter leurs plateformes à RA21. Ils pourraient être tentés de passer des contrats avec de plus gros acteurs pour qu’ils diffusent leurs contenus ou a minima passer des accords techniques qui mettraient les uns dans la dépendance de quelques autres. Cela ne ferait qu’accentuer la concentration du secteur de l’édition scientifique. Il n’est d’ailleurs pas exclu que l’on passe par une phase hybride, avec des accès alternativement proxyfiés ou par URL WAYFless, dans une période de transition plus ou moins longue, à moins qu’elle ne se pérennise. La question est d’autant plus sensible que RA21 est et restera une application propriétaire. Quand il est demandé si le code de ses applications sera diffusé en open source, RA21 répond qu’il ne veut pas exclure les fournisseurs de gestionnaires d’accès (Proquest, OCLC, Ebsco, OpenAthens, LibLynx) participant au projet, la plupart d’entre eux « gagnant leur vie » en commercialisant des outils et des solutions. RA21 sera donc bien une solution propriétaire que des fournisseurs du marché intégreront à leurs offres de service commerciales. A ce stade, il n’est pas inintéressant de se demander comment est financé le développement du standard et des applications de RA21. Le site officiel est muet sur le sujet. On ne trouve un élément de réponse que dans une seule source, le support d’un webinaire de l’UKSG : « Initial funding (is) provided by participating publishers. » Comme le dit l’adage, « celui qui paie les violons choisit la musique ». Pour les bibliothèques qui cherchent à maximiser les consultations de leurs abonnements, RA21 est une bonne nouvelle. Par contre, les perspectives sont plus incertaines pour celles cherchant à maîtriser leurs abonnements et à consolider des positions dans les négociations tarifaires avec les éditeurs.

Il est temps d’ouvrir le placard pour découvrir le sort que réserve RA21 aux monstres troublant les nuits des éditeurs. La documentation officielle du projet répète à l’envi que les serveurs proxy sont le maillon faible dans la chaîne de sécurité avec laquelle on protège les ayants-droits des publications scientifiques. Sci-Hub et LibGen copient illégalement les publications sur les sites des éditeurs puis stockent les fichiers pour y donner accès gratuitement, à toute la communauté. Pour accéder aux fichiers, Sci-Hub utilise les éléments d’identification des usagers d’un établissement abonné, en passant par les serveurs proxy de l’établissement abonné. RA21 substitue un nouveau protocole d’accès à celui que détourne Sci-Hub, en éliminant les adresses IP qui par nature sont visibles et frauduleusement reproductibles. Jill O’Neill, directrice des contenus chez NISO, rappelle que les établissements ont été « courtoisement » avertis qu’il est de leur responsabilité de ce que des brèches de sécurité ne résultent pas de compte utilisateurs « compromis » si cela doit porter atteinte aux intérêts des éditeurs ou autres fournisseurs de contenus. En effet, il ne reste dans RA21 qu’un maillon de la chaîne, l’identifiant de l’usager, sur lequel vont se focaliser les efforts de sécurisation. Avec la plateforme unique W3F, les éditeurs auraient accès, même sans données personnelles, à une vision globale des flux, grâce à laquelle ils pourraient identifier les flux suspects pour les relier aux établissements qui auront fourni les identifiants personnels. RA21 affirme avoir l’avantage d’améliorer la capacité des bibliothèques à formuler des protocoles de sécurité plus précis et sécurisés pour empêcher les accès frauduleux. Les éditeurs pourront signaler à un établissement si ces comptes présentent des indices d’usages frauduleux, le rappelant à ses engagements contractuels. Lisa Hinchliffe craint que les bibliothèques ne soient obligées de consacrer de plus en plus de temps de leur personnel à la formation et au dépannage des comptes basés sur l’identité. Dans la nouvelle chaîne de l’information scientifique, les établissements universitaires auraient pour fonction de veiller à la fiabilité des LDAP, ses bases de comptes personnels, probablement avec les moyens économisés sur l’administration et la maintenance d’un EZproxy. Avec RA21, les plus grands éditeurs scientifiques espèrent donc couper les vivres aux intermédiaires qui piratent leurs catalogues. RA21 est un Sci-Hub killer. Peut-être est-ce sa fonction principale et au diable toutes les conséquences sur les établissements abonnés. Dans toute guerre, même commerciale, il faut des dommages collatéraux pour que le tableau soit complet.


[2] Responsable des projets liés aux bibliothèques d’Ithaka S+R, une organisation à but non lucratif ayant pour objectif d’aider la communauté universitaire à utiliser les technologies numériques.

En conclusion

RA21 annonce une révolution qui faciliterait l’expérience des usagers mais au final, la technologie utilisée n’est pas fondamentalement innovante. Elle réutilise SAML, un protocole de sécurité déjà intégré aux solutions préexistantes : Shibboleth, OpenAthens. Le fonctionnement et les interfaces devraient être très similaires. Par contre elle substitue à ces solutions consortiales, développées par les universités, une plateforme centralisée sur un modèle de technologie propriétaire. Le contrôle des accès échappera en grande partie aux abonnés, réduisant leurs compétences à la gestion des bases d’identifiants de leurs usagers, sous contrôle des éditeurs. Les bibliothèques peuvent se demander comment vont s’intégrer tous leurs services dans cette nouvelle chaîne de diffusion de l’IST. Les principaux prestataires d’outils de découvertes participant au projet, il serait logique qu’ils intègrent cette nouvelle technologie aux outils de découvertes, résolveurs de liens… voir même aux SGBM qui remplacent nos SIGB. Outre les changements induits dans nos services aux usagers, cela pose la question de la charge des coûts. Dans quelle mesure seraient-ils reportés sur les tarifs d’abonnements que nous supportons comme des charges récurrentes ? Le développement de RA21 mérite toute l’attention des acteurs de la vie universitaire et de leurs tutelles. En Amérique du Nord, l’Association of Research Libraries (ARL) a déjà pris position contre le projet, jugé trop déséquilibré en faveur des éditeurs.

De toute façon RA21 paraît déjà dépassé alors qu’un consortium d’éditeurs développe une autre solution, Get Full Text Research (GetFTR). Son développement sera piloté par un consortium d’éditeurs sans leur syndicat, ni le Niso ou  les intermédiaires de service (ExLibris, OCLC, Ebsco…). GetFTR a les mêmes objectifs que RA21 et entend dépasser les limites qu’il prête à ce dernier. Les éditeurs visent-ils à contrôler toute la chaîne de diffusion de leurs publications et l’ensemble de son environnement numérique ?

Qu’est-ce que le KM ? (1)

Un billet en 2 parties, pour enfin comprendre ce qui se cache derrière le terme mystérieux de « knowledge management », par Julien Sempéré (@jusempere), chef de projet Learning Centre de l’Université Paris-Saclay, et accessoirement secrétaire du comité permanent sur le KM de l’IFLA. Merci Julien d’avoir honoré cette commande !

martin-adams-S3D_6eTWRyA-unsplashEcrire un billet dans un blog populaire pour expliciter une méthode, voilà une vraie démarche de Knowledge Management (KM), ou gestion des connaissances (GC). En effet, pour qu’un groupe, un service ou une institution développe ses connaissances, encore faut-il persuader du bien-fondé de la démarche. Ce billet ne prétend pas présenter le KM des origines à nos jours, mais expliquer pourquoi cette approche est à encourager dans le contexte actuel de forte transformation de l’enseignement supérieur et de la recherche. Réel remède à tous nos maux de « gestion du changement » et de « mutualisation », ou simple placebo, avoir un esprit façonné au KM ne peut, dans tous les cas, pas faire de mal.

Le KM : pourquoi les bibliothécaires ?

Théorisé et mis en pratique dans l’industrie en particulier au Japon (Nonaka et Takeuchi), la GC consiste à développer une culture au sein de toute organisation pour gérer la connaissance qu’elle détient, sa transmission et sa transformation. Le KM part du constat que toute organisation possède un capital de connaissances en particulier non écrites ou tacites. Chaque personne au sein de l’organisation détient une part de ce capital et, si rien n’est fait pour capter ce capital, c’est un risque pour l’organisation de perte de culture et de savoir-faire entraînant un risque économique. A titre d’exemple, comment capter la connaissance d’un créateur de mode au sein d’une maison de haute-couture ? Si son départ est une perte irréparable, cependant, ses dessins, ses créations et ses disciples sont autant de manières de transmettre sa connaissance.

Au début des années 2000, cette gestion des connaissances s’est traduite par le développement de services ou postes de knowledge manager au sein des entreprises et a été récemment intégrée à une norme ISO 9001-2015. Théorisée de manières différentes, y compris en français (Prax), elle insiste sur des dynamiques identiques importantes :

  • Comment l’individu transfère sa connaissance personnelle à d’autres personnes qui travaillent à son contact ?
  • Comment un groupe transmet à son tour sa connaissance à d’autres groupes au sein de l’organisation ou en dehors de celle-ci ?
  • Comme l’individu acquiert de nouvelles connaissances d’autres groupes ou individus afin d’être en capacité d’innover ?

Dans le même temps, les bibliothèques se sont intéressées au KM. En effet, les bibliothèques de banques centrales en ont utilisé les méthodes au titre de la transparency, la capacité à gérer la validité et la confidentialité d’une information qui doit être consolidée, validée et diffusée de manière très ciblée au sein d’une institution. Plus généralement, les bibliothèques y ont pris part du fait de leur capacité à indexer, classer et mettre à disposition de la connaissance. C’est ainsi qu’au début des années 2000, un special interest group en KM s’est développé au sein de l’IFLA donnant naissance à une section Konwledge Management en 2011. Ce groupe était dès l’origine constitué de collègues issus de cabinets de conseil, de bibliothèques universitaires, d’institutions centrales (parlements, banques centrales, agence pour l’environnement) du fait des origines mêmes de la discipline. Cette diversité a ouvert ses travaux sur des champs assez divers : compréhension des attentes des publics, transformation de la connaissance, accompagnement du changement, validité de la connaissance, etc.

Ainsi, les travaux se sont intéressés à la transmission de la connaissance en interne, au sein de la bibliothèque ou le rôle qu’elle peut tenir au sein de son institution pour instaurer une culture du KM. Ils se sont également penchés sur la capacité des bibliothèques à échanger de la connaissance vers et depuis les publics. La littérature sur le sujet est essentiellement disponible en langue anglaise bien que le fait de professionnels issus de toutes les aires géographiques. L’ensemble des cas d’usages peut se retrouver librement sur la bibliothèque de l’IFLA : http://library.ifla.org.

Jean-Yves Prax. Le guide du Knowledge Management. Concepts et pratiques du management de la connaissance. Paris, Dunod, 2002.

Ikujiro Nonaka, Hirotaka Takeuch. La connaissance créatrice : la dynamique de l’entreprise apprenante. Bruxelles, De Boeck, 1997.

[Photo by Martin Adams on Unsplash]

Le marché du mardi n°50

Bunches of carrots for sale at the Farmer's MarketRecherche stuff

Améliorer Wikipedia via PLOS : Peu de chercheurs contribuent à Wikipedia, alors que ce sont des spécialistes qui ont toute légitimité à enrichir l’encyclopédie, et, quand ils contribuent, cette activité es difficilement  valorisable dans leurs CV, puisque la notion d’auteur est fortement diluée dans Wikipedia. C’est avec ces éléments en tête que les éditeurs de PLOS ont lancé en 2017, les PLOS  Topic Pages, qui sont des articles thématiques courts, validés par les pairs sur le wiki de PLOS, publiés dans les revues participantes au projet sous forme d’articles (avec un DOI, donc citables), ajoutés à Wikipédia, puis enrichis par la communauté. Et c’est sans APC.

Lens, une des alternatives au WoS : Après des années d’immobilisme, il y a depuis 2 ans pas mal de mouvement dans le secteur des outils bibliographiques. Aaron Tay, qui suit de près les progrès dans ce domaine, a fait de nombreuses analyses et comparaisons, dont notamment une revue de détail de Lens.org, qui a selon lui un fort potentiel. Et dont je n’ai pas beaucoup entendu parler par ici – est-ce que ce type d’outils commence à être utilisé (ou même juste testé) dans la profession ? Si oui je veux bien vos retours d’expérience !

Intéressant de relire les anciennes éditions du « Marché du mardi » (en cherchant le numéro à attribuer à celui-ci), ça permet de retomber sur des ressources intéressantes comme la série des Ten simple rules de PLOS computational biology, qui donnent des conseils pratiques sur la vie de chercheur.

OER stuff

Les presses numériques de l’université de l’Iowa proposent une introduction aux ressources éducatives ouvertes (Open Education Resources, OER) : The OER starting kit . Cet ebook (gratuit, CC-BY) aborde aussi bien les aspects juridiques et techniques que pédagogiques des OER.

Des OER en veux-tu, en voilà : on en trouve un catalogue multidisciplinaire, multi-niveau sur OER Commons, ainsi que des modules pour aider à créer des ressources éducatives ouvertes (Open Author).

OA stuff

Une nouveauté de l’Open Access Button passée relativement inaperçue en juin dernier : la version alpha de « Permissions« , permet de faire des vérifications par lot sur des jeux de DOI ou d’ISSN sur les politiques de dépôt et d’auto-archivage des revues. Les informations d’origine ont été récupérées de la base maintenue par les BU de l’Université de Pennsylvanie, leur mise à jour est crowdsourcée et complétée par Sherpa/Romeo. Il est prévu que le système prenne en compte les affiliations des auteurs, pour les informer sur les éventuels mandats de leurs établissements

Techniques for electronic resources management systems : TERMS and the transition to Open est une mise à jour du numéro de Library Technology Report de 2013 consacré à la gestion de le documentation électronique réalisé par le GT TERMS, qui prend en compte le mouvement généralisé vers l’OA dans les négociations, le signalement, l’accès, les statistiques… Un must-read pour qui souhaite s’initier à ces questions.

[Photo : Scott97006]

Contourner les embargos

1367763825_d6c71401fb_oJ’avais été intriguée l’an dernier à la lecture de l’article de Josh Bolick, bibliothécaire à l’université du Nebraska, Leveraging Elsevier’s Creative Commons License Requirement to Undermine Embargoes. Dans cet article, l’auteur ne faisait rien moins que démontrer une faille dans la politique de partage des contenus de l’éditeur, permettant de contourner les embargos sur le dépôt des postprints dans des archives ouvertes.

La démonstration étant un peu technique, mais la politique de l’éditeur n’ayant pas été modifiée malgré la publication de l’article, il m’a semblé intéressant de traduire le texte en français, ce que nous avons fait cet été avec Lionel Maurel, et ça donne : Tirer parti des exigences d’Elsevier sur les licences Creative Commons pour contourner les embargos.

Le pitch de l’article est le suivant : dans sa politique de partage, Elsevier fait un distingo entre archive ouverte et site web perso, le dépôt dans une archive ouverte étant soumis à un embargo (pouvant aller jusqu’à 48 mois, quand même : CarnetIST avait dès 2015 pointé les disparités disciplinaires dans leur analyse de la durée des embargos chez Elsevier), alors que la diffusion par les auteurs sur leur site web personnel peut se faire sans embargo, moyennant l’ajout d’une licence CC-BY-NC-ND. Si l’on pousse la logique jusqu’au bout, une fois que l’article est en ligne sur le site web perso avec cette licence, celui-ci devient rediffusable et donc déposable dans une archive ouverte, là aussi sans embargo.

Comme l’auteur le précise, ce dispositif n’est pas fait pour fonctionner à grande échelle, et nécessite un minimum de pédagogie de la part des bibliothécaires ; c’est d’ailleurs surtout un bon prétexte justement pour faire de la pédagogie auprès des chercheurs (sur les licences CC, sur la cession des droits, sur les conditions de diffusion des publications…). Il interroge aussi sur la notion de « site personnel », que l’éditeur oppose au site institutionnel qu’est l’archive ouverte de l’établissement : et si le site perso du chercheur est une page hébergée sur le site du labo ? Ou sa page CV sur HAL ? Il me semble que la frontière étant de plus en plus floue, ce type de clause devrait tôt ou tard disparaître de la politique de partage de l’éditeur.


avril 2024
L M M J V S D
1234567
891011121314
15161718192021
22232425262728
2930  

Archives

Licence

Licence Creative Commons
Ce(tte) œuvre est mise à disposition selon les termes de la Licence Creative Commons Attribution 3.0 France.