Quels changements pour les BU quand l’OA primera ?

13921535969_dccf724a92_kJe trouve le billet d’Aaron Tay "How academic libraries may change whan open access becomes the norm" particulièrement pertinent par rapport aux questionnements que nous avons en BU ces temps-ci ; voici les changements qu’il anticipe (ce qui est en italique est traduit par mes soins) , en partant du principe "qu’au cours des 10-25 prochaines années, 50 à 80% (ou plus) des publications annuelles seront disponibles sous une forme ou une autre d’open access".

1. "Les rôles des BU dans la découverte et même dans la fourniture d’information aux usagers vont diminuer" :
Les étudiants, et de plus en plus de chercheurs, n’utilisent pas le site de la BU pour commencer leurs recherches, ils utilisent sans le savoir les ressources de la BU croisées avec les outils de signalement commerciaux comme Google Scholar : exit la mission d’aide à la découverte.
Par ailleurs, une fois la majorité des ressources accessibles librement en OA, finie la mission de fourniture d’information : divers outils permettent déjà (l’extension pour Chrome Lazy Scholar par exemple) de récupérer automatiquement une version en libre accès quand elle est disponible.
Du coup, cela aura une incidence au niveau des RH : on n’aura en principe plus besoin de grosses équipes pour la gestion des abonnements imprimés (tant qu’il en restera) ni pour la gestion des ressources en ligne (qui se concentrera du coup sur l’administration du résolveur de liens, de la base de connaissance…)

2. "Les BU pourraient plus se concentrer sur leurs fonds spécifiques et passer à l’édition/l’hébergement de revues" :
"Au delà du simple rôle d’archive, quelques bibliothèques s’essayent à produire des épirevues, comme le fait l’University College London. Cela demande essentiellement que les BU se lancent dans l’édition en convertissant les archives institutionnelles en plateformes de publication. Les presses universitaires de l’UCL, par exemple, sont désormais un département au sein de la bibliothèque de l’institution. En combinant la plateforme open source Open Journal System (OJS) et l’archive institutionnelle comme système de stockage, la bibliothèque édite désormais des revues en open access. De nombreuses revues sont aussi publiées avec la solution Digital Commons.
La grosse question est de savoir si les BU ont les compétences, les savoirs et les motivations pour jouer ce rôle et reprendre le système de communication scientifique."
En ce qui concerne les fonds spécifiques, il s’agirait de penser non plus en termes quantitatifs, mais qualitatifs : mettre l’accent sur les unica, les documents rares ou précieux, ou spécifiques à l’institution (littérature grise, thèses, etc). Pour ce faire, "numérisation, OCRisation, transcription de textes, création de métadonnées pour une meilleure "découvrabilité" desdites collections. Une autre façon de revenir de la gestion de l’abondance à celle de la rareté qui a sous-tendu l’activité des bibliothèques pendant des siècles, si je ne m’abuse ?

3. "Les bibliothèques s’axeront plus sur des services d’expertise à haute valeur ajoutée, comme l’information literacy, les services de gestion des données, les services de géolocalisation etc pour remplacer leur mission réduite d’acquisition" :

La BU est ici confrontée à son problème d’image, de perception qu’en ont les utilisateurs : dans un monde où tout ou presque est accessible facilement, sans barrière financière, institutionnelle ou juridique, la mission d’acquisition de documentation n’a plus de raison d’être. Or cette mission est celle qui est la plus reconnue aux bibliothèques (p.67) par les chercheurs : comment justifier la valeur ajoutée de la BU pour la recherche dans ce contexte ? D’où l’intérêt pour les bibliothécaires de se saisir le plut tôt possible d’autres missions de support à la recherche : aide à la publication en OA, bibliométrie, gestion des données, formation aux "compétences informationnelles"…

4. "Les budgets des bibliothèques pourraient diminuer" :
En toute logique, la disponibilité des contenus en OA implique une baisse des coûts.
Cela ne veut pas dire que la dépense sera nulle pour autant : il faudra bien payer les APCs (mais ce rôle ne sera pas forcément donné aux bibliothèques), et, j’ajoute que l’édition électronique et les archives institutionnelles, ça a un coût aussi : développer des fonctionnalités pour son archive ouverte, former le personnel à de nouvelles compétences d’édition par exemple, ou embaucher des personnels qualifiés pour mettre en oeuvre une chaîne de publication, rien de tout cela n’est gratuit.
La question fondamentale à mon avis, c’est : est-ce que ces missions se feront dans les bibliothèques ou en dehors ?

10231527134_535e3171e5_k5. "Moderniser les pratiques de citation" :
Selon l’article "Academic citation practices need to be modernized – References should lead to full texts wherever possible", les versions en open access des articles publiés devraient devenir la source de référence, et les articles accessibles uniquement sur abonnement ne devraient être cités qu’en dernier recours ; il propose l’ordre de priorité suivant :

  1. Revue en open access
  2. Revue hybrides
  3. Archive ouverte institutionnelle
  4. Toutes les autres sites en open access, aussi bien les réseaux sociaux de recherche type Academia.edu ou Researchgate que les archives thématiques comme SSRN

(L’auteur de l’article prône également la citation des DOI, l’usage d’URLs compactes et l’abandon de la pagination)

Aaron s’interroge, en conclusion, sur les indicateurs qui permettront aux BU de réaliser qu’il est temps pour elles de diminuer les activités traditionnelles : "la baisse des téléchargement d’articles par utilisateur pour les revues sur abonnement ? La baisse des consultations du site web de la bibliothèque ?
A partir de quel pourcentage de la production éditoriale annuelle en open access les BU commenceront-elles à réduire la voilure ?"
[Photos : Santi, Lena CH]

El conditor pasa

ImageAvez-vous déjà entendu parler de Conditor ? Il s’agit d’un projet initié dans le cadre de BSN3, dont l’objectif est de "recenser l’ensemble de la production scientifique de la communauté Enseignement Supérieur et Recherche". L’idée est donc de faire une grosse base de signalement de la production scientifique française, en récupérant les données là où elles sont déjà (dans le Web of Science, dans les archives ouvertes, dans les réservoirs de littérature grise…) et en s’appuyant sur des référentiels existants (RNSR, IDREF…). La base peut gérer les liens vers le texte intégral le cas échéant, mais ce n’est pas une archive ouverte, on reste bien au niveau du signalement.

Pour avoir une idée de ce que la mise en place d’un tel projet donnerait à l’échelle nationale, une expérimentation a été organisée en 2013 avec un groupe d’établissements pilotes (IRD, INRA, Paris Dauphine, ABES, CNRS, INRIA) : ils ont chacun fourni une extraction de leur archive locale, ou bien donné accès à leur référentiel, pour constituer un corpus de données à analyser.
Les résultats de cette expérimentation ont donné lieu à une restitution la semaine dernière à laquelle j’ai eu l’occasion d’assister, je vous en livre quelques éléments :
– L’expérimentation s’est terminée fin 2013. Il faut améliorer la méthode pour la détection des doublons (28000 repérés dans l’échantillon), pour les appellations des tutelles, pour les liens avec IDREF, pour l’absence d’un tronc commun de métadonnées (qui a donné lieu à un travail de formatage initial très lourd).
– Les points positifs : la volumétrie importante et la variété des signalements et des formats présents dans le corpus expérimental permettent de se rendre réellement compte des difficultés. On réalise que le « tout automatique » est impossible. Le projet est faisable, d’autant plus si les établissements mutualisent les façons de faire, et n’ont plus à saisir dans leurs systèmes que ce qui n’y est pas déjà (la mutualisation telle qu’elle est pratiquée dans le SUDOC a été citée plusieurs fois en exemple).
Les établissements ayant participé à l’expérimentation ont fait un retour sur leur propre expérience, en voici quelques points saillants :
– Conditor comme pivot : l’intérêt d’une base nationale alimentée de façon mutualisée (et qui gère le dédoublonnage) permet de n’avoir plus qu’un seul connecteur à développer pour récupérer la production de son établissement et la reverser dans son archive locale
– Les DOI sont insuffisants pour dédoublonner
– Le matching entre le corpus et le WoS montre les insuffisances de cet outil : 50% des notices du corpus ne figuraient pas dans les résultats du WoS, dont 30% de notices d’articles. Effet collatéral : cela pose question sur la pertinence des analyses de l’OST, qui ne s’appuie que sur des outils commerciaux (WoS et Scopus).
– L’intérêt de la mutualisation est indéniable : l’usage de référentiels communs, la gestion centralisée des opérations de dédoublonnage, les comparaisons entre bases permettront, à terme, de disposer d’une vue d’ensemble claire de chaque communauté de recherche, au-delà des organismes.
Par contre il n’est apparemment pas question d’attribuer à Conditor de budget supplémentaire…
[Photo : Gustavo Duran]

Ils publient dans les mégarevues : pourquoi ? comment ?

ImageUne nouvelle étude de David Solomon s’intéresse cette fois aux auteurs publiant dans les mégarevues en open access (PLoS ONE, Sage Open, BMJ Open et PeerJ). Voici quelques-uns des résultats récoltés auprès de ces auteurs  :

- Le quart des articles est de la recherche originale. Moins de la moitié des articles soumis ont déjà été proposés pour publication dans d’autres revues : l’idée, encouragée par les éditeurs eux-mêmes, c’est de re-soumettre un article refusé dans une mégarevue du même éditeur.

- Les critères de choix prépondérants sont la qualité de la revue et la rapidité du processus de validation ; le facteur d’impact compte aussi, dans une moindre mesure (PLOS et BMJ), ainsi que les critères de validation et le fait que la revue soit en OA (PeerJ). Les auteurs publiant chez Sage Open et BMJ se montrent également sensibles à la réputation de l’éditeur

- Le financement des APCs provient, pour la moitié des auteurs de PLoS ONE et le tiers de ceux de BMJ Open et de PeerJ, des bourses allouées aux projets de recherche eux-mêmes. Une grande proportion des auteurs de Sage Open (60%) et de PeerJ (32%) semblent financer les APCs sur leurs propres deniers, mais il est vrai que ceux-ci sont traditionnellement plus modestes en SHS que pour les sciences dures d’une part (Sage est descendu sous la barre des 100$), et que les adhésions individuelles proposées par PeerJ sont très abordables d’autre part.

Solomon conclut :

"Les mégarevues attirent un public international de chercheurs expérimentés. Ceux-ci choisissent de publier dans ces mégarevues pour de nombreuses raisons, mais pour un grand nombre d’entre eux c’est la qualité de la revue et la rapidité du processus de validation et de publication qui priment. Pour la plupart des auteurs, le fait d’avoir une audience plus large n’est pas un facteur-clé, bien que ce soit important pour les auteurs publiant chez PeerJ et chez Sage Open. Les auteurs se disent satisfaits de cette expérience de publication et indiquent qu’ils soumettront vraisemblablement de futures contributions à la même revue ou à une mégarevue similaire, ce qui laisse présager une croissance continue de la poularité de ces revues."

Solomon DJ. (2014) A survey of authors publishing in four megajournals. PeerJ 2:e365 http://dx.doi.org/10.7717/peerj.365

[Photo : Howard Ignatius]

Le marché du mardi n°48

Comme ça fait très très longtemps que je n’ai pas fait de marché, certains items risquent d’être un peu datés, tant pis !

9255775520_2101d29187_mRecherche stuff
– L’European research council, la crème de la recherche européenne, est le premier organisme de financement de la recherche européen à participer au financement d’arXiv (il finance déjà une partie de PubMedCentral Europe).
Lazy Scholar, une extension Chrome qui va vérifier la disponibilité des articles sur Google Scholar
Academic torrents, comme son nom l’indique, propose de l’espace pour stocker et partager de la donnée scientifique
– Récente découverte pour moi, la série "Keeping up with…" proposée par l’ACRL aborde tous les mois un thème dans l’air du temps, sous une forme synthétique qui ne pourra que plaire aux décideurs : introduction, problématiques et enjeux, conclusion. Les thèmes depuis janvier : Altmetrics, Réalité augmentée, MOOCs. A rapprocher de la série "7 things you should know about" d’Educause ; bon sang mais pourquoi personne ne produit ce genre de synthèses ici ? Ah oui, il y a bien les fiches pratiques de l’Enssib, que peu de gens connaissent, et qui sont, pour près de la moitié, consacrées à la conservation des fonds patrimoniaux…
– Tiens, voilà quelquechose qui pourrait s’approcher d’une fiche de veille : Les mégarevues, par le blog sur le libre accès de l’Inist
– Intéressante initiative chez Opening Science, avec la publication d’un guide "évolutif" sur l’impact d’internet sur la recherche et l’édition scientifique ("Opening Science: The Evolving Guide on How the Internet is Changing Research, Collaboration and Scholarly Publishing") : on peut accéder à la version éditable, acheter la version papier ou bien lire une version stabilisée chez Springer.

Pédago stuff
9252985215_233665e9f4_m- J’en ai déjà parlé, la collection s’étoffe : Open Stax propose désormais une dizaine de manuels en open access, en pdf ou en epub.
– Sans doute des idées à prendre dans le student guide to social media mis au point par les universités de Leeds, Manchester et York.
– Un truc (simple) pour faire un pdf unique à partir de plusieurs pdf, sur Mac.

Biblio stuff
– L’association of research libraries (ARL) a une chaîne sur Youtube ; on peut y retrouver la série de webcasts du projet Libvalue.

[Photos : Saint Rémy de Provence Tourisme]

OA hybride : difficile d’en avoir pour son argent

3205861278_77d3081dab_mLe Wellcome Trust a diffusé ces jours-ci la liste des articles en Open Access qu’il a financés en 2012/2013. Facile ainsi d’aller vérifier si lesdits articles sont bien accessibles librement, de préférence avec la mention de la licence qui va bien : les données ont ainsi pu être récupérées puis améliorées (correction du nom des éditeurs dans la liste, par exemple), pour permettre de produire des graphiques et autres tableaux montrant clairement la répartition des dépenses et les coûts des APC versés ; c’est ce qu’a fait notamment Ernesto Priego, qui explique sa démarche dans Quick insights from the Wellcome Trust paid APC 2012/13 dataset.
Les résultats d’Ernesto et d’autres observateurs sont pour le moins mitigés : si une grande partie des articles est bien accessible sans abonnement aux plateformes, on constate des pratiques de signalement hétérogènes :
– La licence n’est pas mentionnée, et remplacée par un "All rights reserved" chez Elsevier, ou, pire, le lecteur est renvoyé vers le formulaire de demande d’autorisation payante : l’éditeur vient de se fendre d’un communiqué à ce sujet, expliquant que leur service technique est en train de mettre à jour ses multiples bases de données pour rectifier le tir d’ici à l’été 2014. C’est la moindre des chose puisqu’il s’avère que l’éditeur a ainsi revendu une douzaine d’articles en OA à une cinquantaine de clients redirigés vers ce fameux formulaire… Peter Murray-Rust râle, à raison : ça fait déjà 2 ans qu’il a signalé le problème ; de la part d’une multinationale de cette taille, on pourrait effectivement s’attendre a un peu plus de réactivité.
– La mention de licence est erronée chez Wiley : elle dit qu’aucune exploitation commerciale n’est autorisée pour des articles pourtant sous licence CC-BY… On peut s’étonner, là aussi, que de grosses sociétés de ce type, avec quand même des moyens, puissent commettre des erreurs si grossières : ce n’est quand même pas compliqué de copier-coller le descriptif des licences depuis le site de Creative Commons, non ?
Plus inquiétant, il semble que l’article avec l’APC le plus élevé (6000£) ait été publié dans une revue qui n’est plus en ligne…

Du coup on peut s’interroger :
– Comment faire respecter les droits des auteurs et des financeurs dans la jungle des revues hybrides ? Il me semble, là comme ça à vue de nez, que les bibliothécaires seraient bien placés pour contrôler l’accessibilité et le respect des licences de diffusion de la production de leurs établissements : ils maîtrisent les outils de repérage des publications type WoS, les plateformes d’accès, et connaissent les licences.
– Est-ce que ces constats, répétés, ne sont pas la preuve que ce modèle n’est bon que pour les éditeurs traditionnels, auxquels il apporte un revenu supplémentaire sans aucun investissement ? Du coup, est-ce que les établissements ne devraient pas refuser de financer les publications dans les revues hybrides, et inciter plutôt au dépôt dans les archives ouvertes ?

Photo : TheoJunior

Gare aux chiffres !

WTF? - Francis Mariani - CC BY-NC-SAJ’ai lu dernièrement ici et :
– "… Elsevier a parfaitement compris une chose : c’est que si l’existence de ses revues importe tant, malgré tout, aux communautés scientifiques, ce n’est pas tant qu’il est pour elles crucial de lire les articles qu’elles contiennent (on en trouve la plupart sans problème en open access sur la Toile)."
– "Actuellement, plus de 1 500 revues d’Elsevier sont au moins partiellement en « libre accès »…"
Et là je me dis : zut, j’ai raté un épisode ou quoi ?
Aux dernières nouvelles, les articles publiés dans les revues hybrides (ces revues sur abonnement dans lesquelles il est possible, moyennant finances, de publier des articles en accès ouvert), notamment chez Elsevier, se comptent sur les doigts de quelques mains : 1014 articles en 2011, selon cette étude de Björk et Solomon sur les revues hybrides.
"2011, ça date, les choses ont changé" me direz-vous ?
OK. Voici les chiffres que nous donne Science Direct pour les 8 titres les plus consultés par les membres de Couperin en 2012 (+ de 100 000 téléchargements) :

  • The Lancet : 451 043 articles, 302 en OA (0.06%)
  • Archives de pédiatrie : 11 756, pas d’article en OA
  • La revue de médecine interne : 18 803, 3 articles en OA (0.015%)
  • Tetrahedron letters : 93 149, 61 articles en OA (0.06%)
  • Annales françaises d’anesthésie et de réanimation : 10 244, 2 articles en OA (0.01%)
  • Tetrahedron : 46975, 26 articles en OA (0.05%)

Imaginons que les choses aient encore changé en 2013, et qu’on arrive à 1% d’articles en OA : nous serions encore bien loin d’un large accès aux contenus d’Elsevier. Il me semble utile de le repréciser.

Chorus et Share

5009661582_7c08e91ebd_mL’annonce faite en février dernier par la Maison Blanche requérant la mise en accès ouvert des résultats de la recherche financée sur fonds publics invitait les agences gouvernementales concernées à mettre en place des outils pour assurer le stockage et la diffusion de ces données. Deux réponses ont émergé pour faire face à cette exigence, l’une émanant des éditeurs commerciaux, Chorus, l’autre étant soutenue par les bibliothèques, Share.

Chorus : on s’occupe de tout
L’argument principal des tenants de Chorus, c’est, believe it or not, de faire faire des économies au gouvernement américain. Les éditeurs s’engagent en effet à monter à leurs frais un portail d’accès aux articles en OA hébergés sur leurs plateformes. Les données sur le financement seraient mises à jour grâce à l’outil FundRef, déclinaison spécifique du système CrossRef pour l’identification et le signalement des publications (c’est CrossRef qui attribue les DOI aux articles). Du coup, plus besoin pour les autorités de maintenir des outils comme PubMedCentral, l’archive ouverte financée par les NIH.
Sauf que…
– Les éditeurs ne savent pas signaler correctement les articles en OA dans leur propres bases (voir mes essais précédents, par exemple).
– Ce n’est d’ailleurs pas dans leur intérêt : c’est même plutôt le contraire. Faire en sorte que ce soit la croix et la bannière pour trouver un article en OA, ou qu’au final la consultation se fasse en mode dégradé (sans possibilité de télécharger ou d’imprimer, par exemple), bref que l’expérience utilisateur soit bien meilleure sur les interfaces payantes, c’est aussi une stratégie de protection du patrimoine des éditeurs.
– Ce sont les agences qui ont les données les plus précises, les plus exhaustives et surtout les plus justes sur les financements, pas les éditeurs : le temps que FundRef soit réellement exploitable risque d’être assez long, ce qui risque de ralentir encore la mise en accès public des contenus.

Share : entrez, c’est ouvert
Ce que proposent les associations de bibliothèques et d’universités à l’initiative de Share (ARL, AAUL, APLU), c’est de s’appuyer sur le réseau des archives ouvertes existantes, qui serait en quelque sorte moissonné pour permettre une recherche fédérée. La plupart des archives ouvertes utilisant des logiciels open source et des protocoles libres, il ne devrait pas y avoir de problèmes d’interopérabilité. L’ARL a obtenu une subvention de 50 000$ de la Sloan Foundation , qui doit permettre de concevoir une feuille de route pour la mise en place du projet.
Fiche d’informations de l’ARL sur SHARE
Le draft du projet SHARE
Pour l’instant on ne sait pas lequel des 2 projets sera choisi : les projets ont bien été présentés dans le délai de 6 mois imposé par l’OSTP, mais on ne sait pas quand les agences se prononceront.

[Photo : Opensourceway]


septembre 2014
L Ma Me J V S D
« août    
1234567
891011121314
15161718192021
22232425262728
2930  

Archives

Licence

Licence Creative Commons
Ce(tte) œuvre est mise à disposition selon les termes de la Licence Creative Commons Attribution 3.0 France.

Suivre

Recevez les nouvelles publications par mail.

Rejoignez 660 autres abonnés