El conditor pasa

ImageAvez-vous déjà entendu parler de Conditor ? Il s’agit d’un projet initié dans le cadre de BSN3, dont l’objectif est de "recenser l’ensemble de la production scientifique de la communauté Enseignement Supérieur et Recherche". L’idée est donc de faire une grosse base de signalement de la production scientifique française, en récupérant les données là où elles sont déjà (dans le Web of Science, dans les archives ouvertes, dans les réservoirs de littérature grise…) et en s’appuyant sur des référentiels existants (RNSR, IDREF…). La base peut gérer les liens vers le texte intégral le cas échéant, mais ce n’est pas une archive ouverte, on reste bien au niveau du signalement.

Pour avoir une idée de ce que la mise en place d’un tel projet donnerait à l’échelle nationale, une expérimentation a été organisée en 2013 avec un groupe d’établissements pilotes (IRD, INRA, Paris Dauphine, ABES, CNRS, INRIA) : ils ont chacun fourni une extraction de leur archive locale, ou bien donné accès à leur référentiel, pour constituer un corpus de données à analyser.
Les résultats de cette expérimentation ont donné lieu à une restitution la semaine dernière à laquelle j’ai eu l’occasion d’assister, je vous en livre quelques éléments :
- L’expérimentation s’est terminée fin 2013. Il faut améliorer la méthode pour la détection des doublons (28000 repérés dans l’échantillon), pour les appellations des tutelles, pour les liens avec IDREF, pour l’absence d’un tronc commun de métadonnées (qui a donné lieu à un travail de formatage initial très lourd).
- Les points positifs : la volumétrie importante et la variété des signalements et des formats présents dans le corpus expérimental permettent de se rendre réellement compte des difficultés. On réalise que le « tout automatique » est impossible. Le projet est faisable, d’autant plus si les établissements mutualisent les façons de faire, et n’ont plus à saisir dans leurs systèmes que ce qui n’y est pas déjà (la mutualisation telle qu’elle est pratiquée dans le SUDOC a été citée plusieurs fois en exemple).
Les établissements ayant participé à l’expérimentation ont fait un retour sur leur propre expérience, en voici quelques points saillants :
- Conditor comme pivot : l’intérêt d’une base nationale alimentée de façon mutualisée (et qui gère le dédoublonnage) permet de n’avoir plus qu’un seul connecteur à développer pour récupérer la production de son établissement et la reverser dans son archive locale
- Les DOI sont insuffisants pour dédoublonner
- Le matching entre le corpus et le WoS montre les insuffisances de cet outil : 50% des notices du corpus ne figuraient pas dans les résultats du WoS, dont 30% de notices d’articles. Effet collatéral : cela pose question sur la pertinence des analyses de l’OST, qui ne s’appuie que sur des outils commerciaux (WoS et Scopus).
- L’intérêt de la mutualisation est indéniable : l’usage de référentiels communs, la gestion centralisée des opérations de dédoublonnage, les comparaisons entre bases permettront, à terme, de disposer d’une vue d’ensemble claire de chaque communauté de recherche, au-delà des organismes.
Par contre il n’est apparemment pas question d’attribuer à Conditor de budget supplémentaire…
[Photo : Gustavo Duran]

Ils publient dans les mégarevues : pourquoi ? comment ?

ImageUne nouvelle étude de David Solomon s’intéresse cette fois aux auteurs publiant dans les mégarevues en open access (PLoS ONE, Sage Open, BMJ Open et PeerJ). Voici quelques-uns des résultats récoltés auprès de ces auteurs  :

- Le quart des articles est de la recherche originale. Moins de la moitié des articles soumis ont déjà été proposés pour publication dans d’autres revues : l’idée, encouragée par les éditeurs eux-mêmes, c’est de re-soumettre un article refusé dans une mégarevue du même éditeur.

- Les critères de choix prépondérants sont la qualité de la revue et la rapidité du processus de validation ; le facteur d’impact compte aussi, dans une moindre mesure (PLOS et BMJ), ainsi que les critères de validation et le fait que la revue soit en OA (PeerJ). Les auteurs publiant chez Sage Open et BMJ se montrent également sensibles à la réputation de l’éditeur

- Le financement des APCs provient, pour la moitié des auteurs de PLoS ONE et le tiers de ceux de BMJ Open et de PeerJ, des bourses allouées aux projets de recherche eux-mêmes. Une grande proportion des auteurs de Sage Open (60%) et de PeerJ (32%) semblent financer les APCs sur leurs propres deniers, mais il est vrai que ceux-ci sont traditionnellement plus modestes en SHS que pour les sciences dures d’une part (Sage est descendu sous la barre des 100$), et que les adhésions individuelles proposées par PeerJ sont très abordables d’autre part.

Solomon conclut :

"Les mégarevues attirent un public international de chercheurs expérimentés. Ceux-ci choisissent de publier dans ces mégarevues pour de nombreuses raisons, mais pour un grand nombre d’entre eux c’est la qualité de la revue et la rapidité du processus de validation et de publication qui priment. Pour la plupart des auteurs, le fait d’avoir une audience plus large n’est pas un facteur-clé, bien que ce soit important pour les auteurs publiant chez PeerJ et chez Sage Open. Les auteurs se disent satisfaits de cette expérience de publication et indiquent qu’ils soumettront vraisemblablement de futures contributions à la même revue ou à une mégarevue similaire, ce qui laisse présager une croissance continue de la poularité de ces revues."

Solomon DJ. (2014) A survey of authors publishing in four megajournals. PeerJ 2:e365 http://dx.doi.org/10.7717/peerj.365

[Photo : Howard Ignatius]

Le marché du mardi n°48

Comme ça fait très très longtemps que je n’ai pas fait de marché, certains items risquent d’être un peu datés, tant pis !

9255775520_2101d29187_mRecherche stuff
- L’European research council, la crème de la recherche européenne, est le premier organisme de financement de la recherche européen à participer au financement d’arXiv (il finance déjà une partie de PubMedCentral Europe).
- Lazy Scholar, une extension Chrome qui va vérifier la disponibilité des articles sur Google Scholar
- Academic torrents, comme son nom l’indique, propose de l’espace pour stocker et partager de la donnée scientifique
- Récente découverte pour moi, la série "Keeping up with…" proposée par l’ACRL aborde tous les mois un thème dans l’air du temps, sous une forme synthétique qui ne pourra que plaire aux décideurs : introduction, problématiques et enjeux, conclusion. Les thèmes depuis janvier : Altmetrics, Réalité augmentée, MOOCs. A rapprocher de la série "7 things you should know about" d’Educause ; bon sang mais pourquoi personne ne produit ce genre de synthèses ici ? Ah oui, il y a bien les fiches pratiques de l’Enssib, que peu de gens connaissent, et qui sont, pour près de la moitié, consacrées à la conservation des fonds patrimoniaux…
- Tiens, voilà quelquechose qui pourrait s’approcher d’une fiche de veille : Les mégarevues, par le blog sur le libre accès de l’Inist
- Intéressante initiative chez Opening Science, avec la publication d’un guide "évolutif" sur l’impact d’internet sur la recherche et l’édition scientifique ("Opening Science: The Evolving Guide on How the Internet is Changing Research, Collaboration and Scholarly Publishing") : on peut accéder à la version éditable, acheter la version papier ou bien lire une version stabilisée chez Springer.

Pédago stuff
9252985215_233665e9f4_m- J’en ai déjà parlé, la collection s’étoffe : Open Stax propose désormais une dizaine de manuels en open access, en pdf ou en epub.
- Sans doute des idées à prendre dans le student guide to social media mis au point par les universités de Leeds, Manchester et York.
- Un truc (simple) pour faire un pdf unique à partir de plusieurs pdf, sur Mac.

Biblio stuff
- L’association of research libraries (ARL) a une chaîne sur Youtube ; on peut y retrouver la série de webcasts du projet Libvalue.

[Photos : Saint Rémy de Provence Tourisme]

OA hybride : difficile d’en avoir pour son argent

3205861278_77d3081dab_mLe Wellcome Trust a diffusé ces jours-ci la liste des articles en Open Access qu’il a financés en 2012/2013. Facile ainsi d’aller vérifier si lesdits articles sont bien accessibles librement, de préférence avec la mention de la licence qui va bien : les données ont ainsi pu être récupérées puis améliorées (correction du nom des éditeurs dans la liste, par exemple), pour permettre de produire des graphiques et autres tableaux montrant clairement la répartition des dépenses et les coûts des APC versés ; c’est ce qu’a fait notamment Ernesto Priego, qui explique sa démarche dans Quick insights from the Wellcome Trust paid APC 2012/13 dataset.
Les résultats d’Ernesto et d’autres observateurs sont pour le moins mitigés : si une grande partie des articles est bien accessible sans abonnement aux plateformes, on constate des pratiques de signalement hétérogènes :
- La licence n’est pas mentionnée, et remplacée par un "All rights reserved" chez Elsevier, ou, pire, le lecteur est renvoyé vers le formulaire de demande d’autorisation payante : l’éditeur vient de se fendre d’un communiqué à ce sujet, expliquant que leur service technique est en train de mettre à jour ses multiples bases de données pour rectifier le tir d’ici à l’été 2014. C’est la moindre des chose puisqu’il s’avère que l’éditeur a ainsi revendu une douzaine d’articles en OA à une cinquantaine de clients redirigés vers ce fameux formulaire… Peter Murray-Rust râle, à raison : ça fait déjà 2 ans qu’il a signalé le problème ; de la part d’une multinationale de cette taille, on pourrait effectivement s’attendre a un peu plus de réactivité.
- La mention de licence est erronée chez Wiley : elle dit qu’aucune exploitation commerciale n’est autorisée pour des articles pourtant sous licence CC-BY… On peut s’étonner, là aussi, que de grosses sociétés de ce type, avec quand même des moyens, puissent commettre des erreurs si grossières : ce n’est quand même pas compliqué de copier-coller le descriptif des licences depuis le site de Creative Commons, non ?
Plus inquiétant, il semble que l’article avec l’APC le plus élevé (6000£) ait été publié dans une revue qui n’est plus en ligne…

Du coup on peut s’interroger :
- Comment faire respecter les droits des auteurs et des financeurs dans la jungle des revues hybrides ? Il me semble, là comme ça à vue de nez, que les bibliothécaires seraient bien placés pour contrôler l’accessibilité et le respect des licences de diffusion de la production de leurs établissements : ils maîtrisent les outils de repérage des publications type WoS, les plateformes d’accès, et connaissent les licences.
- Est-ce que ces constats, répétés, ne sont pas la preuve que ce modèle n’est bon que pour les éditeurs traditionnels, auxquels il apporte un revenu supplémentaire sans aucun investissement ? Du coup, est-ce que les établissements ne devraient pas refuser de financer les publications dans les revues hybrides, et inciter plutôt au dépôt dans les archives ouvertes ?

Photo : TheoJunior

Gare aux chiffres !

WTF? - Francis Mariani - CC BY-NC-SAJ’ai lu dernièrement ici et :
- "… Elsevier a parfaitement compris une chose : c’est que si l’existence de ses revues importe tant, malgré tout, aux communautés scientifiques, ce n’est pas tant qu’il est pour elles crucial de lire les articles qu’elles contiennent (on en trouve la plupart sans problème en open access sur la Toile)."
- "Actuellement, plus de 1 500 revues d’Elsevier sont au moins partiellement en « libre accès »…"
Et là je me dis : zut, j’ai raté un épisode ou quoi ?
Aux dernières nouvelles, les articles publiés dans les revues hybrides (ces revues sur abonnement dans lesquelles il est possible, moyennant finances, de publier des articles en accès ouvert), notamment chez Elsevier, se comptent sur les doigts de quelques mains : 1014 articles en 2011, selon cette étude de Björk et Solomon sur les revues hybrides.
"2011, ça date, les choses ont changé" me direz-vous ?
OK. Voici les chiffres que nous donne Science Direct pour les 8 titres les plus consultés par les membres de Couperin en 2012 (+ de 100 000 téléchargements) :

  • The Lancet : 451 043 articles, 302 en OA (0.06%)
  • Archives de pédiatrie : 11 756, pas d’article en OA
  • La revue de médecine interne : 18 803, 3 articles en OA (0.015%)
  • Tetrahedron letters : 93 149, 61 articles en OA (0.06%)
  • Annales françaises d’anesthésie et de réanimation : 10 244, 2 articles en OA (0.01%)
  • Tetrahedron : 46975, 26 articles en OA (0.05%)

Imaginons que les choses aient encore changé en 2013, et qu’on arrive à 1% d’articles en OA : nous serions encore bien loin d’un large accès aux contenus d’Elsevier. Il me semble utile de le repréciser.

Chorus et Share

5009661582_7c08e91ebd_mL’annonce faite en février dernier par la Maison Blanche requérant la mise en accès ouvert des résultats de la recherche financée sur fonds publics invitait les agences gouvernementales concernées à mettre en place des outils pour assurer le stockage et la diffusion de ces données. Deux réponses ont émergé pour faire face à cette exigence, l’une émanant des éditeurs commerciaux, Chorus, l’autre étant soutenue par les bibliothèques, Share.

Chorus : on s’occupe de tout
L’argument principal des tenants de Chorus, c’est, believe it or not, de faire faire des économies au gouvernement américain. Les éditeurs s’engagent en effet à monter à leurs frais un portail d’accès aux articles en OA hébergés sur leurs plateformes. Les données sur le financement seraient mises à jour grâce à l’outil FundRef, déclinaison spécifique du système CrossRef pour l’identification et le signalement des publications (c’est CrossRef qui attribue les DOI aux articles). Du coup, plus besoin pour les autorités de maintenir des outils comme PubMedCentral, l’archive ouverte financée par les NIH.
Sauf que…
- Les éditeurs ne savent pas signaler correctement les articles en OA dans leur propres bases (voir mes essais précédents, par exemple).
- Ce n’est d’ailleurs pas dans leur intérêt : c’est même plutôt le contraire. Faire en sorte que ce soit la croix et la bannière pour trouver un article en OA, ou qu’au final la consultation se fasse en mode dégradé (sans possibilité de télécharger ou d’imprimer, par exemple), bref que l’expérience utilisateur soit bien meilleure sur les interfaces payantes, c’est aussi une stratégie de protection du patrimoine des éditeurs.
- Ce sont les agences qui ont les données les plus précises, les plus exhaustives et surtout les plus justes sur les financements, pas les éditeurs : le temps que FundRef soit réellement exploitable risque d’être assez long, ce qui risque de ralentir encore la mise en accès public des contenus.

Share : entrez, c’est ouvert
Ce que proposent les associations de bibliothèques et d’universités à l’initiative de Share (ARL, AAUL, APLU), c’est de s’appuyer sur le réseau des archives ouvertes existantes, qui serait en quelque sorte moissonné pour permettre une recherche fédérée. La plupart des archives ouvertes utilisant des logiciels open source et des protocoles libres, il ne devrait pas y avoir de problèmes d’interopérabilité. L’ARL a obtenu une subvention de 50 000$ de la Sloan Foundation , qui doit permettre de concevoir une feuille de route pour la mise en place du projet.
Fiche d’informations de l’ARL sur SHARE
Le draft du projet SHARE
Pour l’instant on ne sait pas lequel des 2 projets sera choisi : les projets ont bien été présentés dans le délai de 6 mois imposé par l’OSTP, mais on ne sait pas quand les agences se prononceront.

[Photo : Opensourceway]

De bonnes bases

3199154697_4b7fbde665Après avoir dénoncé publiquement les pratiques commerciales de certains éditeurs  (ACS l’an dernier, Sage ces dernières semaines), la directrice des bibliothèques du campus de Potsdam à New-York, Jenica Rogers, propose, dans l’optique de reprendre les relations avec les éditeurs sur de bonnes bases, une liste de principes élaborée avec ses bibliothécaires :
- Abandon des modèles tarifaires basés sur l’imprimés : l’électronique a sa propre valeur ajoutée, qui ne dépend en rien de choix faits précédemment pour le support papier.
- Fin des contrats pluri-annuels : tous les établissements d’enseignement supérieur étant touchés par des réductions drastiques de budget, il est préférable de garder une certaine souplesse financière pour  coller les achats de documentation numérique aux cursus.
- Refus de l’ajout automatique de contenus dans les bouquets : cela conduit à une augmentation mécanique des coûts, et à la perte de la maîtrise de la politique documentaire – une politique d’opt-in est préférable pour les nouveaux contenus.
- Evolution des big deals vers un modèle plus à la carte : pouvoir construire son propre bouquet, mixer des revues de niveau différent pour répondre aux attentes des publics.
- Plus de transparence dans la tarification, et moins de gaspillage de temps de travail : les négociations locales font perdre du temps aux éditeurs comme aux bibliothécaires.

Source : Attempting positivity by J. Rogers sur son blog.

[Photo : Jon Mc Govern]


juillet 2014
L Ma Me J V S D
« juin    
 123456
78910111213
14151617181920
21222324252627
28293031  

Archives

Licence

Licence Creative Commons
Ce(tte) œuvre est mise à disposition selon les termes de la Licence Creative Commons Attribution 3.0 France.

Suivre

Recevez les nouvelles publications par mail.

Rejoignez 616 autres abonnés