Research Gate : you’ve got mail !

234447967_516894d7fc_mSTM, l’association internationale des éditeurs en sciences, techniques et santé, vient d’envoyer un courrier à la direction de Research Gate, via son cabinet d’avocats (merci à @McDawg et @protohedgehog pour le lien). Dans ce courrier, après avoir rappelé la volonté des éditeurs de parvenir à un écosystème de diffusion de l’information scientifique durable et légal, et leur souhait de trouver une solution concrète avec les acteurs du secteur, dont RG, pour garantir le partage des contenus scientifiques dans le respect des règles élaborées par STM, l’association propose au réseau académique de procéder à quelques petites modifications dans son fonctionnement :

  • Selon STM, les éditeurs disposent de moyens techniques pour vérifier le statut des documents déposés sur RG. Si la version déposée est compatible avec la politique de l’éditeur, no problemo, le document pourra rester en ligne et accessible librement. Si la version déposée n’est pas compatible – par exemple s’il s’agit d’un pdf éditeur, ce qui est le cas de pratiquement 80% des documents déposés sur RG selon cet article -, le système permettra de « verrouiller » le document en ne donnant plus accès qu’aux co-auteurs ou à des groupes de personnes définis. L’auteur recevra même un petit message lui expliquant comment donner un accès plus large à ses documents, par exemple, je suppose, en lui proposant de payer des APCs…
  • Pour faire de la pédagogie auprès des auteurs, STM est prête à travailler avec RG, en renforçant la communication sur les politiques des éditeurs en matière d’auto-archivage.
  • Sympa, STM ne met pas la pression à Research Gate : elle lui donne jusqu’à juin 2018 pour passer ses contenus au crible et identifier les articles dont le niveau d’accès doit être modifié.
  • Et puis, bien sûr, dans un souci de préservation de l’intégrité scientifique, il n’est plus question que RG indexe les métadonnées des documents qui se trouvent sur ses serveurs, ni que RG se recréée une base de données interne en copiant les documents eux-mêmes…

Si Research Gate ne répond pas positivement à cette proposition d’ici la semaine prochaine, la société sera « contactée » individuellement par les membres de la STM, ou plus vraisemblablement par leurs avocats, un peu comme Elsevier ou l’American Chemical Society l’ont fait avec Sci-Hub.

Research Gate va-t-elle accepter ces conditions ? Les éditeurs vont-ils poursuivre RG pour non respect du copyright ? Et Academia dans tout ça ? Ca n’irait pas plus vite de racheter RG directement ? Les auteurs vont-ils finir par déserter les réseaux sociaux académiques ? A suivre…

[Photo : Liz West]

Publicités

Faire twitter son AO avec IFTTT

5210463195_2a620dfa4e_zDepuis décembre 2015, HAL AMU twitte les dépôts en texte intégral faits par les chercheurs de mon université sur le portail : l’idée, c’est de promouvoir par un canal supplémentaire les documents en libre accès, en les poussant sur Twitter, qui est de plus en plus fréquenté par les différents acteurs de la recherche.
Je pensais que c’était une pratique courante, mais à la lecture de ce billet du blog du laboratoire Cresson, j’ai réalisé que non, du coup, voici comment j’ai procédé :
– D’abord créer un compte Twitter pour diffuser : prévoir un pseudo pas trop long pour faciliter les re-tweets.
– Ensuite connecter le fil rss des dépôts en texte intégral à twitter avec l’outil magique IFTTT – la recette est simple (une fois qu’on a ouvert un compte sur le service) :

  • On sélectionne le service qui va déclencher l’action : en l’occurrence RSS : à chaque nouvel item ajouté au fil RSS
  • On choisit le service de diffusion : Twitter
  • On définit l’action : Poster un nouveau twitt
  • On précise enfin les éléments qui doivent figurer dans le twitt (« add ingredients »)
    • Le titre de l’item – {{EntryTitle}} – et son URL – {{EntryUrl}}. On peut ajouter du texte, un hashtag par exemple, mais je ne le recommande pas : ça prend des caractères, et même si le système réduit l’url, il faut que le titre du document déposé reste lisible.

Et zou, c’est parti pour de beaux twitts automatiques !

@HAL_AMU ne twitte que les documents déposés en texte intégral, qui sont ceux que nous voulons valoriser ; on pourrait choisir de tout signaler, ou de ne signaler qu’un type de document, ou qu’une ou plusieurs thématiques, il suffit juste de modifier le fil rss d’origine.
Résultat : 99 abonnés au bout de 18 mois d’activité… On va dire qu’il y a une forte marge de progression 🙂 Mais l’évolution du nombre d’abonnés est régulière, et le nombre d’interactions augmente aussi.

J’ai voulu voir si ces tweets avaient un impact sur les scores altmetrics : comme je ne voyais rien de flagrant, j’ai contacté Altmetric pour en savoir plus. Il s’avère que le système fonctionne avec une « liste blanche » de sources validées ; HAL n’y figurant pas, il a été ajouté (et prend désormais en compte toutes les urls en *.archives-ouvertes.fr). J’ai également demandé si les raccourcisseurs d’url avaient un effet : la réponse est non, toutes les urls raccourcies sont « étendues » pour afficher et prendre en compte l’url originale.

Reste maintenant à regarder de plus près les altmetrics des documents ayant été twittés, par exemple en 2016 puisque j’ai une année complète. Pour ce faire, il faut :

  • Vérifier que tous les articles de 2016 déposés en texte intégral ont bien un DOI : grâce à l’équipe très réactive d’OCDHAL, il est désormais possible de repérer avec cet outil les DOI manquants, pour les compléter dans HAL.
  • Réduire le corpus à examiner : ce qui me manque, c’est une requête API pour repérer les documents dans HAL ayant des altmetrics. Pas de bol, HAL ne permet pas de récupérer cette info.
  • Les rentrer dans l’Explorer d’Altmetric, par lots de 50, pour voir leur activité. Cette limite de 50 est basse, j’imagine qu’elle est modifiable quand on prend un abonnement institutionnel.
  • Et après, voir ce que ça donne… Je mets tous ça sur la to-do list de la fin 2017, à suivre !

Entre temps j’ai échangé avec les responsables de Strathprints, l’AO de l’université de Strathclyde, au Royaume-Uni : après 18 mois d’automatisation , ils sont revenus aux twitts manuels, ce qui leur permet d’ajouter des hashtags pertinents, d’être plus retwittés, d’avoir plus de « likes ». Ce travail est partagé entre les membres de l’équipe, les twitts sont faits en bloc et leur diffusion est planifiée sur la semaine. Intéressant : ne sont twittés que les documents complètement accessibles immédiatement, pas ceux sous embargo. Leur démarche est un peu différente de la nôtre (et le volume de dépôts sans doute aussi) : nous nous contentons de « pousser » les dépôts sur ce canal, sans filtre, aux spécialistes ensuite de les lire et de les rediffuser.

Tout cela donne des idées : utiliser les altmetrics pour sélectionner des articles à valoriser localement, faire des comparaisons avec les taux de citation du WoS, trouver un moyen d’intégrer des mot-clés dans les twitts automatiques…

Et vous, quelles sont vos stratégies de promotion de vos AO sur les réseaux sociaux ?

Sci-Hub : analyse croisée

33297043401_0b87a9eb6c_zBastian Greshake, un doctorant en biologie de l’université de Francfort, a eu l’idée de croiser les données sur les 28 millions de téléchargements effectués sur Sci-Hub en 2015-2016 avec les 62 millions de DOI stockés dans la base , voici quelques-uns des résultats qu’il a pu observer :

  • 35% des articles téléchargés ont moins de 2 ans, ce qui a  tendance à montrer l’inefficacité des embargos imposés par les éditeurs
  • Il y a un effet de longue traîne, avec des articles téléchargés datant d’avant 1900 : « enclosure » du domaine public vendu sous forme de bouquets d’archives ?
  • Moins de 10% des revues constituent plus de 50% des contenus de la base, et moins de 1% des revues représentent plus de 50% des téléchargements d’articles
  • Près de 50% des articles téléchargés proviennent de revues éditées par 3 éditeurs : Elsevier, Springer-Nature et Wiley, avec pour ce dernier une sous-représentation dans les téléchargements compte-tenu de la part de contenus présents dans la base.
  • Forte représentation de la chimie et, dans une moindre mesure, des sciences de l’ingénieur parmi les titres les plus demandés : pour l’auteur c’est à mettre en lien avec le fonctionnement de ces disciplines, pour lesquelles la part de recherche effectuée dans le secteur privé est importante, et pour laquelle on peut supposer plus de difficultés d’accès aux ressources numériques payantes que dans le secteur public.

Source : Looking into Pandora’s box : the content of Sci-hub and its usage

A noter : La diffusion de la liste des 62 millions de DOI contenus dans la base a déjà inspiré quelques développements, comme par exemple cet utilitaire qui permet de voir le pourcentage de couverture sur sci-hub, par revue.
[Photo : Astyan42]

Demandes de retrait de l’APA : ça ne passe pas

Choc dans la communauté des psychologues cette semaine :
14414514303_7f2ed6880f_ml’American Psychological Association, l’APA, qui a lancé il y a quelques mois un projet pilote visant « à repérer et à supprimer les articles des revues de l’APA illégalement diffusés en ligne », a envoyé à ses auteurs des demandes de retrait des articles qu’ils avaient eux-mêmes mis en ligne, sur leurs sites web personnels ou sur des sites institutionnels.

Légalement, l’APA a tout à fait le droit de faire ce type de demande aux auteurs, puisqu’elle détient tous les droits sur les articles. En terme de relations publiques et d’image vis à vis des auteurs cependant, cette opération s’est avérée plutôt néfaste : de nombreux auteurs ont exprimé leur mécontentement sur les réseaux sociaux, obligeant l’APA a rectifier le tir dans un communiqué de presse indiquant qu’elle allait concentrer ses efforts sur les sites de partage pirates, et que le dépôt dans les archives ouvertes ou sur les sites non-commerciaux cadrait bien avec sa politique en faveur du partage de la science – car à la base, l’APA est bien référencé dans Sherpa/Romeo comme un éditeur « green ».

Cette mauvaise opération de relations publiques a paradoxalement un effet positif : la polémique a ainsi (re)mis sous les yeux des chercheurs, qui ont tendance à les ignorer, les questions liées à la cession de leur droits aux éditeurs, et leur a rappelé qu’ils gardaient leurs droits sur leurs versions auteur, et pouvaient les déposer sur des archives ouvertes ou des seveurs de pre-prints, comme PsyArXiv par exemple.

Parmi les commentaires sur cette affaire, il est fait à plusieurs reprises référence à initiative PsyOA qui promeut, comme ses consoeurs de la Fair Open Access Alliance, les principes FAIR : transparence de la gouvernance des revues, maintien des droits aux auteurs, publication en OA avec une licence explicite, pas de publication conditionnée au paiement de frais, et si frais de diffusion il y a, ceux-ci doivent être bas, transparents et proportionnels à l’activité réelle de publication.

Sources :
Authors peeved by APA’s article takedown pilot par Aggie Mika in The Scientist
APA starts monitoring unauthorized internet posting of published articles sur Scinoptica
Is the APA tying to take your science down ? chez Alex Holcombe
[Photo : APA 2014 par George Reyes]

Des métriques pour l’open access

De  la même manière que les usages des revues en open access sont relativement peu étudiés dans les bilans statistiques, l’open access est actuellement assez peu pris en compte dans les différentes mesures de l’activité de publication, qui restent souvent basées sur le volume de citations.

Il serait cependant intéressant, pour faire évoluer les pratiques, de reconnaître l’ouverture des résultats de la recherche comme un avantage, un critère positif à côté d’autres mesures de la qualité du travail de recherche. C’est dans cette optique que David Nichols et Michael Twidale ont réfléchi à différents indicateurs, qu’ils présentent dans l’article Metrics for openness, dont je vous conseille la lecture. Voici quelques-unes de leurs propositions :

  • Practical openness index : le nombre d’articles et de communications en accès ouvert d’un auteur divisé par le nombre d’articles et de communications publiés par cet auteur, l’idée étant de s’approcher le plus de 1 (toute la production de l’auteur en accès ouvert).
  • Effective openness index : celui-ci prend en compte les questions de copyright, qui font qu’un article ne peut pas être « libéré » en OA ; on déduit du nombre total de publications celles dont on est sûr que les conditions de copyright empêchent toute ouverture potentielle.
  • Acce$$ index : ici on mesure le coût d’accès à la production d’un auteur pour un lecteur lambda ; la difficulté est de déterminer le coût d’un article, sachant que celui-ci varie selon le tarif payé par l’établissement auquel le lecteur appartient, et s’il n’appartient pas à une université, quel tarif choisir : le tarif public ? le coût du pay-per-view ? Et comment déterminer le coût d’un chapitre ?
  • Openness cost index : la mesure des coûts pour la mise en accès ouvert des documents prend en compte les APC, mais aussi, et c’est plus difficile à calculer, le temps et les efforts nécessaires pour y arriver : le temps de saisie (celui du chercheur ou celui d’une tierce personne), le temps de recherche de la bonne version à déposer, etc.
  • Illegality index : combien d’articles sont accessibles librement au mépris des règles de copyright ?

Les auteurs rapportent un effet vertueux de ce type de métrique individuelle : l’envie de faire augmenter son score est motivante. La jauge proposée sur dissem.in est un bon exemple de visualisation de ce type de données.

Une des difficultés rapportées par les auteurs pour établir ces métriques réside dans le choix de l’outil de mesure : faut-il considérer l’accès potentiel aux documents (en tant qu’auteur, je sais ce que j’ai produit en OA), ou bien le niveau de « découvertabilité » (discoverability) des documents (quels documents sortent le plus dans les recherches sur Google Scholar, par exemple) ; un document en accès ouvert qui est difficile à trouver est-il vraiment ouvert ?

Les auteurs indiquent qu’il est possible d’appliquer ces ratios au niveau d’une institution : cela me semble encore difficile, on manque de données propres, fiables et exploitables pour pouvoir faire ce type d’analyse à grande échelle, mais l’idée est bonne.

A AMU nous calculons annuellement un indicateur OA (iOA)* pour l’établissement, basé sur le nombre de publiants potentiels et sur le nombre de documents déposés en texte intégral dans HAL AMU, ça donne la formule suivante :

iOA = NBA (nombre de dépôts en texte intégral dans l’archive dans l’année) / NBEC (nombre d’enseignants-chercheurs, d’ATER, de doctorants et de postdocs de l’année)

Bien sûr il pourrait être affiné ou pondéré, complété pour prendre en compte l’OA Gold, etc. – en attendant il nous donne une grande tendance, et c’est déjà pas si mal…

Nichols, D. M., & Twidale, M. B. (2017). Metrics for openness. Journal of the Association for Information Science and Technology, 68(4), 1048–1060. https://doi.org/10.1002/asi.23741

* mis au point par Marin Dacos.

 

Le marché du mardi n°49

Parce qu’il existe des fans du « marché du mardi », en voici une nouvelle édition, plus light (quoi que) :

Preprints stuff
Complémentarité renforcée entre l’American Society for Microbiology (ASM) et le serveur de preprints Biorxiv : une mention « accepté pour publication » figure désormais sur tous les preprints acceptés pour diffusion dans les 4 revues OA de l’éditeur.

Revues stuff
La fondation MathOA propose d’accompagner les revues de mathématiques qui souhaitent passer au modèle OA, dans le respect des principes d’un open access équitable (« fair open access« ), à savoir une gouvernance transparente, le maintien du copyright aux auteurs, la diffusion avec une licence OA, des frais de publication non obligatoires, et, s’il y a lieu, d’un montant raisonnable, proportionnel aux coûts réels.

Après la disparition de la liste noire de Jeffrey Beall (Cameron Neylon explique très bien que les listes noires ne sont pas gérables, pas fiables, et pas éthiques), on va voir arriver des listes blanches spécialisées : ça commence avec la Greenlist qui couvre les revues d’urologie.

Où publier en open access dans le domaine de la chimie en 2017 ? Ce billet dresse une liste des différentes options, en mentionnant le tarif public des APC quand il y en a, ainsi que le mode de peer review (ouvert ou fermé).

Ca peut servir : une liste des remises sur les APC proposées par certains éditeurs – intéressant aussi de voir comment les bibliothèques diffusent l’information à leurs communautés (pour ceux que ça intéresse : à AMU nous stockons l’info sur le libguide open access et communiquons via la newsletter interne et les listes de diffusion).

Numérisation stuff
De la numérisation grand public : envoyez vos livres papier à 1$scan , on vous les renverra au format numérique, pour un coût de 1 dollar les 100 pages. Ils se chargent même de recycler le papier…

De la numérisation pour les pros : la Digital library federation met à disposition de la communauté ce calculateur, pour évaluer le coût d’un projet de numérisation.

Ebooks stuff
Bon à savoir : chez JSTOR il y a aussi des ebooks en open access, et même des éditions récentes.

Les pre-prints en 10 points

4069417645_570914e701_zUn pre-print est une contribution scientifique non validée par les pairs, qui peut être destinée à la publication (mais ce n’est pas une obligation). Les initiatives autour des pre-prints se multiplient ; Philip Bourne, Jessica Polka, Ronald Vale et Robert Kiley présentent en 10 points l’intérêt des pre-prints aujourd’hui :

Les pre-prints accélèrent la diffusion des connaissances : ils permettent de s’affranchir des délais longs de la publication (comptez en moyenne 9 mois entre la soumission et la publication d’un article dans une revue).

Les pre-prints rendent possible une science ouverte (« open science ») et améliorent la communication scientifique : ils ne sont pas soumis aux contraintes du copyright et leur consultation n’est pas restreinte, ils peuvent être fouillés par des programmes informatiques.

Les pre-prints fournissent du contenu scientifique qui serait perdu sans cela : un sujet qui n’a pas trouvé son public au moment où il a été traité, les travaux d’un étudiant ayant changé d’établissement, des résultats négatifs : ces contenus ne seront pas forcément publiés dans une revue, ils peuvent néanmoins servir à la communauté. « Oui mais ils ne sont pas validés ! » – certes, mais ni plus ni moins que les échanges dans les congrès, ou les blogs scientifiques…

Les pre-prints ne sont pas synonymes de mauvaise qualité : ce sont des contributions diffusées publiquement, qui peuvent être citées, et mettent en jeu la réputation de leurs auteurs, qui ont donc tout intérêt à diffuser des contenus de qualité – c’est en tout cas ce que l’on constate sur arxiv et biorxiv.

Les pre-prints permettent une évaluation rapide des résultats controversés : leur diffusion publique permet la discussion, le repérage des erreurs, la correction des données. Les NIH ont ainsi pu obtenir une vision très complète et très documentée de résultats controversés.

Les pre-prints n’empêchent pas forcément la publication : au vu de cette liste des politiques éditoriales concernant les pre-prints, on constate que peu d’éditeurs refusent des contributions au motif qu’elles ont déjà été déposées sur un serveur de pre-prints. La tendance est même plutôt à l’ouverture aux pre-prints, avec le développement de passerelles entre les serveurs de pre-prints et les outils de soumission aux revues, et d’epi-revues.

Les pre-prints ne mènent pas au plagiat : l’exemple d’arxiv montre que la communauté s’autorégule : des comportements plagiaires ne sont pas tolérés.

Les pre-prints permettent d’enregistrer la priorité : les contenus sont horodatés et publics, garantissant la paternité de leur auteur et leur antériorité dès leur dépôt, ce que ne permettent pas les revues, en raison de la validation par les pairs encore le plus souvent « fermée » et des délais de publication.

Les pre-prints peuvent appuyer les demandes de financement et l’avancement de carrière : les délais de publication sont un handicap, mieux vaut un dossier de financement avec des pre-prints disponibles en texte intégral immédiatement, c’est en tout cas ce qu’indique le fait que les organismes de financement, qui incluent de plus en plus l’intégration des pre-prints dans leurs politiques de subventionnement de la recherche. Concernant l’avancement, on peut imaginer qu’un pre-print assumé par son auteur aurait autant de poids que d’autres publications dans le processus d’évaluation.

Les pre-prints s’adaptent aux usages de leurs communautés : biorxiv par exemple n’accepte pas les papiers comportant des données sur des sujets humains, qui posent des questions d’ordre éthique, juridique et social.

Ten simple rules for considering preprints, disponible sur PEERJ Preprints.


octobre 2017
L M M J V S D
« Sep    
 1
2345678
9101112131415
16171819202122
23242526272829
3031  

Archives

Licence

Licence Creative Commons
Ce(tte) œuvre est mise à disposition selon les termes de la Licence Creative Commons Attribution 3.0 France.