Archive for the 'Archives Ouvertes' Category

Beprexit

344334742_a78125e145_mBePress est une société de services fondée par des enseignants de l’université de Berkeley, commercialisant principalement la plateforme de publication Digital Commons : celle-ci permet d’héberger des documents de tous types, mais aussi des revues, et des profils de chercheurs… C’est une solution de diffusion « clé en mains », adoptée comme plateforme d’archive ouverte par plus de 500 petites et moyennes universités nord-américaines.
Coup de tonnerre à l’été 2017 : Elsevier annonce l’achat de BePress, poursuivant ainsi sa stratégie d’élargissement de son portefeuille de produits au delà de la fourniture de contenus, pour se positionner en incontournable sur toutes les étapes du workflow de recherche. La société se présente désormais non plus comme une maison d’édition, mais comme une société globale d’analyse d’information » (« global information analytics business »), et consolide sa position sur le marché académique et de recherche par une politique d’acquisitions d’acteurs stratégiques dans tous les domaines liés à la recherche scientifique (Plum Analytics, Mendeley, SSRN…).

Je note au passage, comme d’autres observateurs, que SSRN, comme BePress, couvrent essentiellement les sciences sociales, et particulièrement le droit pour BePress (74% du top 100 des facultés de droit US utiliseraient BePress pour diffuser leurs contenus, selon cette enquête de 2016), et que l’autre fleuron du groupe RELX, dont Elsevier fait partie, c’est Lexis-Nexis, l’une des bases de données incontournables en droit. J’ai du mal à croire que ce soit une coïncidence.

L’initiative de l’Université de Pennsylvanie en réaction à ce rachat est intéressante : après avoir annoncé dès octobre son choix de quitter Digital Commons, elle a mis en place, via ses bibliothèques universitaires, une ‘taskforce’ pour instruire tout le processus de migration. La taskforce a 9 mois pour faire un état des besoins des utilisateurs, puis étudier les solutions alternatives et leur faisabilité dans le contexte local. L’un des défis de cette migration est que Digital Commons est un produit tout-en-un : il va vraisemblablement falloir s’équiper de plusieurs outils pour pouvoir proposer des fonctionnalités équivalentes, et réussir à intégrer ces outils de façon fluide dans le workflow des chercheurs de l’université.
Les avancées de « l’opération Beprexit » (@beprexit) sont documentées sur un blog dédié.

Sources :
Reflections on « Elseviers acquires BePress » – R. Schonfeld
Just business – Barbara Fister
Elsevier continues to build its monopoly solution for all aspects of scholarly communication – Glynn Moody
[Photo : Huskyboy]

Publicités

Faire twitter son AO avec IFTTT

5210463195_2a620dfa4e_zDepuis décembre 2015, HAL AMU twitte les dépôts en texte intégral faits par les chercheurs de mon université sur le portail : l’idée, c’est de promouvoir par un canal supplémentaire les documents en libre accès, en les poussant sur Twitter, qui est de plus en plus fréquenté par les différents acteurs de la recherche.
Je pensais que c’était une pratique courante, mais à la lecture de ce billet du blog du laboratoire Cresson, j’ai réalisé que non, du coup, voici comment j’ai procédé :
– D’abord créer un compte Twitter pour diffuser : prévoir un pseudo pas trop long pour faciliter les re-tweets.
– Ensuite connecter le fil rss des dépôts en texte intégral à twitter avec l’outil magique IFTTT – la recette est simple (une fois qu’on a ouvert un compte sur le service) :

  • On sélectionne le service qui va déclencher l’action : en l’occurrence RSS : à chaque nouvel item ajouté au fil RSS
  • On choisit le service de diffusion : Twitter
  • On définit l’action : Poster un nouveau twitt
  • On précise enfin les éléments qui doivent figurer dans le twitt (« add ingredients »)
    • Le titre de l’item – {{EntryTitle}} – et son URL – {{EntryUrl}}. On peut ajouter du texte, un hashtag par exemple, mais je ne le recommande pas : ça prend des caractères, et même si le système réduit l’url, il faut que le titre du document déposé reste lisible.

Et zou, c’est parti pour de beaux twitts automatiques !

@HAL_AMU ne twitte que les documents déposés en texte intégral, qui sont ceux que nous voulons valoriser ; on pourrait choisir de tout signaler, ou de ne signaler qu’un type de document, ou qu’une ou plusieurs thématiques, il suffit juste de modifier le fil rss d’origine.
Résultat : 99 abonnés au bout de 18 mois d’activité… On va dire qu’il y a une forte marge de progression 🙂 Mais l’évolution du nombre d’abonnés est régulière, et le nombre d’interactions augmente aussi.

J’ai voulu voir si ces tweets avaient un impact sur les scores altmetrics : comme je ne voyais rien de flagrant, j’ai contacté Altmetric pour en savoir plus. Il s’avère que le système fonctionne avec une « liste blanche » de sources validées ; HAL n’y figurant pas, il a été ajouté (et prend désormais en compte toutes les urls en *.archives-ouvertes.fr). J’ai également demandé si les raccourcisseurs d’url avaient un effet : la réponse est non, toutes les urls raccourcies sont « étendues » pour afficher et prendre en compte l’url originale.

Reste maintenant à regarder de plus près les altmetrics des documents ayant été twittés, par exemple en 2016 puisque j’ai une année complète. Pour ce faire, il faut :

  • Vérifier que tous les articles de 2016 déposés en texte intégral ont bien un DOI : grâce à l’équipe très réactive d’OCDHAL, il est désormais possible de repérer avec cet outil les DOI manquants, pour les compléter dans HAL.
  • Réduire le corpus à examiner : ce qui me manque, c’est une requête API pour repérer les documents dans HAL ayant des altmetrics. Pas de bol, HAL ne permet pas de récupérer cette info.
  • Les rentrer dans l’Explorer d’Altmetric, par lots de 50, pour voir leur activité. Cette limite de 50 est basse, j’imagine qu’elle est modifiable quand on prend un abonnement institutionnel.
  • Et après, voir ce que ça donne… Je mets tous ça sur la to-do list de la fin 2017, à suivre !

Entre temps j’ai échangé avec les responsables de Strathprints, l’AO de l’université de Strathclyde, au Royaume-Uni : après 18 mois d’automatisation , ils sont revenus aux twitts manuels, ce qui leur permet d’ajouter des hashtags pertinents, d’être plus retwittés, d’avoir plus de « likes ». Ce travail est partagé entre les membres de l’équipe, les twitts sont faits en bloc et leur diffusion est planifiée sur la semaine. Intéressant : ne sont twittés que les documents complètement accessibles immédiatement, pas ceux sous embargo. Leur démarche est un peu différente de la nôtre (et le volume de dépôts sans doute aussi) : nous nous contentons de « pousser » les dépôts sur ce canal, sans filtre, aux spécialistes ensuite de les lire et de les rediffuser.

Tout cela donne des idées : utiliser les altmetrics pour sélectionner des articles à valoriser localement, faire des comparaisons avec les taux de citation du WoS, trouver un moyen d’intégrer des mot-clés dans les twitts automatiques…

Et vous, quelles sont vos stratégies de promotion de vos AO sur les réseaux sociaux ?

Demandes de retrait de l’APA : ça ne passe pas

Choc dans la communauté des psychologues cette semaine :
14414514303_7f2ed6880f_ml’American Psychological Association, l’APA, qui a lancé il y a quelques mois un projet pilote visant « à repérer et à supprimer les articles des revues de l’APA illégalement diffusés en ligne », a envoyé à ses auteurs des demandes de retrait des articles qu’ils avaient eux-mêmes mis en ligne, sur leurs sites web personnels ou sur des sites institutionnels.

Légalement, l’APA a tout à fait le droit de faire ce type de demande aux auteurs, puisqu’elle détient tous les droits sur les articles. En terme de relations publiques et d’image vis à vis des auteurs cependant, cette opération s’est avérée plutôt néfaste : de nombreux auteurs ont exprimé leur mécontentement sur les réseaux sociaux, obligeant l’APA a rectifier le tir dans un communiqué de presse indiquant qu’elle allait concentrer ses efforts sur les sites de partage pirates, et que le dépôt dans les archives ouvertes ou sur les sites non-commerciaux cadrait bien avec sa politique en faveur du partage de la science – car à la base, l’APA est bien référencé dans Sherpa/Romeo comme un éditeur « green ».

Cette mauvaise opération de relations publiques a paradoxalement un effet positif : la polémique a ainsi (re)mis sous les yeux des chercheurs, qui ont tendance à les ignorer, les questions liées à la cession de leur droits aux éditeurs, et leur a rappelé qu’ils gardaient leurs droits sur leurs versions auteur, et pouvaient les déposer sur des archives ouvertes ou des seveurs de pre-prints, comme PsyArXiv par exemple.

Parmi les commentaires sur cette affaire, il est fait à plusieurs reprises référence à initiative PsyOA qui promeut, comme ses consoeurs de la Fair Open Access Alliance, les principes FAIR : transparence de la gouvernance des revues, maintien des droits aux auteurs, publication en OA avec une licence explicite, pas de publication conditionnée au paiement de frais, et si frais de diffusion il y a, ceux-ci doivent être bas, transparents et proportionnels à l’activité réelle de publication.

Sources :
Authors peeved by APA’s article takedown pilot par Aggie Mika in The Scientist
APA starts monitoring unauthorized internet posting of published articles sur Scinoptica
Is the APA tying to take your science down ? chez Alex Holcombe
[Photo : APA 2014 par George Reyes]

Des métriques pour l’open access

De  la même manière que les usages des revues en open access sont relativement peu étudiés dans les bilans statistiques, l’open access est actuellement assez peu pris en compte dans les différentes mesures de l’activité de publication, qui restent souvent basées sur le volume de citations.

Il serait cependant intéressant, pour faire évoluer les pratiques, de reconnaître l’ouverture des résultats de la recherche comme un avantage, un critère positif à côté d’autres mesures de la qualité du travail de recherche. C’est dans cette optique que David Nichols et Michael Twidale ont réfléchi à différents indicateurs, qu’ils présentent dans l’article Metrics for openness, dont je vous conseille la lecture. Voici quelques-unes de leurs propositions :

  • Practical openness index : le nombre d’articles et de communications en accès ouvert d’un auteur divisé par le nombre d’articles et de communications publiés par cet auteur, l’idée étant de s’approcher le plus de 1 (toute la production de l’auteur en accès ouvert).
  • Effective openness index : celui-ci prend en compte les questions de copyright, qui font qu’un article ne peut pas être « libéré » en OA ; on déduit du nombre total de publications celles dont on est sûr que les conditions de copyright empêchent toute ouverture potentielle.
  • Acce$$ index : ici on mesure le coût d’accès à la production d’un auteur pour un lecteur lambda ; la difficulté est de déterminer le coût d’un article, sachant que celui-ci varie selon le tarif payé par l’établissement auquel le lecteur appartient, et s’il n’appartient pas à une université, quel tarif choisir : le tarif public ? le coût du pay-per-view ? Et comment déterminer le coût d’un chapitre ?
  • Openness cost index : la mesure des coûts pour la mise en accès ouvert des documents prend en compte les APC, mais aussi, et c’est plus difficile à calculer, le temps et les efforts nécessaires pour y arriver : le temps de saisie (celui du chercheur ou celui d’une tierce personne), le temps de recherche de la bonne version à déposer, etc.
  • Illegality index : combien d’articles sont accessibles librement au mépris des règles de copyright ?

Les auteurs rapportent un effet vertueux de ce type de métrique individuelle : l’envie de faire augmenter son score est motivante. La jauge proposée sur dissem.in est un bon exemple de visualisation de ce type de données.

Une des difficultés rapportées par les auteurs pour établir ces métriques réside dans le choix de l’outil de mesure : faut-il considérer l’accès potentiel aux documents (en tant qu’auteur, je sais ce que j’ai produit en OA), ou bien le niveau de « découvertabilité » (discoverability) des documents (quels documents sortent le plus dans les recherches sur Google Scholar, par exemple) ; un document en accès ouvert qui est difficile à trouver est-il vraiment ouvert ?

Les auteurs indiquent qu’il est possible d’appliquer ces ratios au niveau d’une institution : cela me semble encore difficile, on manque de données propres, fiables et exploitables pour pouvoir faire ce type d’analyse à grande échelle, mais l’idée est bonne.

A AMU nous calculons annuellement un indicateur OA (iOA)* pour l’établissement, basé sur le nombre de publiants potentiels et sur le nombre de documents déposés en texte intégral dans HAL AMU, ça donne la formule suivante :

iOA = NBA (nombre de dépôts en texte intégral dans l’archive dans l’année) / NBEC (nombre d’enseignants-chercheurs, d’ATER, de doctorants et de postdocs de l’année)

Bien sûr il pourrait être affiné ou pondéré, complété pour prendre en compte l’OA Gold, etc. – en attendant il nous donne une grande tendance, et c’est déjà pas si mal…

Nichols, D. M., & Twidale, M. B. (2017). Metrics for openness. Journal of the Association for Information Science and Technology, 68(4), 1048–1060. https://doi.org/10.1002/asi.23741

* mis au point par Marin Dacos.

 

N’enterrez pas les archives ouvertes !

22644657642_80f8c7ae73_zDans ce billet de juillet dernier, « Let IR RIP » (en gros, « Ci-gisent les archives ouvertes institutionnelles »), Eric Van de Velde explique pourquoi, pour lui, les AO sont finies (il se concentre sur les AO d’établissements) :

  • Manque d’enthousiasme des enseignants-chercheurs : ils déposent par obligation, par par choix – on ne peut pas parler d’adhésion à l’OA
  • La gestion au niveau local des AO est déconnectée du fonctionnement plus global des communautés scientifiques
  • Les droits de réutilisation des contenus sont trop restrictifs pour pouvoir permettre une recherche fédérée efficace
  • Les AO ne sont pas suffisamment utilisées comme des outils de recherche (ie comme source de contenus) pour qu’une communauté d’utilisateurs permette d’en améliorer la qualité et les fonctionnalités
  • Le coût de la gestion des AO est disproportionné par rapport aux fonctionnalités limitées qu’elles proposent
  • La logique institutionnelle des AO n’épouse pas la logique de carrière des enseignants-chercheurs
  • Il manque aux AO une couche d’interactivité sociale pour stimuler les échanges entre enseignants-chercheurs
  • Les services autour des AO (type réseaux académiques) sont développés en dehors des institutions, et doivent trouver des modèles de financement alternatifs parfois contestés

Pour l’auteur, les AO ne sont pas la seule manifestation du green OA : les archives personnelles (« personal repositories »), les archives disciplinaires ou centralisées (il cite Arxiv et Pubmed) et les réseaux sociaux académiques sont d’autres véhicules de la voie verte.
22390839653_18d7c28799_zJe ne suis pas d’accord avec la totalité de l’argumentaire, dont certains éléments ne sont pas spécifiquement liés aux AO locales (la faible adhésion, les droits, les usages), ni avec sa conclusion : je vois mal comment un chercheur qui n’est pas motivé pour déposer un article dans une AO aurait subitement les capacités, l’envie et le temps de mettre en place son archive perso – et quelle belle opportunité de service à développer pour les acteurs privés ! -, et j’ai l’impression que la visibilité se travaille plus au niveau du laboratoire que du chercheur, en tout cas c’est ce que je perçois dans les échanges au sein de mon institution. On a aussi déjà dit ailleurs que les réseaux sociaux, ce ne sont pas des AO (et inversement), et le récent passage d’Academia a un modèle premium le confirme. Sur les 2 derniers griefs : il me semble que l’intérêt des AO locales est bien de pouvoir développer des services personnalisés pour sa communauté (après ils gagneraient peut-être à être mutualisés et rendus plus visibles, mais c’est une autre histoire), et un des moyens pour avoir des fonctionnalités sociales ne serait-il pas plutôt de développer des connecteurs avec les réseaux existants, au lieu de réinventer la roue ?

[Photos : Martine, Frédéric Bisson]

True colors

Dans cet article du JOLIS, « What does ‘green’ open access mean? Tracking twelve years of changes to journal publisher self-archiving policies« , Elisabeth Gadd et Denise Troll Covey ont étudié l’évolution sur 12 ans des politiques des éditeurs en matière d’auto-archivage, référencées sur Sherpa/Romeo. Ce que l’on peut en retenir :5584187526_fe3169c780_o

  • Les couleurs de Sherpa/Romeo ne reflètent plus la diversité des politiques éditoriales en matière d’auto-archivage, qui se sont complexifiées au cours des dernières années.
  • L’attribution de la couleur ne prend pas en compte la totalité des critères entrant dans les politiques des éditeurs, négligeant les embargos, le lieu de dépôt, les conditions annexes.
  • Les restrictions imposées par les éditeurs augmentent : sur le lieu de dépôt (pages perso en hausse notamment), sur la date de dépôt (de plus en plus d’embargos) et sur les conditions à remplir (lien vers le site de l’éditeur, mention de l’éditeur, suppression du pre-print après publication, ajout d’un fee pour sortir de l’embargo ou l’usage du pdf éditeur etc.)
  • Il existe une forte corrélation entre l’introduction d’options OA payantes (gold ou hybride) et l’augmentation des restrictions sur le green OA
  • Les demandes des financeurs, notamment sur les conditions de ré-utilisation, sont en hausse (dépôt sous licences CC spécifiques par exemple)
  • Globalement, on constate une augmentation des revues green (+4%), et une baisse des revues white (défavorables à l’auto-archivage). Mais c’est sans compter sur les restrictions des éditeurs : si l’on se base sur les revues autorisant un OA immédiat, dans une archive institutionnelle ou thématique, sans obligation d’en informer l’éditeur, les revues green baissent de 35%…
  • Paradoxalement, les revues acceptant le dépôt du pdf éditeur sont en augmentation : pour certains éditeurs, le green OA n’est donc pas une menace.5583597507_28c94e9d7f_o

Il y a indéniablement un effet de « greenwashing » : les éditeurs passent pour favorables à l’OA green en affichant l’aval de Sherpa/Romeo (du moment que le dépôt du pre-print et du post-print est autorisé, la revue est classée comme « green », même si des restrictions s’appliquent), alors qu’ils imposent en fait de plus en plus de contraintes au dépôt, ce qui a de quoi décourager les auteurs – et les professionnels de l’IST – qui finissent par ne plus savoir où ils en sont : l’OA gold c’est l’accès immédiat, mais c’est hors de prix, l’OA green c’est pas cher mais c’est compliqué, et il y a des éditeurs white qui autorisent quand même une forme de dépôt…

Les auteurs préconisent donc une révision du système de couleurs de Romeo et la mise en place d’un nouveau système d’évaluation du niveau d’open access des revues, prenant en compte toutes les spécificités de l’accès, sur le modèle de l’OA Spectrum établi par SPARC.

[Photos : NoHoDamon]

Openwashing

Dans son dernier billet When is the library Open ?, Barbara Fister revient sur plusieurs  mouvements récents dans le paysage scientifique :

  • L’accord passé entre l’université de Floride et Elsevier pour automatiser l’alimentation (via l’API de l’éditeur) de leur archive ouverte locale : dit comme ça, ça a l’air d’être une bonne idée, et c’est vrai que c’est plutôt pas mal pour récupérer des métadonnées, mais en fait le texte intégral des articles ne sera accessible que pour les abonnés à la plateforme ScienceDirect  (en dehors des articles nativement en OA)… Pas vraiment de l’OA, donc, et clairement une tentative forte de l’éditeur pour se positionner comme « partenaire/prestataire » de la Recherche, en récupérant des données de consultation et du trafic sur son propre site web au passage…

Il est évident qu’externaliser la gestion d’une archive ouverte institutionnelle à Elsevier n’est pas une bonne idée. Ce qui l’est moins, c’est que les bibliothécaires doivent se bouger rapidement pour financer et/ou bâtir collectivement des alternatives sérieuses à cet « openwashing« . Ce nous prendra du temps et de l’argent. Ca nécessitera de prendre des risques. Ca implique de nous éduquer à des solutions tout en réfléchissant à comment mettre nos valeurs en pratique. Ca implique de faire des compromis sur l’accès immédiat avec quelques râleurs ayant pignon sur rue, pour mettre de l’argent et du temps dans des solutions à long terme, qui pourront mette un certain temps avant de fonctionner. Ca implique de considérer la fourniture équitable d’accès au savoir comme notre fonction première, et pas comme une option sur laquelle travailler quand nous n’avons rien de mieux à faire avec nos « vraies » missions de négociation de licences, de maintenance des résolveurs de liens et de formation des étudiants à l’utilisation d’interfaces qui seront obsolètes quand ils auront terminé leurs études. Ca implique d’agir dès maintenant pour pouvoir faire partie du futur de la communication scientifique.

  • L’achat, toujours par Elsevier, de la plateforme SSRN : après les sociétés savantes, et les outils de gestion bibliographique (Mendeley), les infrastructures de l’OA deviennent un enjeu majeur du développement des éditeurs – et on peut légitiment penser qu’Academia et ResearchGate sont les prochains sur la liste.

4439668659_5ba184bf95_o

 


octobre 2018
L M M J V S D
« Sep    
1234567
891011121314
15161718192021
22232425262728
293031  

Archives

Licence

Licence Creative Commons
Ce(tte) œuvre est mise à disposition selon les termes de la Licence Creative Commons Attribution 3.0 France.
Publicités