Archive for the 'Business' Category

De la difficulté d’inclure l’OA dans les big deals

8118876600_aa8f636a48_zDans The open access big deals : back to the future, Richard Poynder évoque les problèmes posés selon lui par les négociations de ce qu’il appelle les « open access big deals », c’est à dire les accords incluant l’accès aux contenus sous abonnement et la publication en OA avec APC. Il rappelle d’abord les modèles en présence, en soulignant que les objectifs ne sont pas forcément clairs dans toutes les négociations :

  • on a du « Read and publish » : les institutions payent des abonnements pour lire les contenus, et les frais de publications sont inclus dans l’accord ; la tarification est calculée en fonction du nombre d’articles publiés annuellement  par les enseignants-chercheurs des institutions, qui viennent en déduction du coût des abonnements (c’est ce que l’on appelle aussi les accords de compensation, « offsetting agreements »)
  • et aussi du « Publish and read » : les institutions ne payent que les frais de publication correspondant au nombre d’articles que publient annuellement leurs enseignants-chercheurs, ce n’est plus l’accès aux contenus qui est valorisé dans l’accord. C’est le modèle suivi par les allemands avec DEAL.

Les problèmes posés par ces accords sont, pour Poynder, au nombre de 4 :

1. La transparence est une des composantes essentielles de la transition vers l’open access. Transparence sur les clauses des négociations, et transparence sur les coûts, elle est censée garantir une vitalité du marché des APC, la concurrence permettant de faire évoluer les prix à la baisse. Or actuellement, il semblerait que les négociations des big deals incluant les APC ne soient pas plus transparentes que celles des accords traditionnels (il donne les exemples des négociations en cours en Allemagne, en Suisse et en Finlande), sans qu’il soit réellement possible d’en savoir la raison, entre des clauses de confidentialité imposées par les éditeurs, ou une prudence excessive de la part des négociateurs.

2. Il y a ensuite le fait que ces accords mixant abonnements et APC favorisent les « gros » éditeurs traditionnels, et handicapent les pure players de l’open access, qui n’ont pas le composant « abonnements » d’une part et peinent à trouver des modèles économiques de rupture d’autre part.

3. Par ailleurs ces accords avalisent le modèle auteur-payeur comme principal modèle économique pour la diffusion en open access, en cautionnant notamment l’open access hybride, et ne résolvent en rien la question de l’accessibilité financière aux contenus.

4. Enfin ce type d’accord, en maintenant en partie le système d’édition scientifique traditionnel, ne facilite pas la transition vers un modèle de diffusion large de la recherche scientifique appelé de leurs voeux par les organismes de financement publics.

Ce que Poynder n’évoque pas, c’est que, sans accord, les nouveaux flux financiers qui vont aux éditeurs avec les APC restent sous le radar : non mesurés (quelle dépense pour combien d’articles ?), non contrôlés (quelle évolution de la dépense ?), non vérifiés (obtient-on réellement ce pour quoi on a payé ? les articles en question sont-ils bien accessibles ?), ce qui n’est pas, me semble-t-il, une garantie d’un bon usage des fonds publics.

[Photo : Tore Bustad]

Publicités

2,5% et plus

In the Internet era information will be free, the only question remaining is who pays for that freedom. — Kalev Leetaru

5171649483_dac32e7533_m

 

David Lewis, directeur des BU de l’Indiana University – Purdue University Indianapolis, propose dans le texte « The 2,5% Commitment » de financer une infrastructure commune, nécessaire pour soutenir la science ouverte, en demandant aux bibliothèques d’y consacrer 2,5% de leurs budgets. Elle comprendrait, au minimum, les contributions des établissements :
« 1. Aux projets de logiciels libres qui sous-tendent les initiatives d’open science : Dspace,  Fedora, Hyku, OJS, ArchiveSpace, Islandora…
2. Aux archives disciplinaires : ArXiv, bioRxiv, ou the Humanities Commons
3. Aux grosses bases de données hébergeant des contenus ouverts comme HathiTrust ou l’Internet Archive
4. Aux outils, de Wikipedia à VIVO, en passant par l’Open Access Button ou Unpaywall
5. Aux organisations de conservation telles que le Digital Preservation Network ou l’Academic Preservation Trust
6. Aux ressources éducatives libres telles qu’OpenStax
7. Aux organisations qui soutiennent ces développements, comme DuraSpace, le Center for Open Science, le Public Knowledge Project, l’Open Texbook Network, Impactstory, Orchid, ou Creative Commons
8. Aux organisations de promotion telles que SPARC »

Lewis souhaite aussi fournir une liste des différents outils et initiatives de soutien à la science ouverte, en regard de laquelle les établissements pourraient indiquer leur contribution financière, avec le choix de rendre publique cette information ou pas.

Au delà de la question financière, Lewis souligne qu’il y a une question de mentalité et d’organisation : en effet, malgré une longue tradition de travail en réseau, la mutualisation de capacités financières n’est pas encore entrée dans les pratiques des BU, et encore moins quand il s’agit de financer des structures, et plus seulement d’acheter de la documentation. Il y a un discours à porter auprès des tutelles, pour justifier l’allocation de ressources financières en soutien à des projets de science ouverte, qui n’est pas encore intégré dans les BU (en tout cas en France, du moins je n’en ai pas l’impression).
[Sur cette question d’organisation, on ne peut que faire le lien avec ce qui est en train de se mettre en place avec SCOSS, Sustainability Coalition for Open Science Services, un projet à l’initiative de plusieurs associations de soutien à l’open access et d’associations de bibliothèques. Le principe est assez simple : chaque année, les structures proposant des services en faveur de la science ouverte peuvent candidater pour être éligibles à un financement mutualisé. 2 projets sont sélectionnés par session, que les institutions choisissent de financer selon un barême défini à l’avance ; un genre de crowdfunding institutionnel, en somme. Cette année, Sherpa/Romeo et le DOAJ ont été sélectionnés, soutenez-les !]
La proposition de Lewis contrarie un peu Cameron Neylon, promoteur de longue date de l’open access : pour lui, un financement mutualisé ne peut fonctionner qu’avec un nombre réduit de participants, et nécessite un fort niveau de coordination, difficile à mettre en place au niveau d’un état (en tout cas aux Etats-Unis). Il questionne aussi la définition du pourcentage : qu’est-ce qui est couvert par cette fraction du budget ? Et comment le rationnaliser pour l’expliquer au sein de « la communauté », dans le cadre d’institutions pluri-disciplinaires, qui agrègent une myriade de communautés avec leurs spécificités et où le sens de « la » communauté n’est pas la chose la plus répandue ? Il est néanmoins d’accord avec la majorité des arguments de la proposition de Lewis, et conclut :
« Je pense que l’objectif est sur-évalué. Il demande à ce que trop d’universités participent, il implique des risques politiques à la fois internes et externes qui sont exactement ceux qui ont ralenti l’implémentation de l’open access. Il suppose un pouvoir sur les budgets, et le consentement implicite des universitaires, qui n’existent vraisemblablement pas et sont pratiquement impossibles à obtenir, et les masque derrière un petit pourcentage. Obtenir ce petit pourcentage demande quand même une grande coordination entre de nombreuses institutions, et il me semble peu probable d’y arriver.
Et en même temps cet objectif est loin d’être assez ambitieux. Si l’on veut vraiment transformer la communication scientifique en passant d’une logique de contrats de service à une logique de plateformes partagées, alors se contenter de cibler 2,5% est voué à l’échec. Personne ne sait quel devrait être le chiffre idéal, mais il me semble clair que si nous voulons faire des économies, il faut partir sur un pourcentage élevé. Nous avons besoin d’une optimisation systémique, qui nous permette de récolter les bénéfices de l’offre commerciale, y compris le capital extérieur, la qualité du service et la concurrence, tout en conservant progressivement une plus grande part des normes, des plates-formes et des mécanismes d’échange dans la sphère communautaire.

Passer d’une logique d’acquisition à une logique d’investissement est une façon d’ y parvenir. »

Beprexit

344334742_a78125e145_mBePress est une société de services fondée par des enseignants de l’université de Berkeley, commercialisant principalement la plateforme de publication Digital Commons : celle-ci permet d’héberger des documents de tous types, mais aussi des revues, et des profils de chercheurs… C’est une solution de diffusion « clé en mains », adoptée comme plateforme d’archive ouverte par plus de 500 petites et moyennes universités nord-américaines.
Coup de tonnerre à l’été 2017 : Elsevier annonce l’achat de BePress, poursuivant ainsi sa stratégie d’élargissement de son portefeuille de produits au delà de la fourniture de contenus, pour se positionner en incontournable sur toutes les étapes du workflow de recherche. La société se présente désormais non plus comme une maison d’édition, mais comme une société globale d’analyse d’information » (« global information analytics business »), et consolide sa position sur le marché académique et de recherche par une politique d’acquisitions d’acteurs stratégiques dans tous les domaines liés à la recherche scientifique (Plum Analytics, Mendeley, SSRN…).

Je note au passage, comme d’autres observateurs, que SSRN, comme BePress, couvrent essentiellement les sciences sociales, et particulièrement le droit pour BePress (74% du top 100 des facultés de droit US utiliseraient BePress pour diffuser leurs contenus, selon cette enquête de 2016), et que l’autre fleuron du groupe RELX, dont Elsevier fait partie, c’est Lexis-Nexis, l’une des bases de données incontournables en droit. J’ai du mal à croire que ce soit une coïncidence.

L’initiative de l’Université de Pennsylvanie en réaction à ce rachat est intéressante : après avoir annoncé dès octobre son choix de quitter Digital Commons, elle a mis en place, via ses bibliothèques universitaires, une ‘taskforce’ pour instruire tout le processus de migration. La taskforce a 9 mois pour faire un état des besoins des utilisateurs, puis étudier les solutions alternatives et leur faisabilité dans le contexte local. L’un des défis de cette migration est que Digital Commons est un produit tout-en-un : il va vraisemblablement falloir s’équiper de plusieurs outils pour pouvoir proposer des fonctionnalités équivalentes, et réussir à intégrer ces outils de façon fluide dans le workflow des chercheurs de l’université.
Les avancées de « l’opération Beprexit » (@beprexit) sont documentées sur un blog dédié.

Sources :
Reflections on « Elseviers acquires BePress » – R. Schonfeld
Just business – Barbara Fister
Elsevier continues to build its monopoly solution for all aspects of scholarly communication – Glynn Moody
[Photo : Huskyboy]

Research Gate : you’ve got mail !

234447967_516894d7fc_mSTM, l’association internationale des éditeurs en sciences, techniques et santé, vient d’envoyer un courrier à la direction de Research Gate, via son cabinet d’avocats (merci à @McDawg et @protohedgehog pour le lien). Dans ce courrier, après avoir rappelé la volonté des éditeurs de parvenir à un écosystème de diffusion de l’information scientifique durable et légal, et leur souhait de trouver une solution concrète avec les acteurs du secteur, dont RG, pour garantir le partage des contenus scientifiques dans le respect des règles élaborées par STM, l’association propose au réseau académique de procéder à quelques petites modifications dans son fonctionnement :

  • Selon STM, les éditeurs disposent de moyens techniques pour vérifier le statut des documents déposés sur RG. Si la version déposée est compatible avec la politique de l’éditeur, no problemo, le document pourra rester en ligne et accessible librement. Si la version déposée n’est pas compatible – par exemple s’il s’agit d’un pdf éditeur, ce qui est le cas de pratiquement 80% des documents déposés sur RG selon cet article -, le système permettra de « verrouiller » le document en ne donnant plus accès qu’aux co-auteurs ou à des groupes de personnes définis. L’auteur recevra même un petit message lui expliquant comment donner un accès plus large à ses documents, par exemple, je suppose, en lui proposant de payer des APCs…
  • Pour faire de la pédagogie auprès des auteurs, STM est prête à travailler avec RG, en renforçant la communication sur les politiques des éditeurs en matière d’auto-archivage.
  • Sympa, STM ne met pas la pression à Research Gate : elle lui donne jusqu’à juin 2018 pour passer ses contenus au crible et identifier les articles dont le niveau d’accès doit être modifié.
  • Et puis, bien sûr, dans un souci de préservation de l’intégrité scientifique, il n’est plus question que RG indexe les métadonnées des documents qui se trouvent sur ses serveurs, ni que RG se recréée une base de données interne en copiant les documents eux-mêmes…

Si Research Gate ne répond pas positivement à cette proposition d’ici la semaine prochaine, la société sera « contactée » individuellement par les membres de la STM, ou plus vraisemblablement par leurs avocats, un peu comme Elsevier ou l’American Chemical Society l’ont fait avec Sci-Hub.

Research Gate va-t-elle accepter ces conditions ? Les éditeurs vont-ils poursuivre RG pour non respect du copyright ? Et Academia dans tout ça ? Ca n’irait pas plus vite de racheter RG directement ? Les auteurs vont-ils finir par déserter les réseaux sociaux académiques ? A suivre…

[Photo : Liz West]

Openwashing

Dans son dernier billet When is the library Open ?, Barbara Fister revient sur plusieurs  mouvements récents dans le paysage scientifique :

  • L’accord passé entre l’université de Floride et Elsevier pour automatiser l’alimentation (via l’API de l’éditeur) de leur archive ouverte locale : dit comme ça, ça a l’air d’être une bonne idée, et c’est vrai que c’est plutôt pas mal pour récupérer des métadonnées, mais en fait le texte intégral des articles ne sera accessible que pour les abonnés à la plateforme ScienceDirect  (en dehors des articles nativement en OA)… Pas vraiment de l’OA, donc, et clairement une tentative forte de l’éditeur pour se positionner comme « partenaire/prestataire » de la Recherche, en récupérant des données de consultation et du trafic sur son propre site web au passage…

Il est évident qu’externaliser la gestion d’une archive ouverte institutionnelle à Elsevier n’est pas une bonne idée. Ce qui l’est moins, c’est que les bibliothécaires doivent se bouger rapidement pour financer et/ou bâtir collectivement des alternatives sérieuses à cet « openwashing« . Ce nous prendra du temps et de l’argent. Ca nécessitera de prendre des risques. Ca implique de nous éduquer à des solutions tout en réfléchissant à comment mettre nos valeurs en pratique. Ca implique de faire des compromis sur l’accès immédiat avec quelques râleurs ayant pignon sur rue, pour mettre de l’argent et du temps dans des solutions à long terme, qui pourront mette un certain temps avant de fonctionner. Ca implique de considérer la fourniture équitable d’accès au savoir comme notre fonction première, et pas comme une option sur laquelle travailler quand nous n’avons rien de mieux à faire avec nos « vraies » missions de négociation de licences, de maintenance des résolveurs de liens et de formation des étudiants à l’utilisation d’interfaces qui seront obsolètes quand ils auront terminé leurs études. Ca implique d’agir dès maintenant pour pouvoir faire partie du futur de la communication scientifique.

  • L’achat, toujours par Elsevier, de la plateforme SSRN : après les sociétés savantes, et les outils de gestion bibliographique (Mendeley), les infrastructures de l’OA deviennent un enjeu majeur du développement des éditeurs – et on peut légitiment penser qu’Academia et ResearchGate sont les prochains sur la liste.

4439668659_5ba184bf95_o

 

Zen, soyons zen

Qu’on le veuille ou non, c’est Elsevier qui dicte désormais les tendances dans l’édition scientifique : l’éditeur a ainsi récemment changé sa politique « de partage » des articles scientifiques (exit le dépôt des post-print sur les archives ouvertes, ajout d’embargos là où il n’y en avait pas), et les autres suivent. Ces jours-ci c’est Emerald qui ajoute 24 mois d’embargo pour le green – alors que personne ne lui a rien demandé-, dès lors qu’une politique institutionnelle de dépôt dans une AO est en vigueur dans un établissement (c’était la politique qui prévalait jusqu’à récemment chez Elsevier d’ailleurs). Ca peut paraître anodin en France, où peu d’établissements ont encore mis un mandat en place, cela l’est beaucoup moins au Royaume-Uni où le financement de la recherche est soumis à la diffusion en OA des articles produits par les chercheurs. Donc soit ils déposent dans l’archive ouverte de leur établissement, mais leurs articles ne seront accessibles que dans 2 ans, soient ils payent des APC. Et, comme par hasard, il se trouve qu’Emerald vient d’augmenter le coût des APC de 70% pour ses revues en sciences de l’ingénieur… Interrogée par Richard Poynder à ce sujet, dans le long billet qui est la source de celui-ci, la porte-parole de l’éditeur indique que “cette decision, basée sur l’analyse du marché et de la concurrence, mettra la tarification des APC d’Emerald au niveau des prix du marché, dans une position médiane vis à vis de ses concurrents. » C’est dit, c’est clair : ce n’est pas le coût de production de l’article qui détermine son APC, mais bien sa valeur marchande.

Pour maintenir leur activité (et valoriser leur entreprise en cas de rachat, on ne sait jamais, une consolidation du marché est si vite arrivée), il semblerait que les « petits » éditeurs s’alignent sur les « gros », ce qui a pour effet une augmentation globale des coûts. Les arguments sur la qualité des contenus sont ignorés : pourtant, le fait de lever les embargos et d’autoriser le dépôt représente plutôt un avantage pour attirer les auteurs, et se démarquer des éditeurs traditionnels, mais visiblement l’attrait du profit l’emporte sur l’offre de contenus… Quoique : Emerald a annoncé une opération « zéro embargo » sur sa vingtaine de titres en sciences de l’information et des bibliothèques – par souci réel d’améliorer son offre de service, ou opération « d’open washing » orchestrée par le service marketing pour redorer son blason auprès des bibliothécaires qui sont encore, pour l’instant, les principaux acheteurs de documentation ?

La bonne nouvelle dans tout ça, c’est que les résultats de l’étude commandée par le Ministère de l’Enseignement Supérieur en 2013 sur les embargos pour les revues en SHS viennent d’être publiés, et ses conclusions sont très claires :
« Nos résultats objectivent donc la mise en place d’une durée de barrière mobile relativement courte (moins d’un an) en comparaison aux durées évoquées dans le débat public pour les SHS (2 à 3 ans). » 

Sources :
Emerald Group Publishing tests ZEN, increases prices: what does it mean ? par Richard Poynder sur son blog Open and shut?.
– ZEN = zero embargo now selon Glynn Moody
– Le rapport de l’IPP : Les revues de sciences humaines et sociales en France: libre accès et audience – La note : Quel délai pour le libre accès des revues de sciences humaines et sociales en France ?

[Photo : instigator21]

Transition vers l’OA : les Pays-Bas s’organisent

6307249018_06277f720c_mEn novembre dernier, les universités des Pays-Bas annonçaient le blocage de leur négociation nationale avec Elsevier parce qu’elles n’arrivaient pas à trouver un accord permettant une transition vers l’open access. L’idée est somme toute assez simple : d’un côté on a les établissements qui payent des sommes considérables pour leurs abonnements, plus des APC, plus le coût de gestion des APC (compter 3 à 4h par transaction, tout de même), et de l’autre les éditeurs qui se targuent de ne pas faire payer 2 fois les institutions (le fameux « double dipping »).

Pour que ce soit vraiment le cas, il faut mettre en place un système de compensation (« offsetting ») pour que les dépenses des universités restent « acceptables » (avec 25 mille guillemets) : c’est ce que négocient le JISC au Royaume-Uni et le VSNU aux Pays-Bas ; cela peut consister à prendre en compte les dépenses en APC pour réduire la facture d’abonnement, ou bien à « offrir » un nombre d’APC correspondant au montant de l’abonnement (c’est ce que fait la RSC). Le VSNU a ainsi conclu des accords avec Springer, avec Sage, et c’est en cours avec Wiley. C’est donc que c’est possible, non ?

Et bien apparemment toujours pas avec Elsevier, puisque, la négociation étant toujours dans une impasse, le VSNU vient d’annoncer la première phase de boycott de l’éditeur en demandant aux chercheurs ayant des responsabilités éditoriales chez Elsevier de démissionner de leur charge. Dans un deuxième temps, ce sont les reviewers qui seront sollicités, puis c’est à la totalité des chercheurs qu’il sera demandé de ne plus publier chez cet éditeur.

Utopique ? Naïf ? Pas si sûr : le ministre de l’éducation a placé la barre assez haut en ciblant 60% des publications des chercheurs hollandais en OA en 2019, et 100% en 2024… Et ce n’est même pas qu’une question d’argent : comme au Royaume-Uni, c’est la voie Gold qui est privilégiée ; les hollandais sont prêts à financer la diffusion en OA, mais à des conditions équitables, et sans perdre l’objectif d’une transition durable d’un modèle à l’autre, pour le bénéfice du plus grand nombre. Autre marque, s’il en fallait, de cette volonté politique forte : ce ne sont pas des bibliothécaires qui mènent les négociations (qu’on se rassure, ils sont bien là en appui), mais des présidents d’université, avec du coup une autorité non négligeable sur les comportements des chercheurs.

[Photo : gigi ibrahim]


juin 2018
L M M J V S D
« Avr    
 123
45678910
11121314151617
18192021222324
252627282930  

Archives

Licence

Licence Creative Commons
Ce(tte) œuvre est mise à disposition selon les termes de la Licence Creative Commons Attribution 3.0 France.
Publicités