Archive for the 'Business' Category

De l’importance des workflows pour les accords OA

6014917153_7ba8d142c7_o_dLes bibliothécaires de l’Université de Vienne, en Autriche, ont publié une analyse fort intéressante des différents contrats qu’ils ont négociés avec les éditeurs contenant une dimension « open access » ; plus précisément, ils se sont attachés à décrire les différents workflows à l’oeuvre pour couvrir le cycle complet de la diffusion en OA, de la soumission de l’auteur aux modalités de paiement et/ou de suivi de la dépense d’APC. Voici ce que l’on peut en retenir :
L’université de Vienne est une grosse université (90 000 étudiants), qui a passé des accords comportant un volet OA pour 14 ressources. On distingue 4 types d’accords :

  • Les « Read and publish » : ils fonctionnent sur le même principe que les big deals pour les ressources sur abonnement, avec un forfait négocié pour couvrir les APC des articles publiés par les auteurs de l’établissement.
  • Les accords de compensation (« offsetting agreements ») : soit la dépense d’APC est déduite de la dépense d’abonnement, soit la dépense d’abonnement ouvre droit à une importante remise sur les coûts des APC.
  • Les accords avec des éditeurs OA Gold payant : l’adhésion institutionnelle donne droit à une remise sur les APC, ou permet de mettre en place un système de pré-paiement.
  • Les autres accords : l’institution soutient financièrement une initiative, sur le modèle de SCOAP3 ou OLH.

Ce qui saute immédiatement aux yeux, c’est la diversités des modes de fonctionnement de chaque accord : certains éditeurs ont une interface claire et des consignes compréhensibles pour les auteurs, d’autres perdent ces derniers avec des désignations inhabituelles de leur institution de rattachement. La mention du fait que les APC sont pris en charge par l’institution est plus ou moins visible selon les plateformes. Certains éditeurs envoient une seule facture, d’autres de multiples factures, et acceptent ou pas de les envoyer à l’institution et pas directement au chercheur. Des accords portent sur tous les types de documents ou de revues, d’autres ne concernent que les articles de recherche ou les revues hybrides.

Même pour un bibliothécaire c’est compliqué !

Dans ces conditions, la principale difficulté est de communiquer toutes ces subtilités aux enseignants-chercheurs : malgré les différentes activités de sensibilisation et de promotion, informer tous les chercheurs de l’établissement sur les différentes possibilités qui s’offrent à eux relève de la mission impossible ; et pourtant le site web d’information sur l’open access monté par la BU est plutôt bien fait.

L’identification correcte des enseignants-chercheurs, permettant de vérifier leur éligibilité aux bénéfices de l’accord est également une étape cruciale : les bibliothécaires constatent que lorsque les éditeurs mettent des moyens humains pour faciliter cette identification, le système est bien plus efficace, et le taux d’articles diffusés en OA grimpe, alors qu’il stagne, voire décline, quand ce n’est pas le cas. Malheureusement un seul des éditeurs avec lesquels traitent les collègues viennois a mis suffisamment de moyens…

A celà s’ajoutent la mauvaise qualité des métadonnées et les modes de facturation variés, qui complexifient le travail de suivi et la traçabilité des dépenses, malgré les mandats des financeurs de la recherche.

Pour les bibliothécaires, la question des workflows doit être intégrée très tôt dans la négociation avec les éditeurs :

Nous avons appris à nos dépens que, pour qu’un accord aboutisse, les workflows doivent occuper une place centrale et que des discussions doivent être engagées dès les premières étapes des négociations. Il s’est avéré essentiel d’établir une communication directe non seulement avec l’équipe commerciale de l’éditeur, mais aussi avec le personnel responsable des workflows d’OA. Idéalement, une démonstration en direct devrait être organisée, au cours de laquelle le personnel compétent de l’université, comme les chercheurs et le personnel du service en charge de l’open access, peut tester sur le terrain chacune des étapes que les auteurs correspondants devront franchir au fur et à mesure du processus de publication. A défaut, l’éditeur pourrait fournir des captures d’écran détaillées du processus. Quoi qu’il en soit, ce serait l’occasion d’attirer l’attention sur les problèmes potentiels et d’envisager des solutions pour y remédier.

Ils concluent qu’il y a une vraie refonte des modes de fonctionnement à imaginer, et que ce sont essentiellement les pratiques des éditeurs qui doivent évoluer :

Les accords de publication en open access ont le pouvoir de faire augmenter considérablement la proportion de publications en OA produites par les institutions,  et de contribuer ainsi à la transition vers l’OA. Toutefois, le succès de ce type de projet dépend en grande partie de la conception et de la mise en œuvre judicieuses des workflows. Bien que tous les acteurs concernés aient un rôle important à jouer dans ce contexte, la responsabilité principale incombe aux éditeurs, qui doivent repenser les flux de travail existants et intégrer la publication en open access dans leurs systèmes. Essayer de construire un workflow de la publication en OA juste en adaptant les méthodes actuelles de gestion des abonnements ne donnera pas de résultats satisfaisants.

Source : Pinhasi, R., Blechl, G., Kromp, B., & Schubert, B. (2018). The weakest link – workflows in open access agreements: the experience of the Vienna University Library and recommendations for future negotiations. Insights, 31, 27. DOI: http://doi.org/10.1629/uksg.419
[Photo : atoach]

Publicités

Conclusions du 3ème workshop ESAC

461240381_4a57e4f032_oESAC (Efficiency and Standards for Article Charges) est une initiative qui a pour objectif de suivre les évolutions des frais de publication des articles dans les revues scientifiques, de recenser les bonnes pratiques et faire des recommandations sur la gestion des APC et les workflows associés.
Fin juin s’est tenu le 3ème Workshop du projet, le rapport qui en est issu est en ligne, je vous en résume/traduis les grandes lignes :
A propos de l’évaluation de la valeur et les facteurs déterminant le coût :

  • Il faut différentier dans les analyses les différents modèles d’APC, le fait qu’on parle de gold ou d’hybride ou d’accords de compensation (« offsetting agreements ») change la perspective.
  • Le coût des APC hybrides est nettement plus élevé que celui des APC des revues gold, c’est un fait désormais établi.
  • Le coût des APC dans le cadre d’un accord de compensation est du niveau de celui des APC hybrides, mais il est à envisager dans le contexte global de l’accord, ie en prenant en compte les économies éventuelles réalisées sur le double dipping.
  • Les indicateurs tels que le SNIP ou le facteur d’impact ne sont pas les seuls critères pour définir le coût des APC : la discipline, l’éditeur ou le modèle économique jouent également un rôle.
  • Les APC des revues gold reflètent de manière plus cohérente les coûts de production et de services dans leurs prix, alors que les APC hybrides traduisent plutôt le niveau de revenu actuel et les marges bénéficiaires de l’activité d’abonnement des éditeurs. Il ne s’agit donc plus d’un argument valable en faveur d’une hausse des prix des APC.
  • Les niveaux de prix médians sont les principaux moteurs de l’évolution globale des coûts. Sont donc à surveiller les prix des revues très fréquentées et les portefeuilles de revues qui englobent la plus grande partie de la production scientifique.

A propos du suivi des coûts :
6630834701_aabb88e693_o

  • Nécessité de l’indépendance de la collecte et de l’analyse des données sur les APC. La transparence obtenue grâce à des initiatives telles que OpenAPC permet à la communauté de discuter des coûts des APC sur la base de données probantes.
  • Nécessité pour les différents acteurs institutionnels ou individuels actifs sur le sujet de se coordonner pour maximiser l’impact de leurs efforts.
  • Les institutions et les consortiums de bibliothèques doivent maintenant mettre en place des actions concrètes, utilisant ces nouvelles données comme un atout, pour faire passer les négociations avec les éditeurs à un autre niveau, et arriver à un système de publication équitable, durable et en accès complètement ouvert.

A propos du risque d’augmentation des coûts globaux de l’édition scientifique à cause de l’OA hybride :

  • La stratégie d’intégration de l’open access et des coûts relatifs dans le contrat de licence d’abonnement des institutions permet d’exercer un suivi des coûts pour contenir les dépenses en double et de travailler à convertir officiellement les dépenses d’abonnement en soutien à la publication en accès ouvert. Les accords de compensation doivent être négociés comme des mesures transitoires, avec l’objectif clair d’arriver rapidement à la conversion vers l’accès ouvert complet.

A propos du risque de voir les éditeurs traditionnels dominer le marché de l’édition scientifique et imposer leurs coûts d’APC sur la base de leurs marques éditoriales :

  • Le modèle économique basé sur les APC pour la publication en accès ouvert est une nette amélioration par rapport au marché actuel des abonnements, en ce sens que les coûts des APC sont transparents et, par conséquent, soumis à un niveau de contrôle qui fait totalement défaut sur le marché opaque des abonnements. Néanmoins, afin de soutenir l’évolution d’un marché plus efficace et plus diversifié, les institutions devraient éviter deux écueils du modèle des abonnements :4418249517_a83f1e5f4d_o.jpg
    • L’augmentation des prix obligatoire : quand on compare les coûts par article du système actuel d’abonnements (entre 3800 et 5000 euros)[1] avec les coûts moyens d’APC (autour de 2000 euros), on voit bien qu’il y a déjà assez d’argent dans le système pour soutenir une transition vers un accès ouvert ; les augmentations ne sont pas justifiées.
    • L’usage des indicateurs : évaluer le coût des APC en fonction d’indicateurs comme le SNIP et JIF n’est pas pertinent, car ceux-ci sont limités en termes de transparence et d’applicabilité au niveau de l’article, et ne servent qu’à renforcer le pouvoir des revues et des marques d’éditeur. Et puis ce sont les APC médians qui ont la plus grande influence sur l’évolution globale des coûts du marché, dont pas vraiment ceux des revues à fort facteur d’impact.
  • Par ailleurs, n’oublions pas la bibliodiversité : les modèles de publication coopératifs et sans APC ont besoin d’être soutenus. Un transfert des budgets et des économies réalisées vers de nouveaux modèles permet de stimuler la concurrence et l’innovation sur le marché de l’édition scientifique.

Pour finir, à propos du risque d’augmentation des coûts pour les établissements de recherche intensive :

  • Chaque institution est susceptible d’être confrontée à ce problème pour certains éditeurs dont les coûts de publication dépasseront les anciens coûts d’abonnement. Toutefois, comme on l’a vu plus haut, il y a suffisamment d’argent dans le système : il faut trouver un moyen de réaffecter les coûts. Des solutions sont à travailler au niveau des  consortiums, par exemple en introduisant des mécanismes de compensation internes et des fonds de solidarité, le cas échéant.

[1] Disrupting the subscription journals’ business model for the necessary large-scale transformation to open access : le rapport de la Max-Planck-Gesellschaft sur les coûts de la transition vers l’open access.

[Photos : Daniel hoherd, Laura Thorne, Kirstie Warner]

De la difficulté d’inclure l’OA dans les big deals

8118876600_aa8f636a48_zDans The open access big deals : back to the future, Richard Poynder évoque les problèmes posés selon lui par les négociations de ce qu’il appelle les « open access big deals », c’est à dire les accords incluant l’accès aux contenus sous abonnement et la publication en OA avec APC. Il rappelle d’abord les modèles en présence, en soulignant que les objectifs ne sont pas forcément clairs dans toutes les négociations :

  • on a du « Read and publish » : les institutions payent des abonnements pour lire les contenus, et les frais de publications sont inclus dans l’accord ; la tarification est calculée en fonction du nombre d’articles publiés annuellement  par les enseignants-chercheurs des institutions, qui viennent en déduction du coût des abonnements (c’est ce que l’on appelle aussi les accords de compensation, « offsetting agreements »)
  • et aussi du « Publish and read » : les institutions ne payent que les frais de publication correspondant au nombre d’articles que publient annuellement leurs enseignants-chercheurs, ce n’est plus l’accès aux contenus qui est valorisé dans l’accord. C’est le modèle suivi par les allemands avec DEAL.

Les problèmes posés par ces accords sont, pour Poynder, au nombre de 4 :

1. La transparence est une des composantes essentielles de la transition vers l’open access. Transparence sur les clauses des négociations, et transparence sur les coûts, elle est censée garantir une vitalité du marché des APC, la concurrence permettant de faire évoluer les prix à la baisse. Or actuellement, il semblerait que les négociations des big deals incluant les APC ne soient pas plus transparentes que celles des accords traditionnels (il donne les exemples des négociations en cours en Allemagne, en Suisse et en Finlande), sans qu’il soit réellement possible d’en savoir la raison, entre des clauses de confidentialité imposées par les éditeurs, ou une prudence excessive de la part des négociateurs.

2. Il y a ensuite le fait que ces accords mixant abonnements et APC favorisent les « gros » éditeurs traditionnels, et handicapent les pure players de l’open access, qui n’ont pas le composant « abonnements » d’une part et peinent à trouver des modèles économiques de rupture d’autre part.

3. Par ailleurs ces accords avalisent le modèle auteur-payeur comme principal modèle économique pour la diffusion en open access, en cautionnant notamment l’open access hybride, et ne résolvent en rien la question de l’accessibilité financière aux contenus.

4. Enfin ce type d’accord, en maintenant en partie le système d’édition scientifique traditionnel, ne facilite pas la transition vers un modèle de diffusion large de la recherche scientifique appelé de leurs voeux par les organismes de financement publics.

Ce que Poynder n’évoque pas, c’est que, sans accord, les nouveaux flux financiers qui vont aux éditeurs avec les APC restent sous le radar : non mesurés (quelle dépense pour combien d’articles ?), non contrôlés (quelle évolution de la dépense ?), non vérifiés (obtient-on réellement ce pour quoi on a payé ? les articles en question sont-ils bien accessibles ?), ce qui n’est pas, me semble-t-il, une garantie d’un bon usage des fonds publics.

[Photo : Tore Bustad]

2,5% et plus

In the Internet era information will be free, the only question remaining is who pays for that freedom. — Kalev Leetaru

5171649483_dac32e7533_m

 

David Lewis, directeur des BU de l’Indiana University – Purdue University Indianapolis, propose dans le texte « The 2,5% Commitment » de financer une infrastructure commune, nécessaire pour soutenir la science ouverte, en demandant aux bibliothèques d’y consacrer 2,5% de leurs budgets. Elle comprendrait, au minimum, les contributions des établissements :
« 1. Aux projets de logiciels libres qui sous-tendent les initiatives d’open science : Dspace,  Fedora, Hyku, OJS, ArchiveSpace, Islandora…
2. Aux archives disciplinaires : ArXiv, bioRxiv, ou the Humanities Commons
3. Aux grosses bases de données hébergeant des contenus ouverts comme HathiTrust ou l’Internet Archive
4. Aux outils, de Wikipedia à VIVO, en passant par l’Open Access Button ou Unpaywall
5. Aux organisations de conservation telles que le Digital Preservation Network ou l’Academic Preservation Trust
6. Aux ressources éducatives libres telles qu’OpenStax
7. Aux organisations qui soutiennent ces développements, comme DuraSpace, le Center for Open Science, le Public Knowledge Project, l’Open Texbook Network, Impactstory, Orchid, ou Creative Commons
8. Aux organisations de promotion telles que SPARC »

Lewis souhaite aussi fournir une liste des différents outils et initiatives de soutien à la science ouverte, en regard de laquelle les établissements pourraient indiquer leur contribution financière, avec le choix de rendre publique cette information ou pas.

Au delà de la question financière, Lewis souligne qu’il y a une question de mentalité et d’organisation : en effet, malgré une longue tradition de travail en réseau, la mutualisation de capacités financières n’est pas encore entrée dans les pratiques des BU, et encore moins quand il s’agit de financer des structures, et plus seulement d’acheter de la documentation. Il y a un discours à porter auprès des tutelles, pour justifier l’allocation de ressources financières en soutien à des projets de science ouverte, qui n’est pas encore intégré dans les BU (en tout cas en France, du moins je n’en ai pas l’impression).
[Sur cette question d’organisation, on ne peut que faire le lien avec ce qui est en train de se mettre en place avec SCOSS, Sustainability Coalition for Open Science Services, un projet à l’initiative de plusieurs associations de soutien à l’open access et d’associations de bibliothèques. Le principe est assez simple : chaque année, les structures proposant des services en faveur de la science ouverte peuvent candidater pour être éligibles à un financement mutualisé. 2 projets sont sélectionnés par session, que les institutions choisissent de financer selon un barême défini à l’avance ; un genre de crowdfunding institutionnel, en somme. Cette année, Sherpa/Romeo et le DOAJ ont été sélectionnés, soutenez-les !]
La proposition de Lewis contrarie un peu Cameron Neylon, promoteur de longue date de l’open access : pour lui, un financement mutualisé ne peut fonctionner qu’avec un nombre réduit de participants, et nécessite un fort niveau de coordination, difficile à mettre en place au niveau d’un état (en tout cas aux Etats-Unis). Il questionne aussi la définition du pourcentage : qu’est-ce qui est couvert par cette fraction du budget ? Et comment le rationnaliser pour l’expliquer au sein de « la communauté », dans le cadre d’institutions pluri-disciplinaires, qui agrègent une myriade de communautés avec leurs spécificités et où le sens de « la » communauté n’est pas la chose la plus répandue ? Il est néanmoins d’accord avec la majorité des arguments de la proposition de Lewis, et conclut :
« Je pense que l’objectif est sur-évalué. Il demande à ce que trop d’universités participent, il implique des risques politiques à la fois internes et externes qui sont exactement ceux qui ont ralenti l’implémentation de l’open access. Il suppose un pouvoir sur les budgets, et le consentement implicite des universitaires, qui n’existent vraisemblablement pas et sont pratiquement impossibles à obtenir, et les masque derrière un petit pourcentage. Obtenir ce petit pourcentage demande quand même une grande coordination entre de nombreuses institutions, et il me semble peu probable d’y arriver.
Et en même temps cet objectif est loin d’être assez ambitieux. Si l’on veut vraiment transformer la communication scientifique en passant d’une logique de contrats de service à une logique de plateformes partagées, alors se contenter de cibler 2,5% est voué à l’échec. Personne ne sait quel devrait être le chiffre idéal, mais il me semble clair que si nous voulons faire des économies, il faut partir sur un pourcentage élevé. Nous avons besoin d’une optimisation systémique, qui nous permette de récolter les bénéfices de l’offre commerciale, y compris le capital extérieur, la qualité du service et la concurrence, tout en conservant progressivement une plus grande part des normes, des plates-formes et des mécanismes d’échange dans la sphère communautaire.

Passer d’une logique d’acquisition à une logique d’investissement est une façon d’ y parvenir. »

Beprexit

344334742_a78125e145_mBePress est une société de services fondée par des enseignants de l’université de Berkeley, commercialisant principalement la plateforme de publication Digital Commons : celle-ci permet d’héberger des documents de tous types, mais aussi des revues, et des profils de chercheurs… C’est une solution de diffusion « clé en mains », adoptée comme plateforme d’archive ouverte par plus de 500 petites et moyennes universités nord-américaines.
Coup de tonnerre à l’été 2017 : Elsevier annonce l’achat de BePress, poursuivant ainsi sa stratégie d’élargissement de son portefeuille de produits au delà de la fourniture de contenus, pour se positionner en incontournable sur toutes les étapes du workflow de recherche. La société se présente désormais non plus comme une maison d’édition, mais comme une société globale d’analyse d’information » (« global information analytics business »), et consolide sa position sur le marché académique et de recherche par une politique d’acquisitions d’acteurs stratégiques dans tous les domaines liés à la recherche scientifique (Plum Analytics, Mendeley, SSRN…).

Je note au passage, comme d’autres observateurs, que SSRN, comme BePress, couvrent essentiellement les sciences sociales, et particulièrement le droit pour BePress (74% du top 100 des facultés de droit US utiliseraient BePress pour diffuser leurs contenus, selon cette enquête de 2016), et que l’autre fleuron du groupe RELX, dont Elsevier fait partie, c’est Lexis-Nexis, l’une des bases de données incontournables en droit. J’ai du mal à croire que ce soit une coïncidence.

L’initiative de l’Université de Pennsylvanie en réaction à ce rachat est intéressante : après avoir annoncé dès octobre son choix de quitter Digital Commons, elle a mis en place, via ses bibliothèques universitaires, une ‘taskforce’ pour instruire tout le processus de migration. La taskforce a 9 mois pour faire un état des besoins des utilisateurs, puis étudier les solutions alternatives et leur faisabilité dans le contexte local. L’un des défis de cette migration est que Digital Commons est un produit tout-en-un : il va vraisemblablement falloir s’équiper de plusieurs outils pour pouvoir proposer des fonctionnalités équivalentes, et réussir à intégrer ces outils de façon fluide dans le workflow des chercheurs de l’université.
Les avancées de « l’opération Beprexit » (@beprexit) sont documentées sur un blog dédié.

Sources :
Reflections on « Elseviers acquires BePress » – R. Schonfeld
Just business – Barbara Fister
Elsevier continues to build its monopoly solution for all aspects of scholarly communication – Glynn Moody
[Photo : Huskyboy]

Research Gate : you’ve got mail !

234447967_516894d7fc_mSTM, l’association internationale des éditeurs en sciences, techniques et santé, vient d’envoyer un courrier à la direction de Research Gate, via son cabinet d’avocats (merci à @McDawg et @protohedgehog pour le lien). Dans ce courrier, après avoir rappelé la volonté des éditeurs de parvenir à un écosystème de diffusion de l’information scientifique durable et légal, et leur souhait de trouver une solution concrète avec les acteurs du secteur, dont RG, pour garantir le partage des contenus scientifiques dans le respect des règles élaborées par STM, l’association propose au réseau académique de procéder à quelques petites modifications dans son fonctionnement :

  • Selon STM, les éditeurs disposent de moyens techniques pour vérifier le statut des documents déposés sur RG. Si la version déposée est compatible avec la politique de l’éditeur, no problemo, le document pourra rester en ligne et accessible librement. Si la version déposée n’est pas compatible – par exemple s’il s’agit d’un pdf éditeur, ce qui est le cas de pratiquement 80% des documents déposés sur RG selon cet article -, le système permettra de « verrouiller » le document en ne donnant plus accès qu’aux co-auteurs ou à des groupes de personnes définis. L’auteur recevra même un petit message lui expliquant comment donner un accès plus large à ses documents, par exemple, je suppose, en lui proposant de payer des APCs…
  • Pour faire de la pédagogie auprès des auteurs, STM est prête à travailler avec RG, en renforçant la communication sur les politiques des éditeurs en matière d’auto-archivage.
  • Sympa, STM ne met pas la pression à Research Gate : elle lui donne jusqu’à juin 2018 pour passer ses contenus au crible et identifier les articles dont le niveau d’accès doit être modifié.
  • Et puis, bien sûr, dans un souci de préservation de l’intégrité scientifique, il n’est plus question que RG indexe les métadonnées des documents qui se trouvent sur ses serveurs, ni que RG se recréée une base de données interne en copiant les documents eux-mêmes…

Si Research Gate ne répond pas positivement à cette proposition d’ici la semaine prochaine, la société sera « contactée » individuellement par les membres de la STM, ou plus vraisemblablement par leurs avocats, un peu comme Elsevier ou l’American Chemical Society l’ont fait avec Sci-Hub.

Research Gate va-t-elle accepter ces conditions ? Les éditeurs vont-ils poursuivre RG pour non respect du copyright ? Et Academia dans tout ça ? Ca n’irait pas plus vite de racheter RG directement ? Les auteurs vont-ils finir par déserter les réseaux sociaux académiques ? A suivre…

[Photo : Liz West]

Openwashing

Dans son dernier billet When is the library Open ?, Barbara Fister revient sur plusieurs  mouvements récents dans le paysage scientifique :

  • L’accord passé entre l’université de Floride et Elsevier pour automatiser l’alimentation (via l’API de l’éditeur) de leur archive ouverte locale : dit comme ça, ça a l’air d’être une bonne idée, et c’est vrai que c’est plutôt pas mal pour récupérer des métadonnées, mais en fait le texte intégral des articles ne sera accessible que pour les abonnés à la plateforme ScienceDirect  (en dehors des articles nativement en OA)… Pas vraiment de l’OA, donc, et clairement une tentative forte de l’éditeur pour se positionner comme « partenaire/prestataire » de la Recherche, en récupérant des données de consultation et du trafic sur son propre site web au passage…

Il est évident qu’externaliser la gestion d’une archive ouverte institutionnelle à Elsevier n’est pas une bonne idée. Ce qui l’est moins, c’est que les bibliothécaires doivent se bouger rapidement pour financer et/ou bâtir collectivement des alternatives sérieuses à cet « openwashing« . Ce nous prendra du temps et de l’argent. Ca nécessitera de prendre des risques. Ca implique de nous éduquer à des solutions tout en réfléchissant à comment mettre nos valeurs en pratique. Ca implique de faire des compromis sur l’accès immédiat avec quelques râleurs ayant pignon sur rue, pour mettre de l’argent et du temps dans des solutions à long terme, qui pourront mette un certain temps avant de fonctionner. Ca implique de considérer la fourniture équitable d’accès au savoir comme notre fonction première, et pas comme une option sur laquelle travailler quand nous n’avons rien de mieux à faire avec nos « vraies » missions de négociation de licences, de maintenance des résolveurs de liens et de formation des étudiants à l’utilisation d’interfaces qui seront obsolètes quand ils auront terminé leurs études. Ca implique d’agir dès maintenant pour pouvoir faire partie du futur de la communication scientifique.

  • L’achat, toujours par Elsevier, de la plateforme SSRN : après les sociétés savantes, et les outils de gestion bibliographique (Mendeley), les infrastructures de l’OA deviennent un enjeu majeur du développement des éditeurs – et on peut légitiment penser qu’Academia et ResearchGate sont les prochains sur la liste.

4439668659_5ba184bf95_o

 


octobre 2018
L M M J V S D
« Sep    
1234567
891011121314
15161718192021
22232425262728
293031  

Archives

Licence

Licence Creative Commons
Ce(tte) œuvre est mise à disposition selon les termes de la Licence Creative Commons Attribution 3.0 France.
Publicités