Archive for the 'Open Access' Category

Conclusions du 3ème workshop ESAC

461240381_4a57e4f032_oESAC (Efficiency and Standards for Article Charges) est une initiative qui a pour objectif de suivre les évolutions des frais de publication des articles dans les revues scientifiques, de recenser les bonnes pratiques et faire des recommandations sur la gestion des APC et les workflows associés.
Fin juin s’est tenu le 3ème Workshop du projet, le rapport qui en est issu est en ligne, je vous en résume/traduis les grandes lignes :
A propos de l’évaluation de la valeur et les facteurs déterminant le coût :

  • Il faut différentier dans les analyses les différents modèles d’APC, le fait qu’on parle de gold ou d’hybride ou d’accords de compensation (« offsetting agreements ») change la perspective.
  • Le coût des APC hybrides est nettement plus élevé que celui des APC des revues gold, c’est un fait désormais établi.
  • Le coût des APC dans le cadre d’un accord de compensation est du niveau de celui des APC hybrides, mais il est à envisager dans le contexte global de l’accord, ie en prenant en compte les économies éventuelles réalisées sur le double dipping.
  • Les indicateurs tels que le SNIP ou le facteur d’impact ne sont pas les seuls critères pour définir le coût des APC : la discipline, l’éditeur ou le modèle économique jouent également un rôle.
  • Les APC des revues gold reflètent de manière plus cohérente les coûts de production et de services dans leurs prix, alors que les APC hybrides traduisent plutôt le niveau de revenu actuel et les marges bénéficiaires de l’activité d’abonnement des éditeurs. Il ne s’agit donc plus d’un argument valable en faveur d’une hausse des prix des APC.
  • Les niveaux de prix médians sont les principaux moteurs de l’évolution globale des coûts. Sont donc à surveiller les prix des revues très fréquentées et les portefeuilles de revues qui englobent la plus grande partie de la production scientifique.

A propos du suivi des coûts :
6630834701_aabb88e693_o

  • Nécessité de l’indépendance de la collecte et de l’analyse des données sur les APC. La transparence obtenue grâce à des initiatives telles que OpenAPC permet à la communauté de discuter des coûts des APC sur la base de données probantes.
  • Nécessité pour les différents acteurs institutionnels ou individuels actifs sur le sujet de se coordonner pour maximiser l’impact de leurs efforts.
  • Les institutions et les consortiums de bibliothèques doivent maintenant mettre en place des actions concrètes, utilisant ces nouvelles données comme un atout, pour faire passer les négociations avec les éditeurs à un autre niveau, et arriver à un système de publication équitable, durable et en accès complètement ouvert.

A propos du risque d’augmentation des coûts globaux de l’édition scientifique à cause de l’OA hybride :

  • La stratégie d’intégration de l’open access et des coûts relatifs dans le contrat de licence d’abonnement des institutions permet d’exercer un suivi des coûts pour contenir les dépenses en double et de travailler à convertir officiellement les dépenses d’abonnement en soutien à la publication en accès ouvert. Les accords de compensation doivent être négociés comme des mesures transitoires, avec l’objectif clair d’arriver rapidement à la conversion vers l’accès ouvert complet.

A propos du risque de voir les éditeurs traditionnels dominer le marché de l’édition scientifique et imposer leurs coûts d’APC sur la base de leurs marques éditoriales :

  • Le modèle économique basé sur les APC pour la publication en accès ouvert est une nette amélioration par rapport au marché actuel des abonnements, en ce sens que les coûts des APC sont transparents et, par conséquent, soumis à un niveau de contrôle qui fait totalement défaut sur le marché opaque des abonnements. Néanmoins, afin de soutenir l’évolution d’un marché plus efficace et plus diversifié, les institutions devraient éviter deux écueils du modèle des abonnements :4418249517_a83f1e5f4d_o.jpg
    • L’augmentation des prix obligatoire : quand on compare les coûts par article du système actuel d’abonnements (entre 3800 et 5000 euros)[1] avec les coûts moyens d’APC (autour de 2000 euros), on voit bien qu’il y a déjà assez d’argent dans le système pour soutenir une transition vers un accès ouvert ; les augmentations ne sont pas justifiées.
    • L’usage des indicateurs : évaluer le coût des APC en fonction d’indicateurs comme le SNIP et JIF n’est pas pertinent, car ceux-ci sont limités en termes de transparence et d’applicabilité au niveau de l’article, et ne servent qu’à renforcer le pouvoir des revues et des marques d’éditeur. Et puis ce sont les APC médians qui ont la plus grande influence sur l’évolution globale des coûts du marché, dont pas vraiment ceux des revues à fort facteur d’impact.
  • Par ailleurs, n’oublions pas la bibliodiversité : les modèles de publication coopératifs et sans APC ont besoin d’être soutenus. Un transfert des budgets et des économies réalisées vers de nouveaux modèles permet de stimuler la concurrence et l’innovation sur le marché de l’édition scientifique.

Pour finir, à propos du risque d’augmentation des coûts pour les établissements de recherche intensive :

  • Chaque institution est susceptible d’être confrontée à ce problème pour certains éditeurs dont les coûts de publication dépasseront les anciens coûts d’abonnement. Toutefois, comme on l’a vu plus haut, il y a suffisamment d’argent dans le système : il faut trouver un moyen de réaffecter les coûts. Des solutions sont à travailler au niveau des  consortiums, par exemple en introduisant des mécanismes de compensation internes et des fonds de solidarité, le cas échéant.

[1] Disrupting the subscription journals’ business model for the necessary large-scale transformation to open access : le rapport de la Max-Planck-Gesellschaft sur les coûts de la transition vers l’open access.

[Photos : Daniel hoherd, Laura Thorne, Kirstie Warner]

Publicités

Une initiative pour le financement de l’open science : SCOSS

8661000014_715a3135e5_oSPARC Europe a lancé la « Coalition mondiale pour la durabilité des services scientifiques ouverts » (Global Sustainability Coalition for Open Science Services, SCOSS), pour coordonner un système de mutualisation du financement des projets et services permettant à la science ouverte de se faire, pour assurer leur maintien sur le long terme.

Du financement participatif pour pérenniser la science ouverte

Le principe de ce dispositif est de proposer chaque année à des services non commerciaux participant à l’open access et/ou à l’open science de soumissionner pour un financement mutualisé d’une durée de 3 ans ; les candidatures sont examinées en fonction d’une série de critères tels que la valeur ajoutée pour les différents acteurs de la recherche, la gouvernance, le coût et la durabilité du financement, les projets de développement. Deux initiatives sont sélectionnées par campagne et pourront être subventionnées selon un système de financement participatif, réparti sur les institutions et les organisations de recherche du monde entier.

Les 2 premiers services sélectionnés sont le DOAJ et Sherpa/Romeo, deux outils que nombre de bibliothèques utilisent au quotidien :

– Le DOAJ pour repérer les revues en OA de qualité à signaler aux enseignants-chercheurs. Il est possible que la formule d’adhésion actuelle au DOAJ disparaisse au profit de celle de SCOSS d’ici 2021. (Objectif de financement : 970 000 €)

Sherpa/Romeo pour connaître les politiques des éditeurs en matière d’auto-archivage. C’est un service que nous continuerons d’utiliser malgré la loi numérique, au moins tant qu’il ne sera pas dit officiellement qu’elle est rétroactive. Il est prévu d’ouvrir la curation des données de Sherpa/Romeo à la communauté, pour accélérer le traitement des demandes. (Objectif de financement : 1 529 935 €)

Pourquoi c’est intéressant ?

SCOSS établit une tarification pour les services sélectionnés en fonction des besoins et des objectifs de développement ; la grille tarifaire est échelonnée pour permettre la participation des établissements de grande et de petite taille.

Les établissements participant au financement s’engagent pour 3 ans. A l’issue de cette période, les candidats doivent avoir trouvé un mode de financement durable.

C’est un moyen très concret de soutenir le développement de la science ouverte, en renforçant des structures devenues de référence sans pour autant avoir un financement pérenne. De passer des déclarations d’intention aux actes, dans le droit fil des préconisations de l’appel de Jussieu.

Et ça marche ?

La campagne a plutôt bien commencé : lancée fin 2017 par Sparc Europe, LIBER, EIFL et CAUL, avec le support de l’AOASG, de COAR, de l’ERC, de l’EUA , de l’IFLA et de Science Europe, elle a déjà permis de collecter plus de 340 000 d’euros d’engagements, répartis sur une trentaine d’établissements académiques.

Pour en savoir plus, on peut s’abonner à la newsletter de SCOSS (qui devrait bientôt être disponible en français) ici.

De la difficulté d’inclure l’OA dans les big deals

8118876600_aa8f636a48_zDans The open access big deals : back to the future, Richard Poynder évoque les problèmes posés selon lui par les négociations de ce qu’il appelle les « open access big deals », c’est à dire les accords incluant l’accès aux contenus sous abonnement et la publication en OA avec APC. Il rappelle d’abord les modèles en présence, en soulignant que les objectifs ne sont pas forcément clairs dans toutes les négociations :

  • on a du « Read and publish » : les institutions payent des abonnements pour lire les contenus, et les frais de publications sont inclus dans l’accord ; la tarification est calculée en fonction du nombre d’articles publiés annuellement  par les enseignants-chercheurs des institutions, qui viennent en déduction du coût des abonnements (c’est ce que l’on appelle aussi les accords de compensation, « offsetting agreements »)
  • et aussi du « Publish and read » : les institutions ne payent que les frais de publication correspondant au nombre d’articles que publient annuellement leurs enseignants-chercheurs, ce n’est plus l’accès aux contenus qui est valorisé dans l’accord. C’est le modèle suivi par les allemands avec DEAL.

Les problèmes posés par ces accords sont, pour Poynder, au nombre de 4 :

1. La transparence est une des composantes essentielles de la transition vers l’open access. Transparence sur les clauses des négociations, et transparence sur les coûts, elle est censée garantir une vitalité du marché des APC, la concurrence permettant de faire évoluer les prix à la baisse. Or actuellement, il semblerait que les négociations des big deals incluant les APC ne soient pas plus transparentes que celles des accords traditionnels (il donne les exemples des négociations en cours en Allemagne, en Suisse et en Finlande), sans qu’il soit réellement possible d’en savoir la raison, entre des clauses de confidentialité imposées par les éditeurs, ou une prudence excessive de la part des négociateurs.

2. Il y a ensuite le fait que ces accords mixant abonnements et APC favorisent les « gros » éditeurs traditionnels, et handicapent les pure players de l’open access, qui n’ont pas le composant « abonnements » d’une part et peinent à trouver des modèles économiques de rupture d’autre part.

3. Par ailleurs ces accords avalisent le modèle auteur-payeur comme principal modèle économique pour la diffusion en open access, en cautionnant notamment l’open access hybride, et ne résolvent en rien la question de l’accessibilité financière aux contenus.

4. Enfin ce type d’accord, en maintenant en partie le système d’édition scientifique traditionnel, ne facilite pas la transition vers un modèle de diffusion large de la recherche scientifique appelé de leurs voeux par les organismes de financement publics.

Ce que Poynder n’évoque pas, c’est que, sans accord, les nouveaux flux financiers qui vont aux éditeurs avec les APC restent sous le radar : non mesurés (quelle dépense pour combien d’articles ?), non contrôlés (quelle évolution de la dépense ?), non vérifiés (obtient-on réellement ce pour quoi on a payé ? les articles en question sont-ils bien accessibles ?), ce qui n’est pas, me semble-t-il, une garantie d’un bon usage des fonds publics.

[Photo : Tore Bustad]

Beprexit

344334742_a78125e145_mBePress est une société de services fondée par des enseignants de l’université de Berkeley, commercialisant principalement la plateforme de publication Digital Commons : celle-ci permet d’héberger des documents de tous types, mais aussi des revues, et des profils de chercheurs… C’est une solution de diffusion « clé en mains », adoptée comme plateforme d’archive ouverte par plus de 500 petites et moyennes universités nord-américaines.
Coup de tonnerre à l’été 2017 : Elsevier annonce l’achat de BePress, poursuivant ainsi sa stratégie d’élargissement de son portefeuille de produits au delà de la fourniture de contenus, pour se positionner en incontournable sur toutes les étapes du workflow de recherche. La société se présente désormais non plus comme une maison d’édition, mais comme une société globale d’analyse d’information » (« global information analytics business »), et consolide sa position sur le marché académique et de recherche par une politique d’acquisitions d’acteurs stratégiques dans tous les domaines liés à la recherche scientifique (Plum Analytics, Mendeley, SSRN…).

Je note au passage, comme d’autres observateurs, que SSRN, comme BePress, couvrent essentiellement les sciences sociales, et particulièrement le droit pour BePress (74% du top 100 des facultés de droit US utiliseraient BePress pour diffuser leurs contenus, selon cette enquête de 2016), et que l’autre fleuron du groupe RELX, dont Elsevier fait partie, c’est Lexis-Nexis, l’une des bases de données incontournables en droit. J’ai du mal à croire que ce soit une coïncidence.

L’initiative de l’Université de Pennsylvanie en réaction à ce rachat est intéressante : après avoir annoncé dès octobre son choix de quitter Digital Commons, elle a mis en place, via ses bibliothèques universitaires, une ‘taskforce’ pour instruire tout le processus de migration. La taskforce a 9 mois pour faire un état des besoins des utilisateurs, puis étudier les solutions alternatives et leur faisabilité dans le contexte local. L’un des défis de cette migration est que Digital Commons est un produit tout-en-un : il va vraisemblablement falloir s’équiper de plusieurs outils pour pouvoir proposer des fonctionnalités équivalentes, et réussir à intégrer ces outils de façon fluide dans le workflow des chercheurs de l’université.
Les avancées de « l’opération Beprexit » (@beprexit) sont documentées sur un blog dédié.

Sources :
Reflections on « Elseviers acquires BePress » – R. Schonfeld
Just business – Barbara Fister
Elsevier continues to build its monopoly solution for all aspects of scholarly communication – Glynn Moody
[Photo : Huskyboy]

Peut-on être bibliothécaire sans être promoteur de l’open access ?

6880911245_b11eaaa6b7_mC’est une question que se pose Aaron Tay, bibliothécaire à Singapour dans ce billet. Après avoir raconté son propre cheminement personnel par rapport à l’open access (intéressant à lire aussi), il réagit à l’une des réponses reçues à sa question posée sur Twitter (tu peux être bibliothécaire et pas promoteur de l’open access « seulement si tu t’intéresses plus aux bibliothèques qu’à la recherche »), et donne son analyse :
« Au mieux, [l’open access] va fortement « disrupter » les bibliothèques universitaires, en entraînant de grandes difficultés dûes aux ajustements des missions, avant une stabilisation, au pire il va nettement réduire le besoin en bibliothécaires et conduire au déclin des bibliothèques ; je confesse que cela m’effraie pour moi et pour les BU. »

Il se demande pourtant si ses craintes sont fondées : les bibliothèques ont surmonté d’autres transitions, comme l’informatisation dans les années 60 ou la montée du web à la fin des années 90, et elles semblent s’adapter de mieux en mieux aux changements. Reste qu’il faut voir la réalité en face et se poser les questions qui fâchent :
« Quels postes vont disparaître quand l’open access sera la norme ? Quelles nouvelles fonctions vont émerger à la place ? Et il ne s’agit pas juste de définir des missions, mais également d’estimer les ETP requis pour les remplir. »

Quel futur pour l’open access et les bibliothèques ?
« Dans tous les cas, je pense qu’actuellement l’open access est inévitable, et qu’il ne sert à rien de se demander si on est pour ou contre. Nous devons nous y préparer et nous organiser pour en tirer un maximum de bénéfice pour nos usagers et peut-être même un peu de considération pour nous-mêmes. »
Pour Aaron, « il y a 3 types de bibliothécaires pour ce qui concerne l’open access :
– d’abord les avocats de l’open access les plus fervents, ce sont ceux qui sont à l’origine de toutes les initiatives géniales, ce sont les stars. Ils sont nombreux à avoir des fonctions liées à la diffusion scientifique (« scholarly communication »), mais pas tous.
– le second groupe rassemble les nouveaux bibliothécaires. Pour ce que j’en ai vu, les nouveaux bibliothécaires tendent à être pro open access, et à penser que c’est une nouvelle branche passionnante du métier. Il y a cependant une différence entre dire qu’on est pour l’open access et en savoir suffisamment pour avoir un réel impact : l’open access est quand même un truc bien compliqué, et je me demande parfois si j’en ferai jamais le tour.
– enfin il y a la grosse majorité silencieuse des bibliothécaires qui font juste leur travail et s’en tapent un peu, de l’open access, parce que ça ne les touche pas vraiment pour le moment.
Pourtant les choses peuvent changer rapidement : il y a quelques années, vous pouviez tranquillement vivre votre vie de responsable des ressources électroniques sans connaître grand chose de l’open access. Aujourd’hui, avec le nombre croissant de ressources en open access, vous devez comprendre dans quelle mesure cela peut affecter les usages des ressources que vous achetez, et il n’est pas idiot d’utiliser des outils d’aide à la décision sur les abonnements prenant en compte le volume de contenus en open access. Vous vous occupez de l’outil de découverte ? Il vaudrait mieux que vous sachiez comment fonctionnent les ressources en open access dans votre index central… »

En résumé, Aaron conclut qu’il est temps de se réveiller, et de se mettre à l’open access, en commençant par lire le bouquin de Peter Suber « Qu’est ce que l’accès ouvert ?« , dispo chez OpenEdition. Ce qui me semble être une bonne idée.

[Photo : Lea Aharonovitch]

Les pre-prints en 10 points

4069417645_570914e701_zUn pre-print est une contribution scientifique non validée par les pairs, qui peut être destinée à la publication (mais ce n’est pas une obligation). Les initiatives autour des pre-prints se multiplient ; Philip Bourne, Jessica Polka, Ronald Vale et Robert Kiley présentent en 10 points l’intérêt des pre-prints aujourd’hui :

Les pre-prints accélèrent la diffusion des connaissances : ils permettent de s’affranchir des délais longs de la publication (comptez en moyenne 9 mois entre la soumission et la publication d’un article dans une revue).

Les pre-prints rendent possible une science ouverte (« open science ») et améliorent la communication scientifique : ils ne sont pas soumis aux contraintes du copyright et leur consultation n’est pas restreinte, ils peuvent être fouillés par des programmes informatiques.

Les pre-prints fournissent du contenu scientifique qui serait perdu sans cela : un sujet qui n’a pas trouvé son public au moment où il a été traité, les travaux d’un étudiant ayant changé d’établissement, des résultats négatifs : ces contenus ne seront pas forcément publiés dans une revue, ils peuvent néanmoins servir à la communauté. « Oui mais ils ne sont pas validés ! » – certes, mais ni plus ni moins que les échanges dans les congrès, ou les blogs scientifiques…

Les pre-prints ne sont pas synonymes de mauvaise qualité : ce sont des contributions diffusées publiquement, qui peuvent être citées, et mettent en jeu la réputation de leurs auteurs, qui ont donc tout intérêt à diffuser des contenus de qualité – c’est en tout cas ce que l’on constate sur arxiv et biorxiv.

Les pre-prints permettent une évaluation rapide des résultats controversés : leur diffusion publique permet la discussion, le repérage des erreurs, la correction des données. Les NIH ont ainsi pu obtenir une vision très complète et très documentée de résultats controversés.

Les pre-prints n’empêchent pas forcément la publication : au vu de cette liste des politiques éditoriales concernant les pre-prints, on constate que peu d’éditeurs refusent des contributions au motif qu’elles ont déjà été déposées sur un serveur de pre-prints. La tendance est même plutôt à l’ouverture aux pre-prints, avec le développement de passerelles entre les serveurs de pre-prints et les outils de soumission aux revues, et d’epi-revues.

Les pre-prints ne mènent pas au plagiat : l’exemple d’arxiv montre que la communauté s’autorégule : des comportements plagiaires ne sont pas tolérés.

Les pre-prints permettent d’enregistrer la priorité : les contenus sont horodatés et publics, garantissant la paternité de leur auteur et leur antériorité dès leur dépôt, ce que ne permettent pas les revues, en raison de la validation par les pairs encore le plus souvent « fermée » et des délais de publication.

Les pre-prints peuvent appuyer les demandes de financement et l’avancement de carrière : les délais de publication sont un handicap, mieux vaut un dossier de financement avec des pre-prints disponibles en texte intégral immédiatement, c’est en tout cas ce qu’indique le fait que les organismes de financement, qui incluent de plus en plus l’intégration des pre-prints dans leurs politiques de subventionnement de la recherche. Concernant l’avancement, on peut imaginer qu’un pre-print assumé par son auteur aurait autant de poids que d’autres publications dans le processus d’évaluation.

Les pre-prints s’adaptent aux usages de leurs communautés : biorxiv par exemple n’accepte pas les papiers comportant des données sur des sujets humains, qui posent des questions d’ordre éthique, juridique et social.

Ten simple rules for considering preprints, disponible sur PEERJ Preprints.

Sci-Hub

Sci-hub est un site web créée en 2011 par Alexandra Elbakyan, une étudiante kazakh ayant alors du mal à accéder aux articles dont elle avait besoin pour sa thèse. Le site, qui se définit clairement comme pirate, donne accès à plus de 47 millions d’articles scientifiques, en toute illégalité.
A l’heure actuelle, on estime qu’un article est partagé 11 fois en moyenne, principalement par email : Sci-Hub n’a rien inventé, mais il a industrialisé le processus.

Comment ça marche ?
5241380268_a4229953c2_mDepuis l’interface de Sci-Hub, l’utilisateur rentre l’identifiant d’un article (son DOI, son PMID), son url ou des termes de recherche. Sci-Hub va d’abord chercher si l’article est présent dans LibGen, un autre site pirate de stockage d’articles scientifiques, qui héberge aussi des livres et des BD.
Si ce n’est pas le cas, le système va se connecter à des sites d’universités pour récupérer l’article, en utilisant les identifiants d’étudiants ou d’enseignants-chercheurs de ces établissements. Ces identifiants sont soit donnés de plein accord par les utilisateurs, soit achetés par Sci-Hub : il y a bien un marché des identifiants…
On estime l’activité sur le site à plus de 200 000 téléchargements par jour.

Qui utilise Sci-hub ?
Une enquête menée par la revue Science en avril 2016 s’est intéressée aux usages de Sci-Hub ; elle a donné une forte exposition à ce service jusque là plus ou moins confidentiel.

L’enquête montre que, si ce sont bien les pays en voie de développement qui sont les plus gros utilisateurs du service (Iran, Inde et Chine en tête), un bon quart des usages émane des Etats-Unis et des pays d’Europe de Ouest, censés être correctement desservis en ressources en ligne.
Au delà de la problématiques de l’accès, il semble donc que la facilité d’utilisation du service entre en ligne de compte pour ces usagers : d’une part le système est simple à utiliser, et d’autre part on y trouve tout sur place, ce qui permet un gain de temps appréciable.
De fait, 37 % des répondants affirment avoir eu recours à Sci-Hub bien qu’ils bénéficient par ailleurs d’un accès aux ressources consultées.
L’université d’Utrecht a pu analyser les usages probables de ses chercheurs sur Sci-Hub : 75 % des consultations concernent des ressources disponibles via la BU (60 %) ou en open access (15%).

Légalité et éthique
Le système n’est pas légal : la créatrice du site est poursuivie aux Etats-Unis par l’éditeur Elsevier pour violation de copyright et piratage ; l’éditeur estime les usages de Sci-Hub à 5 % du total des téléchargements légaux, tous éditeurs confondus.
Pour sa défense, A. Elbakyan s’appuie sur l’article 27 de la Déclaration universelle des droits de l’homme, qui pose que «Toute personne a le droit de prendre part librement à la vie culturelle de la communauté, de jouir des arts et de participer au progrès scientifique et aux bienfaits qui en résultent. »
La justice américaine a rendu un verdict en sa défaveur, et demandé à ce que le site soit fermé : A. Elbakyan n’étant pas localisée sur le sol américain, elle échappe pour l’instant aux poursuites ; le site est resté fermé pendant une quinzaine de jours en novembre 2015, et a pu rouvrir à une autre adresse assez rapidement.

Malgré l’illégalité avérée de ce système, il bénéficie cependant de la sympathie d’une partie de la communauté des chercheurs, utilisateurs ou non du site : pour 88 % des répondants à l’enquête de Science, pirater des articles scientifiques n’est pas répréhensible.
Plusieurs arguments viennent étayer ce « capital sympathie » : le système actuel de diffusion des résultats de la recherche ralentit la diffusion de la science, la restreint et empêche son exploitation scientifique (par la fouille de données notamment) ; le cadre légal actuel est inadapté aux besoins et usages permis par le numérique ; le coût de l’accès reste un problème pour de nombreux pays ; la valeur ajoutée des « grands » éditeurs est remise en question…

Position des éditeurs
8466937657_c9c834feef_mLes éditeurs condamnent bien entendu globalement les pratiques de Sci-Hub. Sans surprise, ce sont des articles des « big 5 » qui sont le plus téléchargés : Elsevier, Springer-Nature, ACS, Wiley, Taylor&Francis. Les enjeux ne sont cependant pas les mêmes pour ces éditeurs commerciaux et pour les sociétés savantes, qui éditent bien moins de titres et dont les abonnements constituent la principale ressource de revenu.
Plusieurs représentants d’éditeurs critiquent « l’approbation silencieuse » constatée chez certains bibliothécaires et/ou défenseurs de l’open access, et préfèreraient une franche condamnation des « bibliothèques pirates ».
Pour l’instant le soufflé semble retombé, mais il est possible que les éditeurs réagissent avec une réponse technique dans un futur plus ou moins proche : renforcement des mesures d’authentification dans les établissements, quotas de téléchargements imposés, voire suppression de la mise à disposition des documents au format pdf – probablement au final une complexification des systèmes d’accès documentaire des BU…

Positions des bibliothèques
Les bibliothécaires sont dans une position délicate : d’un côté Sci-Hub semble répondre en partie au problème de l’accès à l’information scientifique, mais d’un autre cela se fait au mépris de toutes les règles du droit d’auteur, ce qui n’est pas défendable dans le contexte actuel.
Par ailleurs, Sci-Hub s’appuie sur les bibliothèques à leur insu, tout en sapant leur intérêt (l’utilisateur n’a pas conscience que ce sont les établissements qui fournissent, certes malgré eux, les accès : la bibliothèque n’apparaît nulle part dans le dispositif), et leur crédit (pour les éditeurs, Sci-Hub prospère parce que les bibliothèques ne parviennent pas à mettre en place des systèmes d’authentification performants).
6263541898_724d37bbb7_mCoincées entre des coûts toujours croissants et des budgets stables dans le meilleurs des cas, la tentation est grande pour les bibliothèques de considérer Sci-Hub comme une alternative pour couvrir des besoins documentaires à moindre frais, voire pour remplacer certaines ressources qu’elles ne peuvent plus financer. Mais, si on pousse le raisonnement jusqu’au bout, et que les bibliothèques finissent par supprimer leurs abonnements, d’une part Sci-Hub n’aura plus accès à grand-chose, et d’autre part les éditeurs finiront par faire faillite : on explose le système, mais pour le remplacer par quoi ? Pas sûr qu’on ait une réponse pour l’instant…

Menace pour l’open access ?
Bien que Sci-Hub affiche sur son site son soutien à l’open access, on ne peut pas dire que son activité bénéficie particulièrement au libre accès : l’illégalité du procédé incite plus les éditeurs à attaquer en justice qu’à faire évoluer leurs modèles économiques. En terme d’image, alors que le mouvement de l’open access a encore du mal a se sortir de l’amalgame avec les éditeurs prédateurs, ou avec le modèle de l’auteur-payeur, le fait d’être associé avec un site pirate ne facilite pas la tâche des promoteurs de l’OA auprès des chercheurs…
Sur le fond, Sci-Hub ne résoud pas les problèmes : les éditeurs ne changent pas leurs modèles, le système d’évaluation de la recherche ne change pas (maintien du facteur d’impact), le droit d’auteur n’évolue pas (les auteurs continuent à céder leurs droits sur leurs publications). Or c’est sur tous ces points que le mouvement de l’open access entend agir, pour arriver à un changement culturel profond dans les communautés scientifiques, à une science ouverte.

Plus qu’une menace, Sci-Hub est peut être plutôt à voir comme une opportunité pour les bibliothécaires de se re-positionner dans le paysage de l’open access, en renforçant leur rôle de médiateurs et de promoteurs d’un véritable open access, respectueux des droits de toutes les parties, pérenne et citable.

[Photos : françois.sorrentino, Laurent Henschen, Christian Gonzales]


août 2018
L M M J V S D
« Avr    
 12345
6789101112
13141516171819
20212223242526
2728293031  

Archives

Licence

Licence Creative Commons
Ce(tte) œuvre est mise à disposition selon les termes de la Licence Creative Commons Attribution 3.0 France.
Publicités