Une initiative pour le financement de l’open science : SCOSS

8661000014_715a3135e5_oSPARC Europe a lancé la « Coalition mondiale pour la durabilité des services scientifiques ouverts » (Global Sustainability Coalition for Open Science Services, SCOSS), pour coordonner un système de mutualisation du financement des projets et services permettant à la science ouverte de se faire, pour assurer leur maintien sur le long terme.

Du financement participatif pour pérenniser la science ouverte

Le principe de ce dispositif est de proposer chaque année à des services non commerciaux participant à l’open access et/ou à l’open science de soumissionner pour un financement mutualisé d’une durée de 3 ans ; les candidatures sont examinées en fonction d’une série de critères tels que la valeur ajoutée pour les différents acteurs de la recherche, la gouvernance, le coût et la durabilité du financement, les projets de développement. Deux initiatives sont sélectionnées par campagne et pourront être subventionnées selon un système de financement participatif, réparti sur les institutions et les organisations de recherche du monde entier.

Les 2 premiers services sélectionnés sont le DOAJ et Sherpa/Romeo, deux outils que nombre de bibliothèques utilisent au quotidien :

– Le DOAJ pour repérer les revues en OA de qualité à signaler aux enseignants-chercheurs. Il est possible que la formule d’adhésion actuelle au DOAJ disparaisse au profit de celle de SCOSS d’ici 2021. (Objectif de financement : 970 000 €)

Sherpa/Romeo pour connaître les politiques des éditeurs en matière d’auto-archivage. C’est un service que nous continuerons d’utiliser malgré la loi numérique, au moins tant qu’il ne sera pas dit officiellement qu’elle est rétroactive. Il est prévu d’ouvrir la curation des données de Sherpa/Romeo à la communauté, pour accélérer le traitement des demandes. (Objectif de financement : 1 529 935 €)

Pourquoi c’est intéressant ?

SCOSS établit une tarification pour les services sélectionnés en fonction des besoins et des objectifs de développement ; la grille tarifaire est échelonnée pour permettre la participation des établissements de grande et de petite taille.

Les établissements participant au financement s’engagent pour 3 ans. A l’issue de cette période, les candidats doivent avoir trouvé un mode de financement durable.

C’est un moyen très concret de soutenir le développement de la science ouverte, en renforçant des structures devenues de référence sans pour autant avoir un financement pérenne. De passer des déclarations d’intention aux actes, dans le droit fil des préconisations de l’appel de Jussieu.

Et ça marche ?

La campagne a plutôt bien commencé : lancée fin 2017 par Sparc Europe, LIBER, EIFL et CAUL, avec le support de l’AOASG, de COAR, de l’ERC, de l’EUA , de l’IFLA et de Science Europe, elle a déjà permis de collecter plus de 340 000 d’euros d’engagements, répartis sur une trentaine d’établissements académiques.

Pour en savoir plus, on peut s’abonner à la newsletter de SCOSS (qui devrait bientôt être disponible en français) ici.

Publicités

De la difficulté d’inclure l’OA dans les big deals

8118876600_aa8f636a48_zDans The open access big deals : back to the future, Richard Poynder évoque les problèmes posés selon lui par les négociations de ce qu’il appelle les « open access big deals », c’est à dire les accords incluant l’accès aux contenus sous abonnement et la publication en OA avec APC. Il rappelle d’abord les modèles en présence, en soulignant que les objectifs ne sont pas forcément clairs dans toutes les négociations :

  • on a du « Read and publish » : les institutions payent des abonnements pour lire les contenus, et les frais de publications sont inclus dans l’accord ; la tarification est calculée en fonction du nombre d’articles publiés annuellement  par les enseignants-chercheurs des institutions, qui viennent en déduction du coût des abonnements (c’est ce que l’on appelle aussi les accords de compensation, « offsetting agreements »)
  • et aussi du « Publish and read » : les institutions ne payent que les frais de publication correspondant au nombre d’articles que publient annuellement leurs enseignants-chercheurs, ce n’est plus l’accès aux contenus qui est valorisé dans l’accord. C’est le modèle suivi par les allemands avec DEAL.

Les problèmes posés par ces accords sont, pour Poynder, au nombre de 4 :

1. La transparence est une des composantes essentielles de la transition vers l’open access. Transparence sur les clauses des négociations, et transparence sur les coûts, elle est censée garantir une vitalité du marché des APC, la concurrence permettant de faire évoluer les prix à la baisse. Or actuellement, il semblerait que les négociations des big deals incluant les APC ne soient pas plus transparentes que celles des accords traditionnels (il donne les exemples des négociations en cours en Allemagne, en Suisse et en Finlande), sans qu’il soit réellement possible d’en savoir la raison, entre des clauses de confidentialité imposées par les éditeurs, ou une prudence excessive de la part des négociateurs.

2. Il y a ensuite le fait que ces accords mixant abonnements et APC favorisent les « gros » éditeurs traditionnels, et handicapent les pure players de l’open access, qui n’ont pas le composant « abonnements » d’une part et peinent à trouver des modèles économiques de rupture d’autre part.

3. Par ailleurs ces accords avalisent le modèle auteur-payeur comme principal modèle économique pour la diffusion en open access, en cautionnant notamment l’open access hybride, et ne résolvent en rien la question de l’accessibilité financière aux contenus.

4. Enfin ce type d’accord, en maintenant en partie le système d’édition scientifique traditionnel, ne facilite pas la transition vers un modèle de diffusion large de la recherche scientifique appelé de leurs voeux par les organismes de financement publics.

Ce que Poynder n’évoque pas, c’est que, sans accord, les nouveaux flux financiers qui vont aux éditeurs avec les APC restent sous le radar : non mesurés (quelle dépense pour combien d’articles ?), non contrôlés (quelle évolution de la dépense ?), non vérifiés (obtient-on réellement ce pour quoi on a payé ? les articles en question sont-ils bien accessibles ?), ce qui n’est pas, me semble-t-il, une garantie d’un bon usage des fonds publics.

[Photo : Tore Bustad]

CHARLESTON CONFERENCE 2017 ‘WHAT’S PAST IS PROLOGUE’

Marlene’s corner ouvre ses colonnes à l’international : Marc Martinez (@tunguska69), directeur du SCD de Lyon 3, a gentiment accepté de nous faire un retour sur l’édition 2017 de la Charleston Conference, l’une des plus importantes manifestations professionnelles aux Etats-Unis.

flag_of_south_carolina

And you may ask yourself, well how did I get there? [1]

La 37e édition de la Charleston Conference – Issues in book and serial acquisition a eu lieu dans la capitale de la Caroline du Sud aux États-Unis du 8 au 10 novembre 2017 sous le mot d’ordre : What’s past is prologue. Sous ce titre énigmatique s’est déroulé un événement professionnel d’une richesse insoupçonnée de l’autre côté de l’Atlantique, organisé par Casalini libri, la revue Against the grain et la Charleston company  Il était dès lors tentant et intéressant d’aller voir in vivo comment se présentaient les tendances de fond pour les bibliothèques et leur écosystème outre-Atlantique.

Size matters

La première surprise est… de taille : celle de la conférence. Même compte tenu de la différence de taille des pays et d’effectifs des corps de professionnels des bibliothèques et de la documentation, je m’attendais à une conférence du volume de celle que tient LIBER annuellement, avec une jauge autour de 400 à 600 présents. Loin de là : 1 800 personnes au total étaient présentes sur les trois sites de la conférence dans downtown Charleston. L’Attendee roster, qui recense les participants, est un document d’une bonne centaine de pages à lui seul. C’est, pour donner un ordre de grandeur, plus de quatre fois le volume d’un congrès ADBU et on se rapproche, en termes de fréquentation, de la conférence mondiale de l’IFLA[2]. C’est grand, c’est XXL même et on est un peu perdu au début dans le dédale d’interventions simultanées, d’événements périphériques et associés, de lieux divers dans la ville mais on finit par s’y retrouver : l’organisation est sans failles et l’accueil (bénévole en grande partie) efficace et souriant, toujours prêt à sortir d’embarras le collègue français peu au fait de l’environnement local.

We’re in this together [3]

La seconde différence d’importance est plus discrète à se manifester mais n’en est pas moins frappante et colore l’ambiance et les débats de la conférence. Sur les 1790 participants, 934 seulement sont bibliothécaires ou professionnels de la documentation ; les 856 autres sont des fournisseurs, qui représentent donc près de la moitié du public (47,8%). Je dis bien qu’ils font partie du public, car ici pas de dichotomie marquée bibliothécaires / fournisseurs, ni de stands bien alignés permettant de séparer secteurs public et marchand : la conférence s’adresse autant aux fournisseurs qu’aux collègues. Des fournisseurs au demeurant très variés : à côté des bataillons serrés envoyés par les Elsevier, Springer, Sage et autres Gale, les sociétés savantes, les éditeurs, les fabricants de matériel et développeurs de logiciels se pressent dans les allées, les salles et autour des buffets et cafetières.

Peu ou pas de stands donc et peu de démonstrations de produits ou services, si ce n’est quelques déjeuners stratégiques organisés par les grands groupes à destination d’un public choisi de décideurs de l’IST nord-américain. La conférence est l’occasion pour ces deux publics que nous avons l’habitude en France de considérer assez strictement disparates de se mêler de manière informelle et aisée.

Même savant mélange à la tribune où bibliothécaires, universitaires et acteurs privés cohabitent souvent sans inconvénient visible.

How to disappear completely [4]

Parmi les bibliothécaires, douze pays étaient représentés par 63 collègues, en périphérie de l’écrasante majorité de participants US. La répartition géographique fait une place prépondérante au voisin canadien et relègue les participants du reste du monde (y compris européens) au statut d’épiphénomène statistique (moins de 30 personnes).

Parmi les locaux de l’étape, on retrouve évidemment les grandes bibliothèques universitaires du pays mais aussi une bonne partie du réseau de collègues travaillant dans des colleges de plus petite taille et renommée, voire des documentalistes travaillant dans certaines grosses high schools (l’équivalent approximatif de nos lycées) – une représentation professionnelle plus large donc que celle fréquentant ce type de manifestation sous nos latitudes.

To the point

Durant les trois journées de la conférence, les interventions, tables rondes et débats ont roulé sur des sujets subtilement différents de ceux auxquels on est exposé en Europe. Dédiée à l’origine aux problématiques d’acquisition et de gestion des collections d’ouvrages et de revues, aujourd’hui étendues au management stratégique des collections et ressources, la Charleston conference a vu ses thèmes évoluer vers des préoccupations plus larges : l’évolution des bibliothèques universitaires et de recherche  au 21e siècle ; les technologies de l’édition scientifique ; les questions d’éthique des publications ; le rôle croissant de l’intelligence artificielle dans les écosystèmes documentaires font partie des sujets abordés lors de cette édition. Les questions de ressources humaines et financières sont présentes mais à un degré moindre qu’en France, du fait d’un système de recrutement et d’un cadre d’emploi reposant sur des principes sensiblement différents et d’une situation financière globalement plus favorable – même si les problématiques de contrôle des coûts de la documentation électronique sont aussi réelles qu’en Europe.

Quand l’open access et les différentes facettes de la science ouverte constituent de plus en plus la trame de fond des conférences professionnelles généralistes françaises ou européennes, le programme de la Charleston conference met en valeur les  : d’un côté Elsevier / Bepress intervenant deux fois (une pour désamorcer les craintes nées du rachat de Bepress par Elsevier l’été précédent, la seconde en duo avec une bibliothécaire de l’Illinois pour vanter l’intégration de Bepress sur le site web de l’université) ; à l’autre extrémité de l’échelle de taille d’entreprises, les présentations de sociétés comme Yewno ou Atypon, là encore de concert avec universitaires et bibliothécaires.

Une place particulière est accordée aux questions juridiques, qu’il s’agisse de copyright, du régime de propriété des données ou des conditions juridiques dans lesquelles les bibliothèques nord-américaines rendent leurs services à leurs usagers. Une session plénière en matinée, intitulée The long arm of the law y est consacrée, avec entre autres un compendium des litiges et affaires intéressant les bibliothèques portés devant les tribunaux. Une enseignante de droit et un avocat spécialiste de la propriété intellectuelle animent la matinée, modérée par une collègue du Center for research libraries. L’intervention (chantée par moments !) de l’avocat William Hannay sinon le moment-clef. En dehors des remises de prix et des ouvertures ou clôtures de sessions, la conférence ne compte que six interventions en formation plénière, parfois de durée réduite. Le véritable show monté par Bill Hannay a été l’intervention la plus suivie, celle qui a entraîné les réactions les plus vives de la salle et a produit en bouquet final un chœur improvisé (et souvent faux on doit l’avouer) de presque 500 bibliothécaires chantant – sous la houlette d’un avocat d’affaires – les aventures d’un fichier musical numérique sous DRM !

Famous last words

Au total, un éclairage partiel, plus un instantané qu’un panorama, sur les tendances professionnelles et l’évolution de nos structures et métiers telles que les voient les collègues nord-américains et leurs fournisseurs et partenaires privés. Il paraîtrait utile que la Charleston conference figure de manière plus visible dans les agendas des collègues impliqués dans les actions et la veille internationales : c’est à mon sens, pour les bibliothèques universitaires et de recherche au moins, un des endroits où prendre le pouls de nos métiers et où sont délinéés  leurs devenirs.

[1] Motto d’une des présentations

[2] Pour référence, la fréquentation des dernières conférences mondiales IFLA a été : 2017 (Wroclaw, Pologne) : 3000 ; 2016 (Columbus, États-Unis) : 3200 ; 2015 (Cape Town, Afrique du Sud) : 2100 ; 2014 (Lyon, France) : 2600 ; 2013 Singapour : 2100.

[3] We’re in this together – NIN

[4] How to disappear completely – Radiohead

2,5% et plus

In the Internet era information will be free, the only question remaining is who pays for that freedom. — Kalev Leetaru

5171649483_dac32e7533_m

 

David Lewis, directeur des BU de l’Indiana University – Purdue University Indianapolis, propose dans le texte « The 2,5% Commitment » de financer une infrastructure commune, nécessaire pour soutenir la science ouverte, en demandant aux bibliothèques d’y consacrer 2,5% de leurs budgets. Elle comprendrait, au minimum, les contributions des établissements :
« 1. Aux projets de logiciels libres qui sous-tendent les initiatives d’open science : Dspace,  Fedora, Hyku, OJS, ArchiveSpace, Islandora…
2. Aux archives disciplinaires : ArXiv, bioRxiv, ou the Humanities Commons
3. Aux grosses bases de données hébergeant des contenus ouverts comme HathiTrust ou l’Internet Archive
4. Aux outils, de Wikipedia à VIVO, en passant par l’Open Access Button ou Unpaywall
5. Aux organisations de conservation telles que le Digital Preservation Network ou l’Academic Preservation Trust
6. Aux ressources éducatives libres telles qu’OpenStax
7. Aux organisations qui soutiennent ces développements, comme DuraSpace, le Center for Open Science, le Public Knowledge Project, l’Open Texbook Network, Impactstory, Orchid, ou Creative Commons
8. Aux organisations de promotion telles que SPARC »

Lewis souhaite aussi fournir une liste des différents outils et initiatives de soutien à la science ouverte, en regard de laquelle les établissements pourraient indiquer leur contribution financière, avec le choix de rendre publique cette information ou pas.

Au delà de la question financière, Lewis souligne qu’il y a une question de mentalité et d’organisation : en effet, malgré une longue tradition de travail en réseau, la mutualisation de capacités financières n’est pas encore entrée dans les pratiques des BU, et encore moins quand il s’agit de financer des structures, et plus seulement d’acheter de la documentation. Il y a un discours à porter auprès des tutelles, pour justifier l’allocation de ressources financières en soutien à des projets de science ouverte, qui n’est pas encore intégré dans les BU (en tout cas en France, du moins je n’en ai pas l’impression).
[Sur cette question d’organisation, on ne peut que faire le lien avec ce qui est en train de se mettre en place avec SCOSS, Sustainability Coalition for Open Science Services, un projet à l’initiative de plusieurs associations de soutien à l’open access et d’associations de bibliothèques. Le principe est assez simple : chaque année, les structures proposant des services en faveur de la science ouverte peuvent candidater pour être éligibles à un financement mutualisé. 2 projets sont sélectionnés par session, que les institutions choisissent de financer selon un barême défini à l’avance ; un genre de crowdfunding institutionnel, en somme. Cette année, Sherpa/Romeo et le DOAJ ont été sélectionnés, soutenez-les !]
La proposition de Lewis contrarie un peu Cameron Neylon, promoteur de longue date de l’open access : pour lui, un financement mutualisé ne peut fonctionner qu’avec un nombre réduit de participants, et nécessite un fort niveau de coordination, difficile à mettre en place au niveau d’un état (en tout cas aux Etats-Unis). Il questionne aussi la définition du pourcentage : qu’est-ce qui est couvert par cette fraction du budget ? Et comment le rationnaliser pour l’expliquer au sein de « la communauté », dans le cadre d’institutions pluri-disciplinaires, qui agrègent une myriade de communautés avec leurs spécificités et où le sens de « la » communauté n’est pas la chose la plus répandue ? Il est néanmoins d’accord avec la majorité des arguments de la proposition de Lewis, et conclut :
« Je pense que l’objectif est sur-évalué. Il demande à ce que trop d’universités participent, il implique des risques politiques à la fois internes et externes qui sont exactement ceux qui ont ralenti l’implémentation de l’open access. Il suppose un pouvoir sur les budgets, et le consentement implicite des universitaires, qui n’existent vraisemblablement pas et sont pratiquement impossibles à obtenir, et les masque derrière un petit pourcentage. Obtenir ce petit pourcentage demande quand même une grande coordination entre de nombreuses institutions, et il me semble peu probable d’y arriver.
Et en même temps cet objectif est loin d’être assez ambitieux. Si l’on veut vraiment transformer la communication scientifique en passant d’une logique de contrats de service à une logique de plateformes partagées, alors se contenter de cibler 2,5% est voué à l’échec. Personne ne sait quel devrait être le chiffre idéal, mais il me semble clair que si nous voulons faire des économies, il faut partir sur un pourcentage élevé. Nous avons besoin d’une optimisation systémique, qui nous permette de récolter les bénéfices de l’offre commerciale, y compris le capital extérieur, la qualité du service et la concurrence, tout en conservant progressivement une plus grande part des normes, des plates-formes et des mécanismes d’échange dans la sphère communautaire.

Passer d’une logique d’acquisition à une logique d’investissement est une façon d’ y parvenir. »

Beprexit

344334742_a78125e145_mBePress est une société de services fondée par des enseignants de l’université de Berkeley, commercialisant principalement la plateforme de publication Digital Commons : celle-ci permet d’héberger des documents de tous types, mais aussi des revues, et des profils de chercheurs… C’est une solution de diffusion « clé en mains », adoptée comme plateforme d’archive ouverte par plus de 500 petites et moyennes universités nord-américaines.
Coup de tonnerre à l’été 2017 : Elsevier annonce l’achat de BePress, poursuivant ainsi sa stratégie d’élargissement de son portefeuille de produits au delà de la fourniture de contenus, pour se positionner en incontournable sur toutes les étapes du workflow de recherche. La société se présente désormais non plus comme une maison d’édition, mais comme une société globale d’analyse d’information » (« global information analytics business »), et consolide sa position sur le marché académique et de recherche par une politique d’acquisitions d’acteurs stratégiques dans tous les domaines liés à la recherche scientifique (Plum Analytics, Mendeley, SSRN…).

Je note au passage, comme d’autres observateurs, que SSRN, comme BePress, couvrent essentiellement les sciences sociales, et particulièrement le droit pour BePress (74% du top 100 des facultés de droit US utiliseraient BePress pour diffuser leurs contenus, selon cette enquête de 2016), et que l’autre fleuron du groupe RELX, dont Elsevier fait partie, c’est Lexis-Nexis, l’une des bases de données incontournables en droit. J’ai du mal à croire que ce soit une coïncidence.

L’initiative de l’Université de Pennsylvanie en réaction à ce rachat est intéressante : après avoir annoncé dès octobre son choix de quitter Digital Commons, elle a mis en place, via ses bibliothèques universitaires, une ‘taskforce’ pour instruire tout le processus de migration. La taskforce a 9 mois pour faire un état des besoins des utilisateurs, puis étudier les solutions alternatives et leur faisabilité dans le contexte local. L’un des défis de cette migration est que Digital Commons est un produit tout-en-un : il va vraisemblablement falloir s’équiper de plusieurs outils pour pouvoir proposer des fonctionnalités équivalentes, et réussir à intégrer ces outils de façon fluide dans le workflow des chercheurs de l’université.
Les avancées de « l’opération Beprexit » (@beprexit) sont documentées sur un blog dédié.

Sources :
Reflections on « Elseviers acquires BePress » – R. Schonfeld
Just business – Barbara Fister
Elsevier continues to build its monopoly solution for all aspects of scholarly communication – Glynn Moody
[Photo : Huskyboy]

La reproductibilité, une corde à ajouter à l’arc des bibliothécaires ?

4048391932_b09fe9569a_oIntéressons-nous aujourd’hui à une tendance émergente dans le monde de la « bibliothéconomie des données » : la reproductibilité. En gros, il s’agit du fait de pouvoir reproduire les expériences et/ou les observations faites par des chercheurs, pour pouvoir d’une part vérifier qu’elles sont justes, mais aussi et surtout pour aller plus loin dans le travail de recherche à partir de ces données. Cela suppose notamment que les données en question soient accessibles bien sûr, mais aussi qu’elles le soient dans des formats normalisés pour pouvoir être manipulées. Et que les outils utilisés pour analyser ces données soient accessibles également.
Cela semble évident dit comme ça, mais c’est loin d’être le cas : depuis le milieu des années 2000, plusieurs études ont montré qu’entre la moitié et les trois quarts, selon les disciplines, des expériences publiées ne sont pas reproductibles, à tel point que l’on a parlé d’une « crise de la reproductibilité » scientifique. La psychologie et la médecine seraient les domaines les plus touchés par le problème.
Pour y remédier, les différents acteurs de la recherche ont mis en place différents outils et démarches : les registered reports (on détaille dans un article spécifique, avant le démarrage de la collecte des données, le processus de recherche qui va être appliqué, si celui-ci est validé, on poursuit), l’analyse collaborative des résultats (pour éviter les biais d’interprétation par un chercheur isolé), un effort sur la formation des chercheurs aux outils statistiques et d’analyse…
La New-York University elle, s’est dotée, en plus, d’une bibliothécaire chargée de la gestion des données de recherche et de la reproductibilité (« Librarian for research data management and reproductibility »). Dans l’article « Reproductibility librarianship » de la revue Collaborative librarianship, Vicky Steeves nous détaille ses fonctions (je traduis et résume) :

  • Formation des enseignants-chercheurs et des étudiants avancés sur la gestion des données de recherche, sur la curation de données, sur les critères à remplir pour être en conformité avec les obligations de diffusion ouverte des organismes financeurs. C’est un travail mené en collaboration avec le ou la bibliothécaire chargé de la gestion des données (« Librarian for RDM »), qui aborde systématiquement la reproductibilité mais aussi les questions d’éthique de la recherche. Ces questions font d’ailleurs partie de la formation obligatoire sur l’intégrité scientifique (« Responsible conduct of research« ) que doivent suivre les lauréats des bourses de la NSF et des NIH.
  • Rayonnement : programmation d’événements mettant en avant les questions de gestion des données de recherche (y compris celle de la reproductibilité), et s’articulant avec l’évolution des besoins des laboratoires selon les disciplines. Ce travail est conduit en étroite collaboration avec les bibliothécaires de chaque discipline (« liaison librarians »), qui connaissent les projets de recherche et le type de données que celles-ci sont susceptibles de générer. Cette collaboration permet d’améliorer l’offre de services à la recherche dans son ensemble. Les projets sont diffusés en libre accès, et présentés lors de différentes manifestations professionnelles nationales.
  • Support et création d’outils : veille sur les outils et techniques d’aide à la reproductibilité, et diffusion de celle-ci auprès des publics concernés, participation à la création d’une infrastructure de stockage et de gestion des données pour les enseignants-chercheurs de l’établissement, développement de méthodes et de workflows pour la ré-utilisation et la conservation de jeux de données. L’outil open source développé par la NYU, ReproZip, permet d’enregistrer les données, les paramètres et l’environnement logiciel avec lesquels la recherche a été faite, et de les « rejouer » sur une autre machine, quel que soit l’environnement de travail. Il permet également de modifier les paramètres pour faire avancer les hypothèses de recherche. C’est un moyen très parlant pour sensibiliser chercheurs et étudiants à l’intérêt de la reproductibilité de la recherche.

Un poste intéressant, qui montre une volonté d’intégration de la gestion des données à toutes les étapes du cycle des projets de recherche, en s’appuyant sur les compétences des bibliothécaires. Et qui demande, comme finalement souvent dans le domaine de la science ouverte,  autant sinon plus de compétences relationnelles, pédagogiques et de gestion de projet que de compétences réellement techniques. Or ces compétences, normalement, nous les avons : c’est plutôt rassurant en terme d’évolution des métiers, je trouve.
[Photo : Roel Wijnants]

Peut-on être bibliothécaire sans être promoteur de l’open access ?

6880911245_b11eaaa6b7_mC’est une question que se pose Aaron Tay, bibliothécaire à Singapour dans ce billet. Après avoir raconté son propre cheminement personnel par rapport à l’open access (intéressant à lire aussi), il réagit à l’une des réponses reçues à sa question posée sur Twitter (tu peux être bibliothécaire et pas promoteur de l’open access « seulement si tu t’intéresses plus aux bibliothèques qu’à la recherche »), et donne son analyse :
« Au mieux, [l’open access] va fortement « disrupter » les bibliothèques universitaires, en entraînant de grandes difficultés dûes aux ajustements des missions, avant une stabilisation, au pire il va nettement réduire le besoin en bibliothécaires et conduire au déclin des bibliothèques ; je confesse que cela m’effraie pour moi et pour les BU. »

Il se demande pourtant si ses craintes sont fondées : les bibliothèques ont surmonté d’autres transitions, comme l’informatisation dans les années 60 ou la montée du web à la fin des années 90, et elles semblent s’adapter de mieux en mieux aux changements. Reste qu’il faut voir la réalité en face et se poser les questions qui fâchent :
« Quels postes vont disparaître quand l’open access sera la norme ? Quelles nouvelles fonctions vont émerger à la place ? Et il ne s’agit pas juste de définir des missions, mais également d’estimer les ETP requis pour les remplir. »

Quel futur pour l’open access et les bibliothèques ?
« Dans tous les cas, je pense qu’actuellement l’open access est inévitable, et qu’il ne sert à rien de se demander si on est pour ou contre. Nous devons nous y préparer et nous organiser pour en tirer un maximum de bénéfice pour nos usagers et peut-être même un peu de considération pour nous-mêmes. »
Pour Aaron, « il y a 3 types de bibliothécaires pour ce qui concerne l’open access :
– d’abord les avocats de l’open access les plus fervents, ce sont ceux qui sont à l’origine de toutes les initiatives géniales, ce sont les stars. Ils sont nombreux à avoir des fonctions liées à la diffusion scientifique (« scholarly communication »), mais pas tous.
– le second groupe rassemble les nouveaux bibliothécaires. Pour ce que j’en ai vu, les nouveaux bibliothécaires tendent à être pro open access, et à penser que c’est une nouvelle branche passionnante du métier. Il y a cependant une différence entre dire qu’on est pour l’open access et en savoir suffisamment pour avoir un réel impact : l’open access est quand même un truc bien compliqué, et je me demande parfois si j’en ferai jamais le tour.
– enfin il y a la grosse majorité silencieuse des bibliothécaires qui font juste leur travail et s’en tapent un peu, de l’open access, parce que ça ne les touche pas vraiment pour le moment.
Pourtant les choses peuvent changer rapidement : il y a quelques années, vous pouviez tranquillement vivre votre vie de responsable des ressources électroniques sans connaître grand chose de l’open access. Aujourd’hui, avec le nombre croissant de ressources en open access, vous devez comprendre dans quelle mesure cela peut affecter les usages des ressources que vous achetez, et il n’est pas idiot d’utiliser des outils d’aide à la décision sur les abonnements prenant en compte le volume de contenus en open access. Vous vous occupez de l’outil de découverte ? Il vaudrait mieux que vous sachiez comment fonctionnent les ressources en open access dans votre index central… »

En résumé, Aaron conclut qu’il est temps de se réveiller, et de se mettre à l’open access, en commençant par lire le bouquin de Peter Suber « Qu’est ce que l’accès ouvert ?« , dispo chez OpenEdition. Ce qui me semble être une bonne idée.

[Photo : Lea Aharonovitch]


juin 2018
L M M J V S D
« Avr    
 123
45678910
11121314151617
18192021222324
252627282930  

Archives

Licence

Licence Creative Commons
Ce(tte) œuvre est mise à disposition selon les termes de la Licence Creative Commons Attribution 3.0 France.
Publicités