Archive for the 'Confs & journées d'études' Category

LIBER 2019

mdeJ’ai eu la chance d’assister à la conférence LIBER, qui avait lieu cette année au Trinity College, à Dublin. La thématique de cette année, « Research libraries for society« , a fait émerger un volet de la science ouverte que j’ai assez peu vu traité jusqu’ici, en tout cas dans le milieu des BU françaises : celui de la « Citizen science », c’est à dire la science « participative » ou « citoyenne » en bon français. J’ai participé au workshop dédié, qui a donné lieu au lancement du groupe de travail éponyme au sein de Liber – un projet à suivre.
C’était une édition de bonne tenue, trois jours très denses, du coup pas de compte-rendu exhaustif mais quelques notes sur des interventions fort intéressantes :

Are we plan S ready ? Level of compliance at the University of Vienna
Support : https://zenodo.org/record/3258038
L’université de Vienne est une grosse université (90 000 FTE), avec un service OA dédié, en charge de l’archive ouverte, de la gestion des accords et des fonds pour le financement de la publication en gold OA, du conseil et de l’accompagnement des publiants. Elle a conclu des accords transformants avec des éditeurs traditionnels et avec des pure players de l’édition OA.
Un accord transformant, c’est :

  • un accord entre les éditeurs et les financeurs/les institutions

  • dont l’objectif est la transition des revues vers une diffusion entièrement OA

  • avec un passage du modèle de l’abonnement (on paye pour lire) à un modèle prenant en compte le volume de publication (on paye pour publier)

Les bibliothécaires ont cherché à savoir dans quelle mesure les accords transformants sont-ils compatibles avec le plan S. Pour ce faire, ils ont analysé le champs ‘financement’ des publications des enseignants-chercheurs autrichiens extraites du WoS et de Scopus sur l’année 2017, en regardant celles publiées dans des revues participant à un accord transformant et dans des revues présentes dans le DOAJ.
Résultats : 57% des publis sont disponibles sur des plateformes compatibles avec le plan S (+ 5% en cours de négociation), les 38% restants étant publié dans des revues sur abonnement (majoritairement chez Elsevier), sans accord négocié.
Difficultés rencontrées :

  • Financement de la publication en OA : le fait d’être à coût neutre reste une sorte de Graal, qui n’est pas facile à définir (notion de chiffre d’affaire historique, volume de publications, volume d’APC déjà payés) ; les bibliothécaires pointent par ailleurs la nécessité de trouver des sources de financement complémentaires pour payer l’OA gold (mais pas de piste évoquée), ainsi  que leurs inquiétudes face aux éditeurs qui augmentent leurs revenus avec les APC, sans qu’il y ait une compensation sur la dépense en abonnements.

En conclusion : être compatible avec le plan S n’est pas impossible, mais nécessite un mix entre la voie verte et la voie dorée. Je note aussi l’intérêt des accords transformants, dont on n’a pas encore vraiment fait l’expérience en France (à part avec EDP Sciences, mais je n’ai pas encore vu de retours de ce type sur cet accord).

Is the library open ? Correlating public access to academic libraries with open access support
Support : https://zenodo.org/record/3258040
Il s’agit d’une initiative originale menée par COKI (Curtin Open Knowledge Initiative), une équipe pluridisciplinaires hébergée par le Centre de culture et de technologie de l’université de Curtin, Australie. L’équipe a voulu savoir, en gros, si les campus étaient « ouverts », et dans quelle mesure, en prenant l’ouverture des bibliothèques comme représentative du niveau d’ouverture des campus ; l’idée est de regarder si l’accès physique à la BU est cohérent avec les politiques OA de l’institution.
A partir d’un set de 20 institutions, de tous les continents, on met en parallèle les catégories d’usagers et les droits qui leur sont alloués dans les BU : accès physique, prêt, consultation sur place, impression, accès aux ressources électroniques sur place, wifi, accès à des ordinateurs, aide d’un bibliothécaire, PEB, accès aux ressources électronique distant. On regarde aussi les coûts pratiqués pour les extérieurs – plusieurs raisons à ces coûts : compensation, financement supplémentaire, moyen de gestion de la demande (mais est-ce que les BU dont l’accès est gratuit sont forcément mieux financées ?). On regarde ensuite les informations disponibles sur le web public, on agrège les politiques OA, la présence d’une archive ouverte, d’un fonds de financement pour les APC, l’absence de restriction à l’accès physique aux BU, l’absence de coût pour cet accès pour déterminer des scores pour chaque établissement étudié.
Résultats :

  • Les politiques OA sont généralement plus « open » que les politiques d’accès physique aux BU

  • On note pas mal de disparités entre les 2 dimensions

  • Intéressant graphique sur la répartition par région du monde entre green et gold

  • Importance d’une bonne communication, claire sur les politiques d’accès

C’est un travail qui se poursuit, l’équipe compte à terme inviter les BU à examiner leurs propres données, et inclure d’autres établissements dans son étude.

Deep green – Open access transformation
Support : https://zenodo.org/record/3258069
Comment alimenter les AO en contenus ? C’est la question que tout le monde se pose, et à laquelle les bibliothécaires allemands répondent avec Deep Green. Ils partent du principe que les éditeurs ont les métadonnées qui vont bien. L’objectif du projet est donc d’alimenter les archives ouvertes avec du contenu produit par les éditeurs, en tenant compte des accords négociés et des politiques éditoriales, et ce de la façon la plus automatisée possible.
Comment ça marche ?

  • Les éditeurs déposent leurs métadonnées et leur texte intégral sur un serveur FTP

  • Deep Green fait la correspondance des affiliations (c’est le plus compliqué)

  • Deep Green livre les métadonnées et le texte intégral aux AO (via des API, SWORD, OAI-PMH)

L’infrastructure technique est open source (github) ; une version beta est prévue à l’été 2019 ; les éditeurs participants pour la première phase sont : Karger, Sage, Frontiers, BMJ, De Gruyter, MDPI + 30 archives ouvertes

Atouts : coopération avec les éditeurs + fort intérêt des institutions universitaires allemandes
Difficultés : trouver les droits de diffusion en OA, récupérer les métadonnées auprès des éditeurs. La négociation avec les éditeurs est chronophage et parfois onéreuse. Ils proposent d’ailleurs d’inclure la fourniture des métadonnées dans les négociations de façon plus systématique, y compris pour la version de référence des articles (« version of record »). La qualité des métadonnées n’est pas toujours au rendez-vous, il faudrait définir un standard de métadonnées.
Et après ? Il aimeraient étendre le système à d’autres types de documents (les ebooks sont prévus), et surtout aux pays voisins, et créer un réseau de Deep Greens – Je note qu’en France le fait d’avoir HAL nous faciliterait les choses (vu qu’on n’aurait qu’un seul tuyau à brancher, en quelque sorte), contrairement à la plupart des autres pays européens où chaque institution a sa propre archive.

Tous les supports sont disponibles sur Zenodo, ainsi que les enregistrements audio et/ou vidéo ; si vous avez un peu de temps, ça vaut le coup de s’y plonger.

[Photo : @marlened – évidemment, impossible d’aller à Dublin sans visiter The long room, « la » salle de lecture archétypale des bibliothèques. Et c’est vrai que c’est impressionnant !]

Publicité

Vous prendrez bien un petit Barcamp avant de passer à la conférence ?

Marlene’s corner poursuit les collaborations en accueillant un nouvel invité : Romain Féret, chargé de mission Open Access et données de la recherche au SCD de l’université de Lille, qui a bien voulu nous raconter son expérience du Barcamp berlinois organisé en marge de l’Open science conference 2019. Merci à lui.

Je suis allé à la conférence Science Ouverte de Berlin mi-mars pour y présenter un poster sur la démarche d’accompagnement de projets ANR et H2020 mise en place au SCD de l’Université de Lille (voir le poster). La conférence était précédée par un barcamp le lundi : petit retour sur ce qui s’y est dit.

Le Barcamp, c’est quoi ?

Pour les non-initiés, un Barcamp c’est un groupe de participants qui se retrouvent pour échanger sur des sujets choisis collectivement, en lien avec une thématique définie au préalable. Ensuite, on secoue et on voit ce qui se passe. Comme le principe de base est la participation, chacun est responsable de l’intérêt de la journée.

Le Barcamp déroulé et ambiance générale

Nous étions un peu plus de 70 participants à se retrouver dans les bureaux de Wikimedia Allemagne. On démarre la journée par une petite présentation brise-glace. Chacun se présente avec 3 hashtags qui lui correspondent et en profite pour donner son nom et son affiliation institutionnelle. Pour terminer la partie introductive, Claudia Göbel, de l’European citizen science association, fait une présentation sur les sciences participatives. Le Barcamp est divisé en 5 temps de 45 minutes, avec 4 sessions en parallèle, soit un total de 20 sessions. Celles et ceux qui le souhaitent proposent des thèmes, qui sont retenus ou non en fonction de l’intérêt des autres participants. La personne qui a proposé le thème anime les échanges. L’ambiance générale est à la fois studieuse et conviviale. Les échanges se font dans un cadre assez sécurisant. La Friendly space policy m’a semblé respectée. Par ailleurs, l’esprit est constructif : personne ne monopolise la parole, bonne écoute, esprit très horizontal même avec des participants qui ont parfois une certaine notoriété. Cela n’empêche pas un peu de controverse, mais c’est de bon aloi et dans l’esprit du jeu.

Petit compte-rendu des ateliers suivis

J’ai suivi 4 sessions au cours de la journée et j’en ai animé une. Voici un résumé de ce que j’ai retenu des sessions suivies. Il y a un compte-rendu pour chacune des sessions mais il est parfois (très) incomplet.

Participatory research challenges (lien pad)

Session animée par Claudia Göbel sur les sciences participatives. L’échange s’engage sur les freins à lever pour que les sciences participatives se développent. Une des difficultés du côté des chercheurs est que la dimension participative doit être pensée dès la conception de la recherche. Comme cela est rarement le cas, cet aspect de la recherche est souvent vu comme du travail supplémentaire en cours de recherche et la dimension participative n’existe, au mieux, qu’au moment de la dissémination des résultats. Certains participants posent aussi la question de l’indépendance des chercheurs vis-à-vis des communautés qu’ils étudient.

Du côté des participants, citoyens ou acteurs de la société civile, la différence de temporalités avec les chercheurs peut freiner leur engagement dans ce type de processus. Pour les chercheurs, la publication des résultats dans des articles de revues est souvent un préalable à d’autres formes de restitution, tandis que les citoyens et acteurs de la société civile ont des besoins de retour plus immédiats. Le manque de réciprocité de certains chercheurs vis-à-vis des participants à leurs recherches est souligné plusieurs fois. Par exemple, les participants ne sont pas toujours informés de la publication des résultats, ou ils n’ont pas accès aux publications.

Brainstorming on open science activities (lien pad)

Session animée par Helen Brinken (@helenebrinken), du projet Foster, pour échanger sur les activités de soutien à la recherche et la manière d’interagir avec les chercheurs. Parmi les idées : faire identifier un problème aux chercheurs puis les aider à le résoudre ; adopter d’abord une posture d’écoute avant de chercher à les convaincre ; engager les chercheurs dans une relation (« engagement process »). Les pratiques à éviter : dire aux chercheurs ce qu’ils doivent faire, faire des listes de listes, culpabiliser les personnes ayant des pratiques que l’on ne juge pas assez ouvertes.

L’échange s’est poursuivi avec un tour de salle sur les motivations qui ont poussé les uns et les autres à travailler ou à s’engager sur les questions de libre accès. Deux catégories de motivation se dégagent. D’un côté, pour les chercheurs présents cela a souvent démarré par des discussions avec des collègues et la prise de conscience du fonctionnement de l’écosystème éditorial et des inégalités de modalités d’accès à l’information scientifique. D’un autre côté, les personnes en charge de la documentation qui sont venues aux questions de science ouverte dans le cadre de leur parcours professionnel, avec des motivations souvent plus pratiques.

Open science as a library service (lien pad)

Session animée par Christina Riesenweber (@c_riesen) qui prendra prochainement la direction d’une bibliothèque dans laquelle elle aura pour mission de développer les services en lien avec les services à la recherche. Les échanges ont porté sur les services avec lesquels interagir dans une université, les compétences à acquérir pour les personnels de bibliothèque et sur différents exemples de bibliothèques « modèles » en matière de services à la recherche (Edimbourg, Utrecht, Helsinki).

Including open science in project management activities (lien pad)

La session que j’ai animée portait sur l’aide que les services de soutien à la recherche peuvent apporter aux chercheurs pour intégrer une dimension science ouverte à leur projet dès la phase de montage. Cela permet de s’assurer que ces activités soient prises en compte dans l’ensemble de la gestion du projet. Les échanges ont été intéressants, avec notamment le retour d’expérience d’Ivo Grigorov (@OAforClimate) qui est responsable du service de montage de projet de son institution et qui est engagé dans une démarche assez similaire à la nôtre dans le cadre d' »Open Science Clinique », porté au sein du projet Foster (voir le poster présenté à la conférence).

Le constat de départ est que la phase de soumission d’un projet de recherche est le meilleur moment pour mettre en place une démarche science ouverte. Il est par exemple préférable d’expliciter les modalités de partage des données entre les partenaires d’un projet dès son montage. Quand ce n’est pas le cas, cela peut être un sujet de conflit. Si la dimension science ouverte d’un projet est positivement évaluée par l’agence de financement, cela peut aussi être une incitation à la mettre en oeuvre en cours de projet. Yan Wang et Esther Plomp, toutes deux data stewards à Delft, ont commencé à travailler sur ce type de services depuis que les agences de financement néerlandaises ont inséré un paragraphe dédié à la gestion des données dans les trames des dossiers de demande de financement.

Researchers engagement in Open Science (lien pad)

Session animée par quatre des data stewards de l’Université technologique de Delft : Heather Andrews, Nicolas Dintzner, Esther Plomp (@PhDToothFAIRy) et Yan Wang (@yan_wang). La session a principalement porté sur la démarche d’accompagnement à la gestion des données mise en place à l’Université de Delft et la manière dont le travail des data stewards s’articule avec les autres services de la bibliothèque. 

Les data stewards sont répartis dans chacune des facultés de l’université. La bibliothèque coordonne le dispositif, financé par l’université. Les huit data stewards se réunissent une fois par semaine pour coordonner leur travail. Même si les défis rencontrés selon les disciplines ne sont pas les mêmes, cela leur permet de partager leur expertise sur les questions transversales. Les data stewards ne travaillent que sur les données de recherche, et renvoient vers leurs collègues de la bibliothèque sur les questions relevant des autres aspects de la science ouverte. La prise de conscience des enjeux autour des données de recherche par la communauté scientifique de l’Université de Delft entraîne un accroissement de la charge de travail des data stewards, qui ne sont pas assez nombreux pour accompagner l’ensemble des chercheurs. L’importance de travailler de manière coordonnée avec les autres services de l’université a aussi été soulignée.

De l’intérêt de suivre le Barcamp avant d’assister à la conférence

Au-delà de son intérêt intrinsèque, participer au Barcamp a été une bonne manière de préparer la conférence. C’est un moment privilégié pour identifier des interlocuteurs et échanger avec des personnes que l’on croisera au cours des deux jours suivants. C’est aussi l’opportunité de se mettre en position plus active, en particulier lorsqu’on va à un évènement où on connait très peu de collègues. Le Beercamp qui a suivi était aussi une bonne occasion de poursuivre les échanges.

Les plus du Barcamp

La prise de note collaborative, avec un référencement des pads des différentes sessions qui sont accessibles à partir du métapad. Les échanges ont été plus ou moins bien retranscrits mais c’est un bon outil pour garder une trace d’une session tout en s’impliquant pleinement dans les échanges. Par ailleurs, les collègues de Delft ont mis en ligne un article de blog qui rend compte de la quasi totalité des sessions proposées.

L’Open Science radio (@OpenSciRadio) : Konrad Förstner (@konradfoerstner) et Bernd Rupp ont interviewé l’ensemble des animateurs de session au fur et à mesure de l’avancement de la journée. Les podcasts ont été mis en ligne presque immédiatement et sont disponibles sur leur site web. Ils ont récidivé pendant la conférence les deux jours suivants, avec l’aide de Matthias Fromm (@matthiasfromm) et Christina Riesenweber au montage. Un format intéressant pour communiquer sur l’évènement et pour donner envie d’aller creuser le contenu des sessions à partir d’un média plus attrayant que les prises de note rédigées.

Conclusions du 3ème workshop ESAC

461240381_4a57e4f032_oESAC (Efficiency and Standards for Article Charges) est une initiative qui a pour objectif de suivre les évolutions des frais de publication des articles dans les revues scientifiques, de recenser les bonnes pratiques et faire des recommandations sur la gestion des APC et les workflows associés.
Fin juin s’est tenu le 3ème Workshop du projet, le rapport qui en est issu est en ligne, je vous en résume/traduis les grandes lignes :
A propos de l’évaluation de la valeur et les facteurs déterminant le coût :

  • Il faut différentier dans les analyses les différents modèles d’APC, le fait qu’on parle de gold ou d’hybride ou d’accords de compensation (« offsetting agreements ») change la perspective.
  • Le coût des APC hybrides est nettement plus élevé que celui des APC des revues gold, c’est un fait désormais établi.
  • Le coût des APC dans le cadre d’un accord de compensation est du niveau de celui des APC hybrides, mais il est à envisager dans le contexte global de l’accord, ie en prenant en compte les économies éventuelles réalisées sur le double dipping.
  • Les indicateurs tels que le SNIP ou le facteur d’impact ne sont pas les seuls critères pour définir le coût des APC : la discipline, l’éditeur ou le modèle économique jouent également un rôle.
  • Les APC des revues gold reflètent de manière plus cohérente les coûts de production et de services dans leurs prix, alors que les APC hybrides traduisent plutôt le niveau de revenu actuel et les marges bénéficiaires de l’activité d’abonnement des éditeurs. Il ne s’agit donc plus d’un argument valable en faveur d’une hausse des prix des APC.
  • Les niveaux de prix médians sont les principaux moteurs de l’évolution globale des coûts. Sont donc à surveiller les prix des revues très fréquentées et les portefeuilles de revues qui englobent la plus grande partie de la production scientifique.

A propos du suivi des coûts :
6630834701_aabb88e693_o

  • Nécessité de l’indépendance de la collecte et de l’analyse des données sur les APC. La transparence obtenue grâce à des initiatives telles que OpenAPC permet à la communauté de discuter des coûts des APC sur la base de données probantes.
  • Nécessité pour les différents acteurs institutionnels ou individuels actifs sur le sujet de se coordonner pour maximiser l’impact de leurs efforts.
  • Les institutions et les consortiums de bibliothèques doivent maintenant mettre en place des actions concrètes, utilisant ces nouvelles données comme un atout, pour faire passer les négociations avec les éditeurs à un autre niveau, et arriver à un système de publication équitable, durable et en accès complètement ouvert.

A propos du risque d’augmentation des coûts globaux de l’édition scientifique à cause de l’OA hybride :

  • La stratégie d’intégration de l’open access et des coûts relatifs dans le contrat de licence d’abonnement des institutions permet d’exercer un suivi des coûts pour contenir les dépenses en double et de travailler à convertir officiellement les dépenses d’abonnement en soutien à la publication en accès ouvert. Les accords de compensation doivent être négociés comme des mesures transitoires, avec l’objectif clair d’arriver rapidement à la conversion vers l’accès ouvert complet.

A propos du risque de voir les éditeurs traditionnels dominer le marché de l’édition scientifique et imposer leurs coûts d’APC sur la base de leurs marques éditoriales :

  • Le modèle économique basé sur les APC pour la publication en accès ouvert est une nette amélioration par rapport au marché actuel des abonnements, en ce sens que les coûts des APC sont transparents et, par conséquent, soumis à un niveau de contrôle qui fait totalement défaut sur le marché opaque des abonnements. Néanmoins, afin de soutenir l’évolution d’un marché plus efficace et plus diversifié, les institutions devraient éviter deux écueils du modèle des abonnements :4418249517_a83f1e5f4d_o.jpg
    • L’augmentation des prix obligatoire : quand on compare les coûts par article du système actuel d’abonnements (entre 3800 et 5000 euros)[1] avec les coûts moyens d’APC (autour de 2000 euros), on voit bien qu’il y a déjà assez d’argent dans le système pour soutenir une transition vers un accès ouvert ; les augmentations ne sont pas justifiées.
    • L’usage des indicateurs : évaluer le coût des APC en fonction d’indicateurs comme le SNIP et JIF n’est pas pertinent, car ceux-ci sont limités en termes de transparence et d’applicabilité au niveau de l’article, et ne servent qu’à renforcer le pouvoir des revues et des marques d’éditeur. Et puis ce sont les APC médians qui ont la plus grande influence sur l’évolution globale des coûts du marché, dont pas vraiment ceux des revues à fort facteur d’impact.
  • Par ailleurs, n’oublions pas la bibliodiversité : les modèles de publication coopératifs et sans APC ont besoin d’être soutenus. Un transfert des budgets et des économies réalisées vers de nouveaux modèles permet de stimuler la concurrence et l’innovation sur le marché de l’édition scientifique.

Pour finir, à propos du risque d’augmentation des coûts pour les établissements de recherche intensive :

  • Chaque institution est susceptible d’être confrontée à ce problème pour certains éditeurs dont les coûts de publication dépasseront les anciens coûts d’abonnement. Toutefois, comme on l’a vu plus haut, il y a suffisamment d’argent dans le système : il faut trouver un moyen de réaffecter les coûts. Des solutions sont à travailler au niveau des  consortiums, par exemple en introduisant des mécanismes de compensation internes et des fonds de solidarité, le cas échéant.

[1] Disrupting the subscription journals’ business model for the necessary large-scale transformation to open access : le rapport de la Max-Planck-Gesellschaft sur les coûts de la transition vers l’open access.

[Photos : Daniel hoherd, Laura Thorne, Kirstie Warner]

Charleston conference 2017 « What’s past is prologue »

Marlene’s corner ouvre ses colonnes à l’international : Marc Martinez (@tunguska69), directeur du SCD de Lyon 3, a gentiment accepté de nous faire un retour sur l’édition 2017 de la Charleston Conference, l’une des plus importantes manifestations professionnelles aux Etats-Unis.

flag_of_south_carolina

 

And you may ask yourself, well how did I get there? [1]

La 37e édition de la Charleston Conference – Issues in book and serial acquisition a eu lieu dans la capitale de la Caroline du Sud aux États-Unis du 8 au 10 novembre 2017 sous le mot d’ordre : What’s past is prologue. Sous ce titre énigmatique s’est déroulé un événement professionnel d’une richesse insoupçonnée de l’autre côté de l’Atlantique, organisé par Casalini libri, la revue Against the grain et la Charleston company  Il était dès lors tentant et intéressant d’aller voir in vivo comment se présentaient les tendances de fond pour les bibliothèques et leur écosystème outre-Atlantique.

Size matters

La première surprise est… de taille : celle de la conférence. Même compte tenu de la différence de taille des pays et d’effectifs des corps de professionnels des bibliothèques et de la documentation, je m’attendais à une conférence du volume de celle que tient LIBER annuellement, avec une jauge autour de 400 à 600 présents. Loin de là : 1 800 personnes au total étaient présentes sur les trois sites de la conférence dans downtown Charleston. L’Attendee roster, qui recense les participants, est un document d’une bonne centaine de pages à lui seul. C’est, pour donner un ordre de grandeur, plus de quatre fois le volume d’un congrès ADBU et on se rapproche, en termes de fréquentation, de la conférence mondiale de l’IFLA[2]. C’est grand, c’est XXL même et on est un peu perdu au début dans le dédale d’interventions simultanées, d’événements périphériques et associés, de lieux divers dans la ville mais on finit par s’y retrouver : l’organisation est sans failles et l’accueil (bénévole en grande partie) efficace et souriant, toujours prêt à sortir d’embarras le collègue français peu au fait de l’environnement local.

We’re in this together [3]

La seconde différence d’importance est plus discrète à se manifester mais n’en est pas moins frappante et colore l’ambiance et les débats de la conférence. Sur les 1790 participants, 934 seulement sont bibliothécaires ou professionnels de la documentation ; les 856 autres sont des fournisseurs, qui représentent donc près de la moitié du public (47,8%). Je dis bien qu’ils font partie du public, car ici pas de dichotomie marquée bibliothécaires / fournisseurs, ni de stands bien alignés permettant de séparer secteurs public et marchand : la conférence s’adresse autant aux fournisseurs qu’aux collègues. Des fournisseurs au demeurant très variés : à côté des bataillons serrés envoyés par les Elsevier, Springer, Sage et autres Gale, les sociétés savantes, les éditeurs, les fabricants de matériel et développeurs de logiciels se pressent dans les allées, les salles et autour des buffets et cafetières.

Peu ou pas de stands donc et peu de démonstrations de produits ou services, si ce n’est quelques déjeuners stratégiques organisés par les grands groupes à destination d’un public choisi de décideurs de l’IST nord-américain. La conférence est l’occasion pour ces deux publics que nous avons l’habitude en France de considérer assez strictement disparates de se mêler de manière informelle et aisée.

Même savant mélange à la tribune où bibliothécaires, universitaires et acteurs privés cohabitent souvent sans inconvénient visible.

How to disappear completely [4]

Parmi les bibliothécaires, douze pays étaient représentés par 63 collègues, en périphérie de l’écrasante majorité de participants US. La répartition géographique fait une place prépondérante au voisin canadien et relègue les participants du reste du monde (y compris européens) au statut d’épiphénomène statistique (moins de 30 personnes).

Parmi les locaux de l’étape, on retrouve évidemment les grandes bibliothèques universitaires du pays mais aussi une bonne partie du réseau de collègues travaillant dans des colleges de plus petite taille et renommée, voire des documentalistes travaillant dans certaines grosses high schools (l’équivalent approximatif de nos lycées) – une représentation professionnelle plus large donc que celle fréquentant ce type de manifestation sous nos latitudes.

To the point

Durant les trois journées de la conférence, les interventions, tables rondes et débats ont roulé sur des sujets subtilement différents de ceux auxquels on est exposé en Europe. Dédiée à l’origine aux problématiques d’acquisition et de gestion des collections d’ouvrages et de revues, aujourd’hui étendues au management stratégique des collections et ressources, la Charleston conference a vu ses thèmes évoluer vers des préoccupations plus larges : l’évolution des bibliothèques universitaires et de recherche  au 21e siècle ; les technologies de l’édition scientifique ; les questions d’éthique des publications ; le rôle croissant de l’intelligence artificielle dans les écosystèmes documentaires font partie des sujets abordés lors de cette édition. Les questions de ressources humaines et financières sont présentes mais à un degré moindre qu’en France, du fait d’un système de recrutement et d’un cadre d’emploi reposant sur des principes sensiblement différents et d’une situation financière globalement plus favorable – même si les problématiques de contrôle des coûts de la documentation électronique sont aussi réelles qu’en Europe.

Quand l’open access et les différentes facettes de la science ouverte constituent de plus en plus la trame de fond des conférences professionnelles généralistes françaises ou européennes, le programme de la Charleston conference met en valeur les  : d’un côté Elsevier / Bepress intervenant deux fois (une pour désamorcer les craintes nées du rachat de Bepress par Elsevier l’été précédent, la seconde en duo avec une bibliothécaire de l’Illinois pour vanter l’intégration de Bepress sur le site web de l’université) ; à l’autre extrémité de l’échelle de taille d’entreprises, les présentations de sociétés comme Yewno ou Atypon, là encore de concert avec universitaires et bibliothécaires.

Une place particulière est accordée aux questions juridiques, qu’il s’agisse de copyright, du régime de propriété des données ou des conditions juridiques dans lesquelles les bibliothèques nord-américaines rendent leurs services à leurs usagers. Une session plénière en matinée, intitulée The long arm of the law y est consacrée, avec entre autres un compendium des litiges et affaires intéressant les bibliothèques portés devant les tribunaux. Une enseignante de droit et un avocat spécialiste de la propriété intellectuelle animent la matinée, modérée par une collègue du Center for research libraries. L’intervention (chantée par moments !) de l’avocat William Hannay sinon le moment-clef. En dehors des remises de prix et des ouvertures ou clôtures de sessions, la conférence ne compte que six interventions en formation plénière, parfois de durée réduite. Le véritable show monté par Bill Hannay a été l’intervention la plus suivie, celle qui a entraîné les réactions les plus vives de la salle et a produit en bouquet final un chœur improvisé (et souvent faux on doit l’avouer) de presque 500 bibliothécaires chantant – sous la houlette d’un avocat d’affaires – les aventures d’un fichier musical numérique sous DRM !

Famous last words

Au total, un éclairage partiel, plus un instantané qu’un panorama, sur les tendances professionnelles et l’évolution de nos structures et métiers telles que les voient les collègues nord-américains et leurs fournisseurs et partenaires privés. Il paraîtrait utile que la Charleston conference figure de manière plus visible dans les agendas des collègues impliqués dans les actions et la veille internationales : c’est à mon sens, pour les bibliothèques universitaires et de recherche au moins, un des endroits où prendre le pouls de nos métiers et où sont délinéés  leurs devenirs.

[1] Motto d’une des présentations

[2] Pour référence, la fréquentation des dernières conférences mondiales IFLA a été : 2017 (Wroclaw, Pologne) : 3000 ; 2016 (Columbus, États-Unis) : 3200 ; 2015 (Cape Town, Afrique du Sud) : 2100 ; 2014 (Lyon, France) : 2600 ; 2013 Singapour : 2100.

[3] We’re in this together – NIN

[4] How to disappear completely – Radiohead

JOA 2015 : le chaud et le froid

12375616634_a680cc00b6_zRassurez-vous tout de suite, ceci n’est pas un CR exhaustif des 6èmes Journées Open Access organisées par Couperin il y a quelques semaines : 30 interventions réparties sur 4 demi-journées, c’est bien trop dense pour un billet de blog !

Impression générale de chaud et froid : des interventions positives (souvent celles témoignant de projets ou de réalisations dans les établissements, d’ailleurs) alternant avec des interventions nettement plus nuancées, qui suggèrent qu’il nous reste encore quelques étapes avant d’arriver à un consensus sur ce que devrait être une politique de l’open access en France, contrairement à ce qui se fait chez nos voisins européens (UK, NL), qui ont opté pour une approche globale (qu’elle soit en faveur du gold ou du green).

Ce que je retiens de cette édition :

  • L’open access est bien un enjeu économique fort  : l’intervention déprimante (sur le fond, pas sur la forme) mais salutaire de Sami Kassab, l’analyste d’Exane BnP Paribas, montre clairement que chaque initiative marquante en faveur de l’open access (lancement de PLoS, obligation de dépôt des NIH, rapport Finch…) se répercute sur la performance du cours de bourse d’Elsevier ; de menace pour le secteur de l’édition académique, l’OA est devenu depuis 2012 une opportunité de croissance pour les éditeurs, avec l’avènement du modèle gold-avec-APC.jao2015
  • On s’en doutait, maintenant c’est prouvé, chiffré par les anglais : l’OA hybride coûte 3 fois plus cher que l’OA gold ! Et les APC représentent désormais 12% de la dépense globale pour les articles (1% pour les frais de gestion, et les 87% restants pour les abonnements), selon une étude menée par un groupe d’universités britanniques.
  • L’UE peut jouer un rôle moteur pour l’OA en Europe : l’obligation de dépôt du programme H2020 est un puissant outil de sensibilisation des chercheurs aux questions de diffusion des résultats de recherche et de conservation des données. L’approche volontairement flexible adoptée pour la diffusion des données (« aussi ouvert que possible, aussi fermé que nécessaire ») semble fonctionner
  • Tout le monde n’est pas dans le brouillard : il y a des établissements qui ont une vision claire de ce qu’est l’OA, et de comment y arriver (INRIA, INRA, Strasbourg), ça rassure.
  • L’évaluation pose toujours question : du côté des revues, avec les éditeurs prédateurs – mais des initiatives comme Quality Open Access Market, QOAM se mettent en place pour clarifier le paysage – , en ce qui concerne les chercheurs par contre, il semble qu’il faille encore un peu de temps avant que les modes d’évaluation intègrent la publication en OA au crédit du chercheur.

Les vidéos des interventions des JAO 2015 sont disponibles en streaming et en téléchargement sur le site de CanalU.

[Photos : Lydia Brooks, @mdelhaye]

El conditor pasa

ImageAvez-vous déjà entendu parler de Conditor ? Il s’agit d’un projet initié dans le cadre de BSN3, dont l’objectif est de « recenser l’ensemble de la production scientifique de la communauté Enseignement Supérieur et Recherche ». L’idée est donc de faire une grosse base de signalement de la production scientifique française, en récupérant les données là où elles sont déjà (dans le Web of Science, dans les archives ouvertes, dans les réservoirs de littérature grise…) et en s’appuyant sur des référentiels existants (RNSR, IDREF…). La base peut gérer les liens vers le texte intégral le cas échéant, mais ce n’est pas une archive ouverte, on reste bien au niveau du signalement.

Pour avoir une idée de ce que la mise en place d’un tel projet donnerait à l’échelle nationale, une expérimentation a été organisée en 2013 avec un groupe d’établissements pilotes (IRD, INRA, Paris Dauphine, ABES, CNRS, INRIA) : ils ont chacun fourni une extraction de leur archive locale, ou bien donné accès à leur référentiel, pour constituer un corpus de données à analyser.
Les résultats de cette expérimentation ont donné lieu à une restitution la semaine dernière à laquelle j’ai eu l’occasion d’assister, je vous en livre quelques éléments :
– L’expérimentation s’est terminée fin 2013. Il faut améliorer la méthode pour la détection des doublons (28000 repérés dans l’échantillon), pour les appellations des tutelles, pour les liens avec IDREF, pour l’absence d’un tronc commun de métadonnées (qui a donné lieu à un travail de formatage initial très lourd).
– Les points positifs : la volumétrie importante et la variété des signalements et des formats présents dans le corpus expérimental permettent de se rendre réellement compte des difficultés. On réalise que le « tout automatique » est impossible. Le projet est faisable, d’autant plus si les établissements mutualisent les façons de faire, et n’ont plus à saisir dans leurs systèmes que ce qui n’y est pas déjà (la mutualisation telle qu’elle est pratiquée dans le SUDOC a été citée plusieurs fois en exemple).
Les établissements ayant participé à l’expérimentation ont fait un retour sur leur propre expérience, en voici quelques points saillants :
– Conditor comme pivot : l’intérêt d’une base nationale alimentée de façon mutualisée (et qui gère le dédoublonnage) permet de n’avoir plus qu’un seul connecteur à développer pour récupérer la production de son établissement et la reverser dans son archive locale
– Les DOI sont insuffisants pour dédoublonner
– Le matching entre le corpus et le WoS montre les insuffisances de cet outil : 50% des notices du corpus ne figuraient pas dans les résultats du WoS, dont 30% de notices d’articles. Effet collatéral : cela pose question sur la pertinence des analyses de l’OST, qui ne s’appuie que sur des outils commerciaux (WoS et Scopus).
– L’intérêt de la mutualisation est indéniable : l’usage de référentiels communs, la gestion centralisée des opérations de dédoublonnage, les comparaisons entre bases permettront, à terme, de disposer d’une vue d’ensemble claire de chaque communauté de recherche, au-delà des organismes.
Par contre il n’est apparemment pas question d’attribuer à Conditor de budget supplémentaire…
[Photo : Gustavo Duran]

Liber 2013

Mairie de Münich (neues Rathaus)J’ai eu l’opportunité, dans le cadre de mon stage chez Openedition, d’assister fin juin au congrès annuel de Liber à Münich, dont le thème était cette année : « Research information infrastructures and the future role of libraries ». Le programme et les supports des interventions sont en ligne sur le site du congrès, inutile donc de tenter un compte-rendu exhaustif de ces 3 jours, d’autant qu’il n’était pas possible d’assister à tous les ateliers ; voici juste quelques aperçus.

Open access
Même si la route est encore longue, la marche vers l’Open Access continue ; le rapport Finch et les prises de position multiples qui s’en sont suivies amènent le secteur éditorial à évoluer. Plusieurs initiatives ont été présentées, concernant essentiellement les SHS :
Openedition, qu’on ne présente plus, en France en tout cas : Ses presque 400 revues, ses 600 carnets de recherche, ses 20000 annonces d’événements, ses bientôt 1000 livres… et ses 3 millions de visites par mois en provenance de tous les pays, preuve s’il en était que les SHS suscitent l’intérêt au delà du monde académique francophone.
Social Sciences directory : L’idée qui sous-tend ce projet récent de publication, c’est de garder les bons côtés de l’édition scientifique traditionnelle (le contrôle de la qualité, l’indépendance éditoriale, la structuration des articles…) et de leur ajouter les bénéfices de l’édition numérique (pagination illimitée, réduction des délais de publication, liens vers des données additionnelles…). Côté modèle économique c’est du Gold auteur-payeur, l’institution paye des frais de publication (Article Processing Charges, APCs) annuels pour ses chercheurs, ou bien ceux-ci payent des APCs à l’article. La différence avec les autres offres éditoriales de ce type, c’est la volonté affichée d’arriver à un modèle durable sur le long terme, donc avec des coûts a priori plus bas que ceux généralement constatés : on est à 150$ par article, au lieu de 3000$. Jusqu’ici 3 numéros sont parus, soit 9 articles, et une version pour les humanités est déjà prévue.
Directory of OA Books : Calqué sur le modèle du DOAJ, le DOAB vise à améliorer la visibilité des livres en open access, en mettant l’accent sur la qualité des contenus publiés, qui doivent obéir à des critères académiques de validation (peer review). Il est maintenu par l’OAPEN Foundation, un projet de développement de l’édition de livres en open access financé par l’Union Européenne, qui rassemble des presses universitaires d’Europe (surtout) du nord.
Knowledge Unlatched : Un projet plutôt intéressant, qui propose de faire financer la publication d’ouvrages en libre accès par les bibliothèques : elles partagent les coûts fixes de publication (sélection, peer review, relecture…) – sachant qu’il faut compter dans les 10 000 à 15 000 $ en moyenne pour un ouvrage universitaire – et les contenus sont ensuite accessibles librement par tous. Les éditeurs restent libres de vendre des versions imprimées ou dans d’autres formats électroniques. Une commission est chargée de choisir les titres sélectionnés par les bibliothèques membres du consortium en cours de constitution parmi les titres proposés par les éditeurs partenaires du projet ; il s’agit pour l’instant uniquement  de livres à paraître, mais il n’est pas exclut que le projet s’intéresse ultérieurement à des ouvrages déjà parus (et donc déjà amortis). Le succès de l’opération réside dans la participation d’un grand nombre de bibliothèques, pour faire diminuer la contribution de chacun. C’est là le vrai challenge : les bibliothèques sont-elles prêtes à faire ce type d’investissement ? (et en ont-elles les moyens ?)
MedOAnet : Dans le cadre de ce projet européen de suivi des stratégies et politiques en faveur de l’Open Access dans les pays de l’Europe méditerranéenne a été menée une étude auprès des éditeurs (publics et privés), afin d’avoir une vue de leur politique vis à vis de l’open access. On leur a posé des questions assez précises sur leurs politiques en matière de transfert de copyright, d’auto-archivage, sur la version de dépôt autorisée, sur la présence d’embargos.  Il en ressort que  les éditeurs ayant répondu seraient plutôt favorables à la diffusion en open access (forts taux d’acceptation du dépôt dans des archives ouvertes, peu d’exigences de transfert exclusif des droits de diffusion). Ce résultat est néanmoins à pondérer au vu du taux de réponse (12%), qui permet difficilement, à mon sens, de tirer des conclusions très probantes de l’enquête. Il serait intéressant de la reconduire, en en faisant davantage de promotion : cela sera-t-il possible, sachant que le projet n’est financé que jusqu’à fin 2013 ? Et que les financements vont généralement aux nouveaux projets plutôt qu’au suivi de projets existants ?
[Ce n’est pas directement le sujet de ce billet ni de ce congrès, mais il me semble cependant que c’est une vraie question en ce qui concerne le financement de l’open access : on entend beaucoup parler de « durabilité », de viabilité (‘ »sustainability ») comme d’un Graal à atteindre, mais on continue à ne donner que des enveloppes d’impulsion – comment espérer à ce compte là arriver à des stratégies à long terme ? Bref, fin de la parenthèse.]

Data data data
On a beaucoup entendu parler de gestion des données de la recherche (« research data management ») : face au « data deluge » qui se profile, par exemple avec l’obligation de mise en place de plans de gestion des données (« RDM plans ») pour les agences fédérales américaines (cf la directive de l’OSTP), les bibliothèques doivent s’adapter et intégrer la gestion des données de recherche à leurs missions, voire au coeur de leurs missions. Les recommandations pour plus d’ouverture des résultats de la recherche qui se sont multipliées au cours des derniers mois s’étendent aux données de la recherche, qui doivent être ouvertes par défaut. Cette ouverture est garante d’une science plus intègre (moins de fraude), plus économique (réplicabilité de la recherche), accessible au plus grand nombre (« citizen science »)…
La gestion de ces données soulève bien des questions, notamment celle de leur archivage (quelle durée ? quels formats ? quels moyens ?), et, en corollaire, celle des coûts, qui demeure la grande inconnue : si ceux-ci peuvent être financés par les bourses et autres financements des projets de recherche au départ, la conservation des données à long-terme a aussi un coût qui doit être supporté, vraisemblablement par les institutions. Par ailleurs, vue la masse de données produites, il y a nécessité de mutualiser les outils et de partager les infrastructures de stockage et d’accès aux informations ; ce serait particulièrement pertinent pour les projets les plus modestes (les « gros » projets comprennent généralement un volet spécifique aux données et à leur gestion). Dans ce contexte, les bibliothèques pourraient se positionner comme services de publication de données institutionnelles : en apportant de l’assistance aux chercheurs dans la mise en place de « plan de gestion des données », en participant à la structuration des formats de données, en travaillant sur les métriques autour des données…
Quelques initiatives à suivre :
Journals Research Data policy bank (JoRD) : Un projet du JISC, piloté par la responsable de Sherpa/Romeo, qui examine la faisabilité d’un service centralisé de recensement des politiques des revues concernant les données de recherche. L’étude montre que la moitié des revues affichent des politiques en la matière, mais que les 3/4 de celles-ci sont floues (manque de standardisation, incomplétude…)
Elixir : Un projet européen d’infrastructure pour le stockage et le traitement des données en sciences de la vie, mené par la Royal Society.
– La ligue européenne des universités de recherche (LERU) travaille, avec LIBER, sur ces questions, la rédaction d’une feuille de route sur les données de recherche est en cours.

Une statue perplexe dans le hall de la Bayerische Staats Bibliothek

Problème de casting ?
Ca a été clairement dit par l’un des intervenants (G. Boulton, ppt) : « Libraries do the wrong things, employ the wrong people ». Pour gérer toutes ces données, les bibliothèques doivent s’équiper de « data scientists », de « data managers ». Problème : où les trouver ? Il y a un vrai problème de manque de compétences dans la profession actuellement, qui attire toujours peu de profils scientifiques (en sciences « dures ») – or un data scientist, c’est quelqu’un qui sait gérer les données et les manipuler pour leur donner du sens, avec des compétences en statistiques, en mathématiques, en informatique spécialisée. De l’avis général, il existe peu de formations spécifiques dans les cursus universitaires, et la gestion de données ne fait pas partie des enseignements dans les formations initiales des bibliothécaires (je confirme) ; acquérir ce type de compétences est pourtant un enjeu fort, qui va demander un changement dans les mentalités des bibliothécaires. Des initiatives émergent, notamment au Royaume-Uni :
Immersive Informatics : il s’agit d’un programme pilote de formation à la gestion des données de la recherche, mené conjointement par les universités de Bath et de Melbourne, à destination des professionnels de l’IST. Il comprend, en plus des nombreux ateliers thématiques (sur la conservation, les aspects juridiques, la gestion des plans, etc), 2 modules au sein desquels les participants sont entièrement intégrés dans un laboratoire ou un département de recherche de l’université et travaillent sur des jeux de données réels.
RDMRose : ce projet de formation continue pour les professionnels de l’IST financé par le JISC a permis de produire des cours sur la gestion des données (en accès libre et donc réutilisables)

Bref, encore du pain sur la planche pour les bibliothécaires…

JE ebooks Couperin : les supports

Les supports des interventions de la journée d’études du consortium Couperin sur les ebooks sont en ligne sur le site du consortium.

Journée d’étude Couperin e-books 2012 – Atelier juridique

Troisième et dernière partie du compte-rendu de la journée e-books Couperin, consacrée à l’atelier juridique (voir la première partie sur les retours d’expériences, la deuxième partie sur le signalement).

Intervenants : Sébastien Respingue-Perrin, SCD Paris Dauphine et Dominique Rouillard, BPI
A l’origine de la loi sur le prix unique du livre numérique, il y a une demande des éditeurs pour une décote du prix, afin que l’achat d’un livre numérique soit plus attractif, et stimule le développement d’une offre francophone. Au début de la discussion (2008-2010) , le livre numérique c’est le livre homothétique.  En isolant le segment éditorial du livre numérique, on peut mieux encadrer sa diffusion. La baisse de la TVA à 7% (depuis le 01/01/2012) permet d’aligner la taxation du numérique sur celle du papier (entrée en vigueur au 01/04/2012).

Qu’est-ce qu’un livre numérique  ?
La question se pose très pragmatiquement ; en effet, il existe à l’heure actuelle 2 définitions réglementaires fiscales différentes du livre électronique :
– Celle de la loi 2011-590 du 26 mai 2011, dite « loi PULN » : « La présente loi s’applique au livre numérique lorsqu’il est une œuvre de l’esprit créée par un ou plusieurs auteurs et qu’il est à la fois commercialisé sous sa forme numérique et publié sous forme imprimée ou qu’il est, par son contenu et sa composition, susceptible d’être imprimé, à l’exception des éléments accessoires propres à l’édition numérique », définition détaillée dans le décret d’application 2011-1499« Les éléments accessoires propres à l’édition numérique mentionnés […] s’entendent des variations typographiques et de composition, des modalités d’accès aux illustrations et au texte telles que le moteur de recherche associé, les modalités de défilement ou de feuilletage des éléments contenus, ainsi que des ajouts de textes ou de données relevant de genres différents, notamment sons, musiques, images animées ou fixes, limités en nombre et en importance, complémentaires du livre et destinés à en faciliter la compréhension. »
– Celle de l’article 278bis du Code Général des Impôts, qui fixe le taux de TVA applicable, précisée dans le rescrit fiscal n°2011/38, qui ignore toute référence aux « éléments accessoires » enrichis du décret.

Toute la question est de savoir si le livre numérique est considéré fiscalement comme un livre (avec une TVA à 7%) ou comme un service (avec une TVA à 19.6%) : les définitions, on l’a vu, sont floues voire contradictoires en ce qui concerne les « oeuvres multimédia », envisagées par le décret mais exclues selon le rescrit – dans ces termes, quid du livre enrichi ? Ou des « sites compagnons » adossés aux manuels ?

Qu’est-ce qu’un prix unique ?
Le prix unique est un prix public : tout détaillant vendant à un acheteur établi en France a l’obligation de vendre à un prix affiché (pour les institutions, des barèmes détaillant le contenu des offres doivent être accessibles). Il amène plus de transparence (mais les fournisseurs vont-ils jouer le jeu et proposer des offres diversifiées ?), et est opposable (on peut s’y référer en cas de désaccord).
Le prix unique n’est pas un prix fixe : il peut varier en fonction des offres commerciales (offres groupées vs vente au titre), mais il est non négociable. Il existe cependant une possibilité de réintroduire une part de négociation pour les bibliothèques  : en effet, la loi prévoit une exception permettant de conserver une ouverture pour les négociations, à la condition que les offres concernent des ouvrages acquis dans un cadre de recherche ou d’enseignement supérieur d’une part, et qu’ils soient intégrés dans des plateformes hébergeant d’autres types de contenus d’autre part. Les 2 conditions doivent être remplies : ainsi, les fournisseurs ne proposant que des livres numériques, même s’ils sont spécialisés dans l’édition universitaire, sont désormais soumis au prix unique.  Cette exception, si elle paraît positive pour les BU et les bibliothèque de recherche, met les bibliothèques de lecture publique dans une situation inconfortable, déjà dénoncée dans ce communiqué de l’IABD.

Comment situer le livre électronique dans les marchés publics  (quel périmètre) ?
Jusqu’ici, l’accès aux ressources numériques reposait sur le paiement d’un surcoût, s’ajoutant au prix des ressources imprimées, ce qui permettait (en théorie) de rester en dessous des seuils de passation de marchés publics formalisés.
Avec le PULN, on rencontre finalement les mêmes difficultés qu’avec le livre papier : la mise en concurrence des fournisseurs se fait par rapport aux services supplémentaires proposés (qui doivent être identifiés et valorisés économiquement), car le critère prix devient inopérant [c’est moi qui extrapole]. A cela s’ajoute le fait qu’il ait peu d’acteurs économiques sur le marché, ce qui n’incite pas les fournisseurs à proposer des tarifs avantageux pour les bibliothèques.

Comment articuler les offres négociées dans le cadre d’un marché public ?
Avant le PULN, on pouvait imposer au fournisseur la gestion des offres consortiales. Avec le PULN, ce n’est plus le cas, ce sont les services associés qui représentent la marge de manoeuvre sur laquelle va porter la négociation. Du coup la « remise Couperin » disparaît, puisqu’elle est censée apparaître dans le barème public de l’éditeur. L’enjeu devient vraiment de faire rentrer les usages propres aux bibliothèques (conditions de prêt, possibilités d’impression…) dans la négociation pour arriver à adapter le tarif aux besoins – d’où l’importance de définir finement en amont lesdits besoins, en tenant compte des usages des lecteurs et de l’offre éditoriale.

Quel est le rôle de la licence dans un marché ?
La licence n’est pas contractuelle dans un marché, c’est dans le cahier des charges que sont définis les usages et fixées les conditions, ce qui est un avantage. Le marché doit également préciser les droits d’exploitation minimum qui sont dévolus à l’établissement :  le livre numérique est une œuvre de l’esprit, soumise aux droits des auteurs et des ayant-droits, or la diffusion en bibliothèque est un droit de représentation, il convient donc de se prémunir contre les situations absurdes dans lesquelles la bibliothèque pourrait acheter des livres numériques mais pas les communiquer à ses lecteurs.

Conclusions
De nombreuses questions restent en suspens :
– Le rôle des consortia apparaît particulièrement bousculé par la loi sur le prix unique du livre numérique, et ce malgré la fenêtre de l’exception recherche… Quel avenir pour les négociations ?
– On a évoqué à plusieurs reprises au cours de la journée le modèle PDA (patron-driven acquisitions), ie les acquisitions déclenchées par les usagers (au bout d’un nombre pré-défini de consultations sur le catalogue de l’éditeur ou de l’agrégateur) : très concrètement, on peut se demander dans quelle mesure ce modèle est réellement « implantable » en France aujourd’hui.
– Va-t-il y avoir convergence des modèles économiques « grand public » et institutionnel ?
– Quid des  offres qui ne rentrent pas dans les cases prévues par la loi ? (par exemple la Bibliothèque numérique Dalloz, qui propose un bouquet d’ebooks localisé sur la même interface que les bases de données et les revues du même éditeur, mais qui est commercialisé séparément)
– Comment faire cohabiter différents types de documents (livres enrichis, sites compagnons, livres homothétiques) dans les collections, dans le respect des règles de l’achat public ?
– La notion de droit de prêt des livres numériques reste encore assez floue aux Etats-Unis (ex. de MacMillan qui oblige au rachat d’un exemplaire au bout de x consultations), elle est quasi-inexistante en France : certains pionniers de l’édition numérique ouvrent des pistes, on aimerait que les « gros » éditeurs s’y mettent aussi…

[Photos : thinkretail, neilio]

Journée d’étude Couperin e-books 2012 – Atelier signalement

Deuxième partie des compte-rendus de la journée e-books organisée par Couperin : l’atelier sur le signalement des ebooks (voir la 1ère partie).
Valoriser ses livres électroniques : Caroline Bruley, Mariette Naud-Betteridge
Beaucoup de questions dans cet atelier, nécessaires à la réflexion à mener pour tout projet de signalement des ressources électroniques, à mon avis, mais d’autant plus essentiel pour les livres numériques, dont l’usage reste marginal pour l’instant.
Comment signaler : titre à titre ou bouquet ? Dans le catalogue ou dans un autre outil ? Dans le monde physique ou seulement par voie électronique (réseaux sociaux…) ?
Consensus actuellement sur le fait de tout mettre dans l’OPAC, mais quelle est la réelle valeur ajoutée ?
Doit-on regrouper le papier et l’électronique ? Comment cataloguer (question de la qualité des données fournies par l’éditeur) ? Quid des tablettes et smartphones ?
Présence physique : rappeler l’existence de l’électronique sur les supports papier ?
Comment mesurer l’impact de ces actions de valorisation ?
Signaler dans l’OPAC / le SIGB
SUDOC : le signalement ne va pas de soi : 2 bouquets seulement (Springer et Que sais-je?), et problèmes de mises à jour des bouquets : la question n’est pas réglée par l’ABES, qui travaille cependant à l’élargissement à d’autres bouquets. Une solution envisagée par l’ABES serait de supprimer les exemplaires créés automatiquement puis de réexemplariser tout le monde en se basant sur une liste de ppn valides. C’est un pis-aller, qui ne règle absolument pas la question de la mise à jour des données (à quand une base de connaissance nationale ? #jdcjdr…)
Pour recenser les titres électroniques, plusieurs solutions différentes ont été adoptées par les bibliothèques :
– Signalement complet dans le Sudoc puis localement (très lourd dans la mise en place et dans les mises à jour) ; possible dans le cas d’une collection modeste.
– Signalement « light » : notices succinctes
– Récupération de notices auprès de l’éditeur (service payant ou gratuit selon les éditeurs), mais pas forcément pratique à intégrer dans le catalogue (problèmes d’encodage par exemple).
Bref on fait comme on peut, et selon les bouquets, plusieurs solutions peuvent cohabiter en fonction de l’offre. Beaucoup de bricolage, pas de solution parfaite.
Signaler sur le site web et l’ENT
Page dédiée dans l’ENT à St Etienne, signalement régulier dans les actualités à Lyon 2
Signaler sur les réseaux sociaux
Facebook : page dédiée pour la bibliothèque numérique à Grenoble 1
Signaler via les listes de diffusion
Mailing auprès des contacts dans les labos, newsletter, liste sur inscription, infos envoyées 2 fois par mois, collant à l’actualité
Rematérialisation
Matérialisation dans les rayonnages : sous la forme de flyers (cadres plexi), d’affiches, de fantômes (pour certains types de documents, les manuels notamment), de QR codes sur les exemplaires papier à Lyon 2 (déjà utilisé pour les revues électroniques avec succès), d’autocollants. Les QRcodes comportent des liens vers la notice, mais il n’est apparemment pas possible de lier vers le texte intégral (frein), possibilité de créer des url authentifiées (Paris 5 l’a fait pour Cairn). Et ça marche dans les 2 sens : papier > électronique et électronique > papier.

En résumé, le signalement doit se faire partout, tout le temps. Nécessité de former les usagers, mais aussi les agents (pour répondre aux questions concrètes des usagers) – les établissements ayant répondu témoignent d’une forte demande des agents pour des formations récurrentes. Il faut veiller à ne pas introduire une autre fracture numérique dans les équipes (qui engendrerait des difficultés en terme de management) ; il est important d’impliquer les mêmes personnes pour les achats de livres papier et de livres électroniques.

Retour d’expérience à l’EPFL (T. Guignard)
Cette école d’ingénieurs suisse propose une offre de 40 000 ebooks en sciences de l’ingénieur. L’anglais n’est pas un problème, car présent dans les cursus.
Démarrage en 2005 : signalement par une liste indépendante du catalogue.
2006 – 2011 : catalogue collectif sur lequel l’école n’a pas de maitrise ; d’où le développement d’une base locale pour signaler tous les ebooks (sur FileMakerPro). Mises à jour par lot, avec les listes de titres fournies par les éditeurs (retravaillées avant intégration). Inconvénients : l’usager doit choisir le support avant de lancer sa requête, et pas de lien entre les bases.
Solution de tout mettre dans l’opac :
Possible d’intégrer des notices MARC en masse, mais nécessite de modifier toutes les notices à la main (catalogue collectif). Les titre à titre sont catalogués à la main, ainsi que les titres les + demandés. Travail avec un plugin firefox qui permet de repérer les ebooks : pratique mais problème d’utilisation avec les ISBN multiples, et nécessite l’installation du plugin.
Solution des Discovery tools :
Tests grandeur nature en 2011 de 4 outils de découverte du marché : Ebsco Discovery Tool, Summon, Primo, Worldcat local : grosse déception, en raison des données incomplètes, des bases de connaissances pas à jour (+ de 6 mois de retard), de la perte de données locales, du manque de liens vers l’OPAC, de l’absence de dédoublonnage.
Solution adoptée :
GoogleScholar + Swissbib (métacatalogue basé sur Worldcat, moissonne les catalogues des BU de sciences de Suisse) : correspond mieux aux attentes.
La base de données locale est en train d’évoluer, le développement d’un outil commun avec l’UNIL est en cours.
Mais il faut être vigilant sur les points suivants : la séparation des bases n’est pas une solution acceptable (intégration d’une base d’articles pour émuler les fonctionnalités type discovery tool), et le mélange entre livre / livre élec / article ne fonctionne pas pour les utilisateurs (au niveau des résultats, il faut séparer livres et articles).
A cette solution s’ajoutent :
– le signalement dans les nouveaux média : twitter, rss, diigo (ciblage par domaines)
– des actions de rematérialisation : affichage dans les rayonnages, QR codes collés sur les ouvrages
TG souligne l’importance de mesurer les usages de ces outils (encodage des QR codes de façon à pouvoir les repérer dans les stats), même s’il n’est pas facile d’évaluer l’impact de cette valorisation (les outils et mesures changent).
[Photos : Stig Nygaard, timtom.ch]


juin 2023
L M M J V S D
 1234
567891011
12131415161718
19202122232425
2627282930  

Archives

Licence

Licence Creative Commons
Ce(tte) œuvre est mise à disposition selon les termes de la Licence Creative Commons Attribution 3.0 France.