Archive for the 'Confs & journées d'études' Category

El conditor pasa

ImageAvez-vous déjà entendu parler de Conditor ? Il s’agit d’un projet initié dans le cadre de BSN3, dont l’objectif est de « recenser l’ensemble de la production scientifique de la communauté Enseignement Supérieur et Recherche ». L’idée est donc de faire une grosse base de signalement de la production scientifique française, en récupérant les données là où elles sont déjà (dans le Web of Science, dans les archives ouvertes, dans les réservoirs de littérature grise…) et en s’appuyant sur des référentiels existants (RNSR, IDREF…). La base peut gérer les liens vers le texte intégral le cas échéant, mais ce n’est pas une archive ouverte, on reste bien au niveau du signalement.

Pour avoir une idée de ce que la mise en place d’un tel projet donnerait à l’échelle nationale, une expérimentation a été organisée en 2013 avec un groupe d’établissements pilotes (IRD, INRA, Paris Dauphine, ABES, CNRS, INRIA) : ils ont chacun fourni une extraction de leur archive locale, ou bien donné accès à leur référentiel, pour constituer un corpus de données à analyser.
Les résultats de cette expérimentation ont donné lieu à une restitution la semaine dernière à laquelle j’ai eu l’occasion d’assister, je vous en livre quelques éléments :
- L’expérimentation s’est terminée fin 2013. Il faut améliorer la méthode pour la détection des doublons (28000 repérés dans l’échantillon), pour les appellations des tutelles, pour les liens avec IDREF, pour l’absence d’un tronc commun de métadonnées (qui a donné lieu à un travail de formatage initial très lourd).
- Les points positifs : la volumétrie importante et la variété des signalements et des formats présents dans le corpus expérimental permettent de se rendre réellement compte des difficultés. On réalise que le « tout automatique » est impossible. Le projet est faisable, d’autant plus si les établissements mutualisent les façons de faire, et n’ont plus à saisir dans leurs systèmes que ce qui n’y est pas déjà (la mutualisation telle qu’elle est pratiquée dans le SUDOC a été citée plusieurs fois en exemple).
Les établissements ayant participé à l’expérimentation ont fait un retour sur leur propre expérience, en voici quelques points saillants :
- Conditor comme pivot : l’intérêt d’une base nationale alimentée de façon mutualisée (et qui gère le dédoublonnage) permet de n’avoir plus qu’un seul connecteur à développer pour récupérer la production de son établissement et la reverser dans son archive locale
- Les DOI sont insuffisants pour dédoublonner
- Le matching entre le corpus et le WoS montre les insuffisances de cet outil : 50% des notices du corpus ne figuraient pas dans les résultats du WoS, dont 30% de notices d’articles. Effet collatéral : cela pose question sur la pertinence des analyses de l’OST, qui ne s’appuie que sur des outils commerciaux (WoS et Scopus).
- L’intérêt de la mutualisation est indéniable : l’usage de référentiels communs, la gestion centralisée des opérations de dédoublonnage, les comparaisons entre bases permettront, à terme, de disposer d’une vue d’ensemble claire de chaque communauté de recherche, au-delà des organismes.
Par contre il n’est apparemment pas question d’attribuer à Conditor de budget supplémentaire…
[Photo : Gustavo Duran]

Liber 2013

Mairie de Münich (neues Rathaus)J’ai eu l’opportunité, dans le cadre de mon stage chez Openedition, d’assister fin juin au congrès annuel de Liber à Münich, dont le thème était cette année : « Research information infrastructures and the future role of libraries ». Le programme et les supports des interventions sont en ligne sur le site du congrès, inutile donc de tenter un compte-rendu exhaustif de ces 3 jours, d’autant qu’il n’était pas possible d’assister à tous les ateliers ; voici juste quelques aperçus.

Open access
Même si la route est encore longue, la marche vers l’Open Access continue ; le rapport Finch et les prises de position multiples qui s’en sont suivies amènent le secteur éditorial à évoluer. Plusieurs initiatives ont été présentées, concernant essentiellement les SHS :
- Openedition, qu’on ne présente plus, en France en tout cas : Ses presque 400 revues, ses 600 carnets de recherche, ses 20000 annonces d’événements, ses bientôt 1000 livres… et ses 3 millions de visites par mois en provenance de tous les pays, preuve s’il en était que les SHS suscitent l’intérêt au delà du monde académique francophone.
- Social Sciences directory : L’idée qui sous-tend ce projet récent de publication, c’est de garder les bons côtés de l’édition scientifique traditionnelle (le contrôle de la qualité, l’indépendance éditoriale, la structuration des articles…) et de leur ajouter les bénéfices de l’édition numérique (pagination illimitée, réduction des délais de publication, liens vers des données additionnelles…). Côté modèle économique c’est du Gold auteur-payeur, l’institution paye des frais de publication (Article Processing Charges, APCs) annuels pour ses chercheurs, ou bien ceux-ci payent des APCs à l’article. La différence avec les autres offres éditoriales de ce type, c’est la volonté affichée d’arriver à un modèle durable sur le long terme, donc avec des coûts a priori plus bas que ceux généralement constatés : on est à 150$ par article, au lieu de 3000$. Jusqu’ici 3 numéros sont parus, soit 9 articles, et une version pour les humanités est déjà prévue.
- Directory of OA Books : Calqué sur le modèle du DOAJ, le DOAB vise à améliorer la visibilité des livres en open access, en mettant l’accent sur la qualité des contenus publiés, qui doivent obéir à des critères académiques de validation (peer review). Il est maintenu par l’OAPEN Foundation, un projet de développement de l’édition de livres en open access financé par l’Union Européenne, qui rassemble des presses universitaires d’Europe (surtout) du nord.
- Knowledge Unlatched : Un projet plutôt intéressant, qui propose de faire financer la publication d’ouvrages en libre accès par les bibliothèques : elles partagent les coûts fixes de publication (sélection, peer review, relecture…) – sachant qu’il faut compter dans les 10 000 à 15 000 $ en moyenne pour un ouvrage universitaire – et les contenus sont ensuite accessibles librement par tous. Les éditeurs restent libres de vendre des versions imprimées ou dans d’autres formats électroniques. Une commission est chargée de choisir les titres sélectionnés par les bibliothèques membres du consortium en cours de constitution parmi les titres proposés par les éditeurs partenaires du projet ; il s’agit pour l’instant uniquement  de livres à paraître, mais il n’est pas exclut que le projet s’intéresse ultérieurement à des ouvrages déjà parus (et donc déjà amortis). Le succès de l’opération réside dans la participation d’un grand nombre de bibliothèques, pour faire diminuer la contribution de chacun. C’est là le vrai challenge : les bibliothèques sont-elles prêtes à faire ce type d’investissement ? (et en ont-elles les moyens ?)
- MedOAnet : Dans le cadre de ce projet européen de suivi des stratégies et politiques en faveur de l’Open Access dans les pays de l’Europe méditerranéenne a été menée une étude auprès des éditeurs (publics et privés), afin d’avoir une vue de leur politique vis à vis de l’open access. On leur a posé des questions assez précises sur leurs politiques en matière de transfert de copyright, d’auto-archivage, sur la version de dépôt autorisée, sur la présence d’embargos.  Il en ressort que  les éditeurs ayant répondu seraient plutôt favorables à la diffusion en open access (forts taux d’acceptation du dépôt dans des archives ouvertes, peu d’exigences de transfert exclusif des droits de diffusion). Ce résultat est néanmoins à pondérer au vu du taux de réponse (12%), qui permet difficilement, à mon sens, de tirer des conclusions très probantes de l’enquête. Il serait intéressant de la reconduire, en en faisant davantage de promotion : cela sera-t-il possible, sachant que le projet n’est financé que jusqu’à fin 2013 ? Et que les financements vont généralement aux nouveaux projets plutôt qu’au suivi de projets existants ?
[Ce n'est pas directement le sujet de ce billet ni de ce congrès, mais il me semble cependant que c'est une vraie question en ce qui concerne le financement de l'open access : on entend beaucoup parler de "durabilité", de viabilité ('"sustainability") comme d'un Graal à atteindre, mais on continue à ne donner que des enveloppes d'impulsion - comment espérer à ce compte là arriver à des stratégies à long terme ? Bref, fin de la parenthèse.]

Data data data
On a beaucoup entendu parler de gestion des données de la recherche (« research data management ») : face au « data deluge » qui se profile, par exemple avec l’obligation de mise en place de plans de gestion des données (« RDM plans ») pour les agences fédérales américaines (cf la directive de l’OSTP), les bibliothèques doivent s’adapter et intégrer la gestion des données de recherche à leurs missions, voire au coeur de leurs missions. Les recommandations pour plus d’ouverture des résultats de la recherche qui se sont multipliées au cours des derniers mois s’étendent aux données de la recherche, qui doivent être ouvertes par défaut. Cette ouverture est garante d’une science plus intègre (moins de fraude), plus économique (réplicabilité de la recherche), accessible au plus grand nombre (« citizen science »)…
La gestion de ces données soulève bien des questions, notamment celle de leur archivage (quelle durée ? quels formats ? quels moyens ?), et, en corollaire, celle des coûts, qui demeure la grande inconnue : si ceux-ci peuvent être financés par les bourses et autres financements des projets de recherche au départ, la conservation des données à long-terme a aussi un coût qui doit être supporté, vraisemblablement par les institutions. Par ailleurs, vue la masse de données produites, il y a nécessité de mutualiser les outils et de partager les infrastructures de stockage et d’accès aux informations ; ce serait particulièrement pertinent pour les projets les plus modestes (les « gros » projets comprennent généralement un volet spécifique aux données et à leur gestion). Dans ce contexte, les bibliothèques pourraient se positionner comme services de publication de données institutionnelles : en apportant de l’assistance aux chercheurs dans la mise en place de « plan de gestion des données », en participant à la structuration des formats de données, en travaillant sur les métriques autour des données…
Quelques initiatives à suivre :
- Journals Research Data policy bank (JoRD) : Un projet du JISC, piloté par la responsable de Sherpa/Romeo, qui examine la faisabilité d’un service centralisé de recensement des politiques des revues concernant les données de recherche. L’étude montre que la moitié des revues affichent des politiques en la matière, mais que les 3/4 de celles-ci sont floues (manque de standardisation, incomplétude…)
- Elixir : Un projet européen d’infrastructure pour le stockage et le traitement des données en sciences de la vie, mené par la Royal Society.
- La ligue européenne des universités de recherche (LERU) travaille, avec LIBER, sur ces questions, la rédaction d’une feuille de route sur les données de recherche est en cours.

Une statue perplexe dans le hall de la Bayerische Staats Bibliothek

Problème de casting ?
Ca a été clairement dit par l’un des intervenants (G. Boulton, ppt) : « Libraries do the wrong things, employ the wrong people ». Pour gérer toutes ces données, les bibliothèques doivent s’équiper de « data scientists », de « data managers ». Problème : où les trouver ? Il y a un vrai problème de manque de compétences dans la profession actuellement, qui attire toujours peu de profils scientifiques (en sciences « dures ») – or un data scientist, c’est quelqu’un qui sait gérer les données et les manipuler pour leur donner du sens, avec des compétences en statistiques, en mathématiques, en informatique spécialisée. De l’avis général, il existe peu de formations spécifiques dans les cursus universitaires, et la gestion de données ne fait pas partie des enseignements dans les formations initiales des bibliothécaires (je confirme) ; acquérir ce type de compétences est pourtant un enjeu fort, qui va demander un changement dans les mentalités des bibliothécaires. Des initiatives émergent, notamment au Royaume-Uni :
- Immersive Informatics : il s’agit d’un programme pilote de formation à la gestion des données de la recherche, mené conjointement par les universités de Bath et de Melbourne, à destination des professionnels de l’IST. Il comprend, en plus des nombreux ateliers thématiques (sur la conservation, les aspects juridiques, la gestion des plans, etc), 2 modules au sein desquels les participants sont entièrement intégrés dans un laboratoire ou un département de recherche de l’université et travaillent sur des jeux de données réels.
- RDMRose : ce projet de formation continue pour les professionnels de l’IST financé par le JISC a permis de produire des cours sur la gestion des données (en accès libre et donc réutilisables)

Bref, encore du pain sur la planche pour les bibliothécaires…

JE ebooks Couperin : les supports

Les supports des interventions de la journée d’études du consortium Couperin sur les ebooks sont en ligne sur le site du consortium.

Journée d’étude Couperin e-books 2012 – Atelier juridique

Troisième et dernière partie du compte-rendu de la journée e-books Couperin, consacrée à l’atelier juridique (voir la première partie sur les retours d’expériences, la deuxième partie sur le signalement).

Intervenants : Sébastien Respingue-Perrin, SCD Paris Dauphine et Dominique Rouillard, BPI
A l’origine de la loi sur le prix unique du livre numérique, il y a une demande des éditeurs pour une décote du prix, afin que l’achat d’un livre numérique soit plus attractif, et stimule le développement d’une offre francophone. Au début de la discussion (2008-2010) , le livre numérique c’est le livre homothétique.  En isolant le segment éditorial du livre numérique, on peut mieux encadrer sa diffusion. La baisse de la TVA à 7% (depuis le 01/01/2012) permet d’aligner la taxation du numérique sur celle du papier (entrée en vigueur au 01/04/2012).

Qu’est-ce qu’un livre numérique  ?
La question se pose très pragmatiquement ; en effet, il existe à l’heure actuelle 2 définitions réglementaires fiscales différentes du livre électronique :
- Celle de la loi 2011-590 du 26 mai 2011, dite « loi PULN » : « La présente loi s’applique au livre numérique lorsqu’il est une œuvre de l’esprit créée par un ou plusieurs auteurs et qu’il est à la fois commercialisé sous sa forme numérique et publié sous forme imprimée ou qu’il est, par son contenu et sa composition, susceptible d’être imprimé, à l’exception des éléments accessoires propres à l’édition numérique », définition détaillée dans le décret d’application 2011-1499« Les éléments accessoires propres à l’édition numérique mentionnés [...] s’entendent des variations typographiques et de composition, des modalités d’accès aux illustrations et au texte telles que le moteur de recherche associé, les modalités de défilement ou de feuilletage des éléments contenus, ainsi que des ajouts de textes ou de données relevant de genres différents, notamment sons, musiques, images animées ou fixes, limités en nombre et en importance, complémentaires du livre et destinés à en faciliter la compréhension. »
- Celle de l’article 278bis du Code Général des Impôts, qui fixe le taux de TVA applicable, précisée dans le rescrit fiscal n°2011/38, qui ignore toute référence aux « éléments accessoires » enrichis du décret.

Toute la question est de savoir si le livre numérique est considéré fiscalement comme un livre (avec une TVA à 7%) ou comme un service (avec une TVA à 19.6%) : les définitions, on l’a vu, sont floues voire contradictoires en ce qui concerne les « oeuvres multimédia », envisagées par le décret mais exclues selon le rescrit – dans ces termes, quid du livre enrichi ? Ou des « sites compagnons » adossés aux manuels ?

Qu’est-ce qu’un prix unique ?
Le prix unique est un prix public : tout détaillant vendant à un acheteur établi en France a l’obligation de vendre à un prix affiché (pour les institutions, des barèmes détaillant le contenu des offres doivent être accessibles). Il amène plus de transparence (mais les fournisseurs vont-ils jouer le jeu et proposer des offres diversifiées ?), et est opposable (on peut s’y référer en cas de désaccord).
Le prix unique n’est pas un prix fixe : il peut varier en fonction des offres commerciales (offres groupées vs vente au titre), mais il est non négociable. Il existe cependant une possibilité de réintroduire une part de négociation pour les bibliothèques  : en effet, la loi prévoit une exception permettant de conserver une ouverture pour les négociations, à la condition que les offres concernent des ouvrages acquis dans un cadre de recherche ou d’enseignement supérieur d’une part, et qu’ils soient intégrés dans des plateformes hébergeant d’autres types de contenus d’autre part. Les 2 conditions doivent être remplies : ainsi, les fournisseurs ne proposant que des livres numériques, même s’ils sont spécialisés dans l’édition universitaire, sont désormais soumis au prix unique.  Cette exception, si elle paraît positive pour les BU et les bibliothèque de recherche, met les bibliothèques de lecture publique dans une situation inconfortable, déjà dénoncée dans ce communiqué de l’IABD.

Comment situer le livre électronique dans les marchés publics  (quel périmètre) ?
Jusqu’ici, l’accès aux ressources numériques reposait sur le paiement d’un surcoût, s’ajoutant au prix des ressources imprimées, ce qui permettait (en théorie) de rester en dessous des seuils de passation de marchés publics formalisés.
Avec le PULN, on rencontre finalement les mêmes difficultés qu’avec le livre papier : la mise en concurrence des fournisseurs se fait par rapport aux services supplémentaires proposés (qui doivent être identifiés et valorisés économiquement), car le critère prix devient inopérant [c’est moi qui extrapole]. A cela s’ajoute le fait qu’il ait peu d’acteurs économiques sur le marché, ce qui n’incite pas les fournisseurs à proposer des tarifs avantageux pour les bibliothèques.

Comment articuler les offres négociées dans le cadre d’un marché public ?
Avant le PULN, on pouvait imposer au fournisseur la gestion des offres consortiales. Avec le PULN, ce n’est plus le cas, ce sont les services associés qui représentent la marge de manoeuvre sur laquelle va porter la négociation. Du coup la « remise Couperin » disparaît, puisqu’elle est censée apparaître dans le barème public de l’éditeur. L’enjeu devient vraiment de faire rentrer les usages propres aux bibliothèques (conditions de prêt, possibilités d’impression…) dans la négociation pour arriver à adapter le tarif aux besoins – d’où l’importance de définir finement en amont lesdits besoins, en tenant compte des usages des lecteurs et de l’offre éditoriale.

Quel est le rôle de la licence dans un marché ?
La licence n’est pas contractuelle dans un marché, c’est dans le cahier des charges que sont définis les usages et fixées les conditions, ce qui est un avantage. Le marché doit également préciser les droits d’exploitation minimum qui sont dévolus à l’établissement :  le livre numérique est une œuvre de l’esprit, soumise aux droits des auteurs et des ayant-droits, or la diffusion en bibliothèque est un droit de représentation, il convient donc de se prémunir contre les situations absurdes dans lesquelles la bibliothèque pourrait acheter des livres numériques mais pas les communiquer à ses lecteurs.

Conclusions
De nombreuses questions restent en suspens :
- Le rôle des consortia apparaît particulièrement bousculé par la loi sur le prix unique du livre numérique, et ce malgré la fenêtre de l’exception recherche… Quel avenir pour les négociations ?
- On a évoqué à plusieurs reprises au cours de la journée le modèle PDA (patron-driven acquisitions), ie les acquisitions déclenchées par les usagers (au bout d’un nombre pré-défini de consultations sur le catalogue de l’éditeur ou de l’agrégateur) : très concrètement, on peut se demander dans quelle mesure ce modèle est réellement « implantable » en France aujourd’hui.
- Va-t-il y avoir convergence des modèles économiques « grand public » et institutionnel ?
- Quid des  offres qui ne rentrent pas dans les cases prévues par la loi ? (par exemple la Bibliothèque numérique Dalloz, qui propose un bouquet d’ebooks localisé sur la même interface que les bases de données et les revues du même éditeur, mais qui est commercialisé séparément)
- Comment faire cohabiter différents types de documents (livres enrichis, sites compagnons, livres homothétiques) dans les collections, dans le respect des règles de l’achat public ?
- La notion de droit de prêt des livres numériques reste encore assez floue aux Etats-Unis (ex. de MacMillan qui oblige au rachat d’un exemplaire au bout de x consultations), elle est quasi-inexistante en France : certains pionniers de l’édition numérique ouvrent des pistes, on aimerait que les « gros » éditeurs s’y mettent aussi…

[Photos : thinkretail, neilio]

Journée d’étude Couperin e-books 2012 – Atelier signalement

Deuxième partie des compte-rendus de la journée e-books organisée par Couperin : l’atelier sur le signalement des ebooks (voir la 1ère partie).
Valoriser ses livres électroniques : Caroline Bruley, Mariette Naud-Betteridge
Beaucoup de questions dans cet atelier, nécessaires à la réflexion à mener pour tout projet de signalement des ressources électroniques, à mon avis, mais d’autant plus essentiel pour les livres numériques, dont l’usage reste marginal pour l’instant.
Comment signaler : titre à titre ou bouquet ? Dans le catalogue ou dans un autre outil ? Dans le monde physique ou seulement par voie électronique (réseaux sociaux…) ?
Consensus actuellement sur le fait de tout mettre dans l’OPAC, mais quelle est la réelle valeur ajoutée ?
Doit-on regrouper le papier et l’électronique ? Comment cataloguer (question de la qualité des données fournies par l’éditeur) ? Quid des tablettes et smartphones ?
Présence physique : rappeler l’existence de l’électronique sur les supports papier ?
Comment mesurer l’impact de ces actions de valorisation ?
Signaler dans l’OPAC / le SIGB
SUDOC : le signalement ne va pas de soi : 2 bouquets seulement (Springer et Que sais-je?), et problèmes de mises à jour des bouquets : la question n’est pas réglée par l’ABES, qui travaille cependant à l’élargissement à d’autres bouquets. Une solution envisagée par l’ABES serait de supprimer les exemplaires créés automatiquement puis de réexemplariser tout le monde en se basant sur une liste de ppn valides. C’est un pis-aller, qui ne règle absolument pas la question de la mise à jour des données (à quand une base de connaissance nationale ? #jdcjdr…)
Pour recenser les titres électroniques, plusieurs solutions différentes ont été adoptées par les bibliothèques :
- Signalement complet dans le Sudoc puis localement (très lourd dans la mise en place et dans les mises à jour) ; possible dans le cas d’une collection modeste.
- Signalement « light » : notices succinctes
- Récupération de notices auprès de l’éditeur (service payant ou gratuit selon les éditeurs), mais pas forcément pratique à intégrer dans le catalogue (problèmes d’encodage par exemple).
Bref on fait comme on peut, et selon les bouquets, plusieurs solutions peuvent cohabiter en fonction de l’offre. Beaucoup de bricolage, pas de solution parfaite.
Signaler sur le site web et l’ENT
Page dédiée dans l’ENT à St Etienne, signalement régulier dans les actualités à Lyon 2
Signaler sur les réseaux sociaux
Facebook : page dédiée pour la bibliothèque numérique à Grenoble 1
Signaler via les listes de diffusion
Mailing auprès des contacts dans les labos, newsletter, liste sur inscription, infos envoyées 2 fois par mois, collant à l’actualité
Rematérialisation
Matérialisation dans les rayonnages : sous la forme de flyers (cadres plexi), d’affiches, de fantômes (pour certains types de documents, les manuels notamment), de QR codes sur les exemplaires papier à Lyon 2 (déjà utilisé pour les revues électroniques avec succès), d’autocollants. Les QRcodes comportent des liens vers la notice, mais il n’est apparemment pas possible de lier vers le texte intégral (frein), possibilité de créer des url authentifiées (Paris 5 l’a fait pour Cairn). Et ça marche dans les 2 sens : papier > électronique et électronique > papier.

En résumé, le signalement doit se faire partout, tout le temps. Nécessité de former les usagers, mais aussi les agents (pour répondre aux questions concrètes des usagers) – les établissements ayant répondu témoignent d’une forte demande des agents pour des formations récurrentes. Il faut veiller à ne pas introduire une autre fracture numérique dans les équipes (qui engendrerait des difficultés en terme de management) ; il est important d’impliquer les mêmes personnes pour les achats de livres papier et de livres électroniques.

Retour d’expérience à l’EPFL (T. Guignard)
Cette école d’ingénieurs suisse propose une offre de 40 000 ebooks en sciences de l’ingénieur. L’anglais n’est pas un problème, car présent dans les cursus.
Démarrage en 2005 : signalement par une liste indépendante du catalogue.
2006 – 2011 : catalogue collectif sur lequel l’école n’a pas de maitrise ; d’où le développement d’une base locale pour signaler tous les ebooks (sur FileMakerPro). Mises à jour par lot, avec les listes de titres fournies par les éditeurs (retravaillées avant intégration). Inconvénients : l’usager doit choisir le support avant de lancer sa requête, et pas de lien entre les bases.
Solution de tout mettre dans l’opac :
Possible d’intégrer des notices MARC en masse, mais nécessite de modifier toutes les notices à la main (catalogue collectif). Les titre à titre sont catalogués à la main, ainsi que les titres les + demandés. Travail avec un plugin firefox qui permet de repérer les ebooks : pratique mais problème d’utilisation avec les ISBN multiples, et nécessite l’installation du plugin.
Solution des Discovery tools :
Tests grandeur nature en 2011 de 4 outils de découverte du marché : Ebsco Discovery Tool, Summon, Primo, Worldcat local : grosse déception, en raison des données incomplètes, des bases de connaissances pas à jour (+ de 6 mois de retard), de la perte de données locales, du manque de liens vers l’OPAC, de l’absence de dédoublonnage.
Solution adoptée :
GoogleScholar + Swissbib (métacatalogue basé sur Worldcat, moissonne les catalogues des BU de sciences de Suisse) : correspond mieux aux attentes.
La base de données locale est en train d’évoluer, le développement d’un outil commun avec l’UNIL est en cours.
Mais il faut être vigilant sur les points suivants : la séparation des bases n’est pas une solution acceptable (intégration d’une base d’articles pour émuler les fonctionnalités type discovery tool), et le mélange entre livre / livre élec / article ne fonctionne pas pour les utilisateurs (au niveau des résultats, il faut séparer livres et articles).
A cette solution s’ajoutent :
- le signalement dans les nouveaux média : twitter, rss, diigo (ciblage par domaines)
- des actions de rematérialisation : affichage dans les rayonnages, QR codes collés sur les ouvrages
TG souligne l’importance de mesurer les usages de ces outils (encodage des QR codes de façon à pouvoir les repérer dans les stats), même s’il n’est pas facile d’évaluer l’impact de cette valorisation (les outils et mesures changent).
[Photos : Stig Nygaard, timtom.ch]

Journée d’étude Couperin e-books 2012 – Intro et retours d’expérience

Le consortium Couperin a organisé sa journée sur les e-books cette année sur le thème de « L’intégration du livre électronique dans l’écosystème de l’établissement« . J’ai été invitée, avec mon compère Gaël Revelin, à faire un compte-rendu de cette journée.
Keynote : Hervé Le Crosnier
Chez Couperin, on ne se refuse rien ;-) : c’est Hervé Le Crosnier himself (ses cours, sa maison d’édition) qui était invité en tant que grand témoin pour introduire et conclure la journée.
La question fondamentale, qui est revenue à plusieurs reprises au cours de la journée, est celle de la nature du livre numérique, de sa définition : « qu’est-ce qu’un livre numérique ? ».
HLC a évoqué plusieurs des problématiques liées au livre numérique :
- Transformation du média précédent (le livre numérique n’est pas forcément en concurrence avec ce qui va rester du livre papier)
- Secteurs privilégiés (domaine public, manuels, livres expérimentaux (publie.net, « l’homme volcan » de M. Malzieu), livres auto-édités)
- Manque de normalisation (parallèle avec la « guerre des navigateurs », maintenant c’est la « guerre des liseuses ») alors que l’interopérabilité est et sera de plus en plus une nécessité
- Modèles économiques : avant de s’intéresser aux utilisateurs, on se préoccupe des modèles économiques et on légifère (PULN) – alors qu’on n’en sait pas assez sur le livre numérique pour pouvoir fixer des règles intangibles, les modèles actuels sont forcément transitoires.
- Question du prêt des livres numériques : Amazon dit oui, et se prétend ainsi bibliothèque. Or la bibliothèque c’est aussi la garantie de la pérennité des collections, le libre choix des modes de consultation des contenus, l’assurance de l’anonymisation des usages. La chronodégradabilité mise en oeuvre via les DRMs renvoie à la perte de confiance du système de diffusion des savoirs vis à vis du lecteur (lecteurs = voleurs de la culture)
In fine, HLC préconise de garder à l’esprit les fondamentaux du métier de bibliothécaire : la constitution de collections, avec la liberté de choisir en fonction de son public, et la diffusion des savoirs pour former des citoyens éclairés. Il est avéré que la gratuité favorise l’émancipation ; reste à inventer un nouveau modèle prenant en compte le partage. On a des fondamentaux et de l’imagination : ne nous bridons pas.

Retour d’expériences : Université du Havre, Pierre-Yves Cachard
Cette petite université pluridisciplinaire (7000 étudiants) mène depuis 2009 une politique de développement des ressources numériques 24/24. Les objectifs sont multiples : renouveler l’offre de services du SCD, renforcer la politique d’exemplaires, constituer une bibliothèque numérique de niveau Master. Un financement de 10 000 euros (sur 3 ans) a permis d’impulser le projet ;  l’offre se compose aujourd’hui de 1000 livres numériques. La direction a fait le choix de l’intégration en terme de modèle économique,  de ressources humaines et de signalement : l’achat titre à titre permet d’insérer les livres numériques dans la politique documentaire (l’acquéreur qui choisit d’acheter le livre sous forme papier ou électronique), ceux-ci sont traités par les personnels référents dans les disciplines, et pas par des personnels dédiés ; tous les titres sont signalés dans le catalogue (pas de lien vers la plateforme éditeur ou agrégateur). Des priorités d’acquisition ont été définies : pas d’achat si le livre numérique est une édition antérieure à celle disponible au format papier, et soutien des disciplines faiblement représentées. 2 plateformes ont été retenues : Numilog et Dawsonera.
L’augmentation du budget de livres numériques (8% du budget documentaire global en 2010) se fera au détriment du budget papier. Ce qui va avoir pour conséquence, à terme, une baisse des prêts, et une baisse du travail pour les agents (moins d’équipement, moins de classement), d’où la nécessité de repenser les missions. Ceci dit, il semble qu’il y ait quand même une certaine marge avant d’en arriver là : en effet, les usages ne sont pas encore vraiment au rendez-vous, et les consultations restent faibles par rapport à l’investissement budgétaire (et c’est rien de le dire).
Plusieurs freins au développement du service sont constatés : le prix d’achat (il est scandaleux que le prix du livre numérique soit plus cher que celui du livre papier), le taux d’équipement des étudiants (tablettes en France = 4% ; mais à relativiser avec les smartphones, très présents, sur lesquels on lit aussi), la forme électronique (on se contente de reproduire le format papier, alors qu’on pourrait développer des contenus enrichis, qui seraient bien plus attractifs), les modèles hétérogènes (les droits de prêt diffèrent selon les plateformes), la nécessité d’opérer un choix sur le format (ce n’est pas à la bibliothèque ni à l’éditeur de choisir le format de lecture, le lecteur doit pouvoir lire les documents sur le contenant de son choix), la masse critique difficile à atteindre pour les livres en français (le livre numérique représente 10% de la production française, soit environ 80 000 ouvrages), l’embargo sur les éditions récentes, l’ergonomie d’usage (contraintes techniques de Numilog, par exemple).
Pour y remédier, le SCD a élaboré un plan d’action pour les personnels : prêt de tablettes, formation de tous les agents, diffusion d’une lettre d’information spécifique. Des actions sont également prévues en direction du public  : des ateliers de formation, la mise en avant des collections numériques sur le site web des bibliothèques, l’ouverture des catalogues pour susciter le déclenchement de l’achat par les lecteurs (Patron-Driven Acquisitions, PDA), l’intégration dans les plateformes pédagogiques, la programmation d’un cycle de conférences sur les initiatives menées autour des interfaces de livres électroniques, l’acquisition d’un outil de découverte pour améliorer les possibilités de recherche, la mise en place d’un « salon de lecture numérique » orienté sur les thèmes d’actualité.

Retour d’expériences : Sciences Po Paris, Stéphanie Gasnot
Plusieurs problématiques : une offre faible et une demande forte, des contraintes d’achat en tant que Cadist (question de la conservation). Démarrage en 2008 avec une offre de 77 titres sur une plateforme anglophone. Diversification de l’offre en 2010-2011 (ajout de livres en français). 2012 : 3000 livres électroniques. La visibilité de l’offre a été améliorée par le signalement dans le sudoc (exemplarisation automatique) dans un premier temps, mais la volonté de cataloguer les ebooks dans le sudoc a été revue à la baisse (problème de la mise à jour des données), et les livres électroniques sont désormais catalogués uniquement en local.
Modèles économiques : la bibliothèque a fait le choix d’un mix entre bouquets et achat titre à titre : EBL (possibilité de faire des suggestions d’achat), Palgrave connect et Oxford schlarship online (no DRM), Taylor & Francis (développement du titre à titre mais DRM) ;  Cairn et L’Harmathèque pour les livres francophones. Les livres électroniques bénéficient d’un budget dédié, en augmentation (53000 euros en 2012). La bibliothèque a fait le choix de rationaliser les acquisitions papier et électronique : les Que sais-je ? et les Repères ne sont plus achetés en version imprimée. En terme d’usages, c’est la plateforme Cairn qui arrive en tête, particulièrement pour les ouvrages de recherche (dont un grand nombre est édité aux Presses de Sciences Po, ce qui en fait du contenu particulièrement adapté au public visé).
Plusieurs questions restent ouvertes pour la bibliothèque :
- La problématique spécifique aux achats dans le cadre du CADIST n’est pas réglée : les livres électroniques, dans les conditions de vente actuelles, ne correspondent pas aux critères de diffusion et de pérennité exigés ; peut-être que les licences nationales et ISTEX seront un moyen d’y remédier.
- Le développement du modèle d’achat « pick & choose » permet plus de marge de manœuvre dans la gestion de la politique documentaire, mais multiplie les points d’accès, ce qui complexifie la navigation en l’absence d’un moteur de recherche fédérée.
- Les possibilités offertes par le PDA interrogent la politique documentaire : que reste-t-il du rôle du bibliothécaire et de la notion de collections ?

HLC : 3 remarques :
- La question de l’ergonomie paraît centrale. Il n’y a pas de raison que ce ne soit pas aussi simple avec l’électronique qu’avec le papier. Plateforme = web et pas livre. Il faut prendre en compte les besoins ergonomiques du lecteur.
- Les bibliothèques sont les principaux acheteurs du livre numérique, et elles en font l’acculturation auprès de leurs publics = ce n’est absolument pas pris en compte par les éditeurs, qui ne devraient pas pratiquer des tarifs aussi élevés pour les bibliothèques.
- Les plateformes font écran par rapport au livre, d’où l’intérêt du signalement au catalogue.
[Photos : CamilleStromboni, Knowtex]

CR : Publications scientifiques et financement européen

J’ai assisté cette semaine à la matinée d’étude « Publications scientifiques et financement européen » organisée par Couperin pour présenter les initiatives de la Commission Européenne sur le sujet, et plus particulièrement le projet OpenAIRE.
La manifestation était de qualité, j’en retiens plus particulièrement 2 temps :
Keynote : Reconstruire la République des sciences par le libre accès : responsabilités et évaluation des chercheurs – Jean-Claude Guédon
Pour JCG, la Science est une « grande conversation ». Les associations savantes, les éditeurs, les bibliothécaires soutiennent cette « grande conversation », en diffusant l’information scientifique. Il fait les constats suivants sur la diffusion en libre accès :
- L’Open Access a rencontré beaucoup de succès depuis sa naissance en 2001-2002 : il existe de + en + d’archives institutionnelles, et plus de 5000 revues en OA sont recensées par le DOAJ. Un mouvement qui prend de l’ampleur, mais qui hésite sur la suite.
- Une faiblesse : le déséquilibre qui demeure entre le rôle des bibliothécaires (très positif, mais qui manque de légitimité) et la logique des chercheurs (relativement indifférents aux nouveaux usages mis en avant par les bibliothécaires)
- Malgré ces progrès, l’intérêt des chercheurs demeure pour les revues prestigieuses, et pas pour les revues en OA de visibilité moyenne (PLoS, Biomed Central), en raison de leur utilisation comme élément d’évaluation de la carrière des chercheurs.
Comment faire avancer les choses ? Vraisemblablement en faisant évoluer les métriques utilisées pour l’évaluation des chercheurs.
Si on prend le cas du facteur d’impact – de plus en plus détourné de son usage initial (l’évaluation des revues) pour évaluer les chercheurs – on voit que, à l’instar des pratiques utilisées en athlétisme pour la course de sprint, où les temps sont désormais calculés au centième de seconde, le facteur d’impact a lui aussi 3 décimales : on a augmenté artificiellement sa valeur pour créer de la compétition, du spectacle. Du coup, comme en athlétisme, on voit émerger des « champions » de la recherche, et du « dopage » : certains n’hésitent pas à adapter leur production scientifique à la métrique (voir des exemples d’articles retirés et autres malversations intellectuelles sur le site Badscience), qui agit comme une « stéroïde intellectuelle ». L’évaluation de la qualité générale de la science doit pouvoir se faire en dehors des « champions de la métrique » : de nouvelles formes d’évaluation peuvent s’élaborer avec l’Open Access ; on peut imaginer par exemple de mesurer un facteur d’éducation, un facteur social… Cela permettrait de reconstruire le jeu de la concurrence scientifique de façon plus saine, d’articuler la quête de l’excellence à la quête de la qualité. Plusieurs pays se sont démarqués de cet indicateur et ont bâti leurs propres métriques, notamment en Amérique Latine avec SCIELO.

Table-ronde – Rendre les travaux librement accessibles : quel intérêt pour un chercheur ?
Il a été demandé aux 4 intervenants – des « power users » de Hal, issus de différents organismes de recherche, qui déposent beaucoup – comment ils percevaient leur plateforme :
- Importance de Hal pour repérer la littérature grise : le fait que Hal héberge d’autres types de documents que les articles (thèses, rapports…) est très apprécié : il permet de mettre en valeur facilement toutes les publications sur un projet, ainsi que de collaborer sur des documents non publiables (cas d’un document de travail alimenté en commun dans le cadre d’un projet européen)
- Intérêt principal pour le chercheur : avoir la liste complète de ses publications à un seul endroit, et pouvoir l’utiliser pour alimenter une page perso, ou la page de son laboratoire.
- Hal est un moyen de mettre sa production à disposition du public (qui n’a pas forcément accès aux revues en ligne dans lesquelles la recherche est publiée), mais pas un système de validation (ce rôle reste celui de la revue). C’est un auxiliaire utile, mais pas un outil de travail principal.
- Forte utilisation de Google ou Google Scholar comme point d’entrée dans une recherche, les chercheurs se tournent vers les bases de données spécialisées à partir du moment où ils veulent citer des articles. Hal n’est pas utilisé comme moteur de recherche.
- Le fait que les dépôts dans Hal soient assez rapidement indexés par Google Scholar est un vrai plus pour se faire connaître et de se faire citer.
- Hal est devenu petit à petit un outil partagé par les chercheurs, un point commun entre différentes institutions, toutes disciplines confondues.
- En ce qui concerne les améliorations souhaitées : plus d’automatisation pour repérer les travaux publiés dans les bases des éditeurs et demander aux auteurs de déposer, une compatibilité avec d’autres outils que Pubmed et ArXiv ; Endnote est cité.
[photos : Vestman, Waltarrrr]


novembre 2014
L Ma Me J V S D
« août    
 12
3456789
10111213141516
17181920212223
24252627282930

Archives

Licence

Licence Creative Commons
Ce(tte) œuvre est mise à disposition selon les termes de la Licence Creative Commons Attribution 3.0 France.

Suivre

Recevez les nouvelles publications par mail.

Rejoignez 704 autres abonnés