Archive for the 'Confs & journées d'études' Category



Journée d’étude Couperin e-books 2012 – Atelier signalement

Deuxième partie des compte-rendus de la journée e-books organisée par Couperin : l’atelier sur le signalement des ebooks (voir la 1ère partie).
Valoriser ses livres électroniques : Caroline Bruley, Mariette Naud-Betteridge
Beaucoup de questions dans cet atelier, nécessaires à la réflexion à mener pour tout projet de signalement des ressources électroniques, à mon avis, mais d’autant plus essentiel pour les livres numériques, dont l’usage reste marginal pour l’instant.
Comment signaler : titre à titre ou bouquet ? Dans le catalogue ou dans un autre outil ? Dans le monde physique ou seulement par voie électronique (réseaux sociaux…) ?
Consensus actuellement sur le fait de tout mettre dans l’OPAC, mais quelle est la réelle valeur ajoutée ?
Doit-on regrouper le papier et l’électronique ? Comment cataloguer (question de la qualité des données fournies par l’éditeur) ? Quid des tablettes et smartphones ?
Présence physique : rappeler l’existence de l’électronique sur les supports papier ?
Comment mesurer l’impact de ces actions de valorisation ?
Signaler dans l’OPAC / le SIGB
SUDOC : le signalement ne va pas de soi : 2 bouquets seulement (Springer et Que sais-je?), et problèmes de mises à jour des bouquets : la question n’est pas réglée par l’ABES, qui travaille cependant à l’élargissement à d’autres bouquets. Une solution envisagée par l’ABES serait de supprimer les exemplaires créés automatiquement puis de réexemplariser tout le monde en se basant sur une liste de ppn valides. C’est un pis-aller, qui ne règle absolument pas la question de la mise à jour des données (à quand une base de connaissance nationale ? #jdcjdr…)
Pour recenser les titres électroniques, plusieurs solutions différentes ont été adoptées par les bibliothèques :
– Signalement complet dans le Sudoc puis localement (très lourd dans la mise en place et dans les mises à jour) ; possible dans le cas d’une collection modeste.
– Signalement « light » : notices succinctes
– Récupération de notices auprès de l’éditeur (service payant ou gratuit selon les éditeurs), mais pas forcément pratique à intégrer dans le catalogue (problèmes d’encodage par exemple).
Bref on fait comme on peut, et selon les bouquets, plusieurs solutions peuvent cohabiter en fonction de l’offre. Beaucoup de bricolage, pas de solution parfaite.
Signaler sur le site web et l’ENT
Page dédiée dans l’ENT à St Etienne, signalement régulier dans les actualités à Lyon 2
Signaler sur les réseaux sociaux
Facebook : page dédiée pour la bibliothèque numérique à Grenoble 1
Signaler via les listes de diffusion
Mailing auprès des contacts dans les labos, newsletter, liste sur inscription, infos envoyées 2 fois par mois, collant à l’actualité
Rematérialisation
Matérialisation dans les rayonnages : sous la forme de flyers (cadres plexi), d’affiches, de fantômes (pour certains types de documents, les manuels notamment), de QR codes sur les exemplaires papier à Lyon 2 (déjà utilisé pour les revues électroniques avec succès), d’autocollants. Les QRcodes comportent des liens vers la notice, mais il n’est apparemment pas possible de lier vers le texte intégral (frein), possibilité de créer des url authentifiées (Paris 5 l’a fait pour Cairn). Et ça marche dans les 2 sens : papier > électronique et électronique > papier.

En résumé, le signalement doit se faire partout, tout le temps. Nécessité de former les usagers, mais aussi les agents (pour répondre aux questions concrètes des usagers) – les établissements ayant répondu témoignent d’une forte demande des agents pour des formations récurrentes. Il faut veiller à ne pas introduire une autre fracture numérique dans les équipes (qui engendrerait des difficultés en terme de management) ; il est important d’impliquer les mêmes personnes pour les achats de livres papier et de livres électroniques.

Retour d’expérience à l’EPFL (T. Guignard)
Cette école d’ingénieurs suisse propose une offre de 40 000 ebooks en sciences de l’ingénieur. L’anglais n’est pas un problème, car présent dans les cursus.
Démarrage en 2005 : signalement par une liste indépendante du catalogue.
2006 – 2011 : catalogue collectif sur lequel l’école n’a pas de maitrise ; d’où le développement d’une base locale pour signaler tous les ebooks (sur FileMakerPro). Mises à jour par lot, avec les listes de titres fournies par les éditeurs (retravaillées avant intégration). Inconvénients : l’usager doit choisir le support avant de lancer sa requête, et pas de lien entre les bases.
Solution de tout mettre dans l’opac :
Possible d’intégrer des notices MARC en masse, mais nécessite de modifier toutes les notices à la main (catalogue collectif). Les titre à titre sont catalogués à la main, ainsi que les titres les + demandés. Travail avec un plugin firefox qui permet de repérer les ebooks : pratique mais problème d’utilisation avec les ISBN multiples, et nécessite l’installation du plugin.
Solution des Discovery tools :
Tests grandeur nature en 2011 de 4 outils de découverte du marché : Ebsco Discovery Tool, Summon, Primo, Worldcat local : grosse déception, en raison des données incomplètes, des bases de connaissances pas à jour (+ de 6 mois de retard), de la perte de données locales, du manque de liens vers l’OPAC, de l’absence de dédoublonnage.
Solution adoptée :
GoogleScholar + Swissbib (métacatalogue basé sur Worldcat, moissonne les catalogues des BU de sciences de Suisse) : correspond mieux aux attentes.
La base de données locale est en train d’évoluer, le développement d’un outil commun avec l’UNIL est en cours.
Mais il faut être vigilant sur les points suivants : la séparation des bases n’est pas une solution acceptable (intégration d’une base d’articles pour émuler les fonctionnalités type discovery tool), et le mélange entre livre / livre élec / article ne fonctionne pas pour les utilisateurs (au niveau des résultats, il faut séparer livres et articles).
A cette solution s’ajoutent :
– le signalement dans les nouveaux média : twitter, rss, diigo (ciblage par domaines)
– des actions de rematérialisation : affichage dans les rayonnages, QR codes collés sur les ouvrages
TG souligne l’importance de mesurer les usages de ces outils (encodage des QR codes de façon à pouvoir les repérer dans les stats), même s’il n’est pas facile d’évaluer l’impact de cette valorisation (les outils et mesures changent).
[Photos : Stig Nygaard, timtom.ch]

Publicités

Journée d’étude Couperin e-books 2012 – Intro et retours d’expérience

Le consortium Couperin a organisé sa journée sur les e-books cette année sur le thème de « L’intégration du livre électronique dans l’écosystème de l’établissement« . J’ai été invitée, avec mon compère Gaël Revelin, à faire un compte-rendu de cette journée.
Keynote : Hervé Le Crosnier
Chez Couperin, on ne se refuse rien 😉 : c’est Hervé Le Crosnier himself (ses cours, sa maison d’édition) qui était invité en tant que grand témoin pour introduire et conclure la journée.
La question fondamentale, qui est revenue à plusieurs reprises au cours de la journée, est celle de la nature du livre numérique, de sa définition : « qu’est-ce qu’un livre numérique ? ».
HLC a évoqué plusieurs des problématiques liées au livre numérique :
– Transformation du média précédent (le livre numérique n’est pas forcément en concurrence avec ce qui va rester du livre papier)
– Secteurs privilégiés (domaine public, manuels, livres expérimentaux (publie.net, « l’homme volcan » de M. Malzieu), livres auto-édités)
– Manque de normalisation (parallèle avec la « guerre des navigateurs », maintenant c’est la « guerre des liseuses ») alors que l’interopérabilité est et sera de plus en plus une nécessité
– Modèles économiques : avant de s’intéresser aux utilisateurs, on se préoccupe des modèles économiques et on légifère (PULN) – alors qu’on n’en sait pas assez sur le livre numérique pour pouvoir fixer des règles intangibles, les modèles actuels sont forcément transitoires.
– Question du prêt des livres numériques : Amazon dit oui, et se prétend ainsi bibliothèque. Or la bibliothèque c’est aussi la garantie de la pérennité des collections, le libre choix des modes de consultation des contenus, l’assurance de l’anonymisation des usages. La chronodégradabilité mise en oeuvre via les DRMs renvoie à la perte de confiance du système de diffusion des savoirs vis à vis du lecteur (lecteurs = voleurs de la culture)
In fine, HLC préconise de garder à l’esprit les fondamentaux du métier de bibliothécaire : la constitution de collections, avec la liberté de choisir en fonction de son public, et la diffusion des savoirs pour former des citoyens éclairés. Il est avéré que la gratuité favorise l’émancipation ; reste à inventer un nouveau modèle prenant en compte le partage. On a des fondamentaux et de l’imagination : ne nous bridons pas.

Retour d’expériences : Université du Havre, Pierre-Yves Cachard
Cette petite université pluridisciplinaire (7000 étudiants) mène depuis 2009 une politique de développement des ressources numériques 24/24. Les objectifs sont multiples : renouveler l’offre de services du SCD, renforcer la politique d’exemplaires, constituer une bibliothèque numérique de niveau Master. Un financement de 10 000 euros (sur 3 ans) a permis d’impulser le projet ;  l’offre se compose aujourd’hui de 1000 livres numériques. La direction a fait le choix de l’intégration en terme de modèle économique,  de ressources humaines et de signalement : l’achat titre à titre permet d’insérer les livres numériques dans la politique documentaire (l’acquéreur qui choisit d’acheter le livre sous forme papier ou électronique), ceux-ci sont traités par les personnels référents dans les disciplines, et pas par des personnels dédiés ; tous les titres sont signalés dans le catalogue (pas de lien vers la plateforme éditeur ou agrégateur). Des priorités d’acquisition ont été définies : pas d’achat si le livre numérique est une édition antérieure à celle disponible au format papier, et soutien des disciplines faiblement représentées. 2 plateformes ont été retenues : Numilog et Dawsonera.
L’augmentation du budget de livres numériques (8% du budget documentaire global en 2010) se fera au détriment du budget papier. Ce qui va avoir pour conséquence, à terme, une baisse des prêts, et une baisse du travail pour les agents (moins d’équipement, moins de classement), d’où la nécessité de repenser les missions. Ceci dit, il semble qu’il y ait quand même une certaine marge avant d’en arriver là : en effet, les usages ne sont pas encore vraiment au rendez-vous, et les consultations restent faibles par rapport à l’investissement budgétaire (et c’est rien de le dire).
Plusieurs freins au développement du service sont constatés : le prix d’achat (il est scandaleux que le prix du livre numérique soit plus cher que celui du livre papier), le taux d’équipement des étudiants (tablettes en France = 4% ; mais à relativiser avec les smartphones, très présents, sur lesquels on lit aussi), la forme électronique (on se contente de reproduire le format papier, alors qu’on pourrait développer des contenus enrichis, qui seraient bien plus attractifs), les modèles hétérogènes (les droits de prêt diffèrent selon les plateformes), la nécessité d’opérer un choix sur le format (ce n’est pas à la bibliothèque ni à l’éditeur de choisir le format de lecture, le lecteur doit pouvoir lire les documents sur le contenant de son choix), la masse critique difficile à atteindre pour les livres en français (le livre numérique représente 10% de la production française, soit environ 80 000 ouvrages), l’embargo sur les éditions récentes, l’ergonomie d’usage (contraintes techniques de Numilog, par exemple).
Pour y remédier, le SCD a élaboré un plan d’action pour les personnels : prêt de tablettes, formation de tous les agents, diffusion d’une lettre d’information spécifique. Des actions sont également prévues en direction du public  : des ateliers de formation, la mise en avant des collections numériques sur le site web des bibliothèques, l’ouverture des catalogues pour susciter le déclenchement de l’achat par les lecteurs (Patron-Driven Acquisitions, PDA), l’intégration dans les plateformes pédagogiques, la programmation d’un cycle de conférences sur les initiatives menées autour des interfaces de livres électroniques, l’acquisition d’un outil de découverte pour améliorer les possibilités de recherche, la mise en place d’un « salon de lecture numérique » orienté sur les thèmes d’actualité.

Retour d’expériences : Sciences Po Paris, Stéphanie Gasnot
Plusieurs problématiques : une offre faible et une demande forte, des contraintes d’achat en tant que Cadist (question de la conservation). Démarrage en 2008 avec une offre de 77 titres sur une plateforme anglophone. Diversification de l’offre en 2010-2011 (ajout de livres en français). 2012 : 3000 livres électroniques. La visibilité de l’offre a été améliorée par le signalement dans le sudoc (exemplarisation automatique) dans un premier temps, mais la volonté de cataloguer les ebooks dans le sudoc a été revue à la baisse (problème de la mise à jour des données), et les livres électroniques sont désormais catalogués uniquement en local.
Modèles économiques : la bibliothèque a fait le choix d’un mix entre bouquets et achat titre à titre : EBL (possibilité de faire des suggestions d’achat), Palgrave connect et Oxford schlarship online (no DRM), Taylor & Francis (développement du titre à titre mais DRM) ;  Cairn et L’Harmathèque pour les livres francophones. Les livres électroniques bénéficient d’un budget dédié, en augmentation (53000 euros en 2012). La bibliothèque a fait le choix de rationaliser les acquisitions papier et électronique : les Que sais-je ? et les Repères ne sont plus achetés en version imprimée. En terme d’usages, c’est la plateforme Cairn qui arrive en tête, particulièrement pour les ouvrages de recherche (dont un grand nombre est édité aux Presses de Sciences Po, ce qui en fait du contenu particulièrement adapté au public visé).
Plusieurs questions restent ouvertes pour la bibliothèque :
– La problématique spécifique aux achats dans le cadre du CADIST n’est pas réglée : les livres électroniques, dans les conditions de vente actuelles, ne correspondent pas aux critères de diffusion et de pérennité exigés ; peut-être que les licences nationales et ISTEX seront un moyen d’y remédier.
– Le développement du modèle d’achat « pick & choose » permet plus de marge de manœuvre dans la gestion de la politique documentaire, mais multiplie les points d’accès, ce qui complexifie la navigation en l’absence d’un moteur de recherche fédérée.
– Les possibilités offertes par le PDA interrogent la politique documentaire : que reste-t-il du rôle du bibliothécaire et de la notion de collections ?

HLC : 3 remarques :
– La question de l’ergonomie paraît centrale. Il n’y a pas de raison que ce ne soit pas aussi simple avec l’électronique qu’avec le papier. Plateforme = web et pas livre. Il faut prendre en compte les besoins ergonomiques du lecteur.
– Les bibliothèques sont les principaux acheteurs du livre numérique, et elles en font l’acculturation auprès de leurs publics = ce n’est absolument pas pris en compte par les éditeurs, qui ne devraient pas pratiquer des tarifs aussi élevés pour les bibliothèques.
– Les plateformes font écran par rapport au livre, d’où l’intérêt du signalement au catalogue.
[Photos : CamilleStromboni, Knowtex]

CR : Publications scientifiques et financement européen

J’ai assisté cette semaine à la matinée d’étude « Publications scientifiques et financement européen » organisée par Couperin pour présenter les initiatives de la Commission Européenne sur le sujet, et plus particulièrement le projet OpenAIRE.
La manifestation était de qualité, j’en retiens plus particulièrement 2 temps :
Keynote : Reconstruire la République des sciences par le libre accès : responsabilités et évaluation des chercheurs – Jean-Claude Guédon
Pour JCG, la Science est une « grande conversation ». Les associations savantes, les éditeurs, les bibliothécaires soutiennent cette « grande conversation », en diffusant l’information scientifique. Il fait les constats suivants sur la diffusion en libre accès :
– L’Open Access a rencontré beaucoup de succès depuis sa naissance en 2001-2002 : il existe de + en + d’archives institutionnelles, et plus de 5000 revues en OA sont recensées par le DOAJ. Un mouvement qui prend de l’ampleur, mais qui hésite sur la suite.
– Une faiblesse : le déséquilibre qui demeure entre le rôle des bibliothécaires (très positif, mais qui manque de légitimité) et la logique des chercheurs (relativement indifférents aux nouveaux usages mis en avant par les bibliothécaires)
– Malgré ces progrès, l’intérêt des chercheurs demeure pour les revues prestigieuses, et pas pour les revues en OA de visibilité moyenne (PLoS, Biomed Central), en raison de leur utilisation comme élément d’évaluation de la carrière des chercheurs.
Comment faire avancer les choses ? Vraisemblablement en faisant évoluer les métriques utilisées pour l’évaluation des chercheurs.
Si on prend le cas du facteur d’impact – de plus en plus détourné de son usage initial (l’évaluation des revues) pour évaluer les chercheurs – on voit que, à l’instar des pratiques utilisées en athlétisme pour la course de sprint, où les temps sont désormais calculés au centième de seconde, le facteur d’impact a lui aussi 3 décimales : on a augmenté artificiellement sa valeur pour créer de la compétition, du spectacle. Du coup, comme en athlétisme, on voit émerger des « champions » de la recherche, et du « dopage » : certains n’hésitent pas à adapter leur production scientifique à la métrique (voir des exemples d’articles retirés et autres malversations intellectuelles sur le site Badscience), qui agit comme une « stéroïde intellectuelle ». L’évaluation de la qualité générale de la science doit pouvoir se faire en dehors des « champions de la métrique » : de nouvelles formes d’évaluation peuvent s’élaborer avec l’Open Access ; on peut imaginer par exemple de mesurer un facteur d’éducation, un facteur social… Cela permettrait de reconstruire le jeu de la concurrence scientifique de façon plus saine, d’articuler la quête de l’excellence à la quête de la qualité. Plusieurs pays se sont démarqués de cet indicateur et ont bâti leurs propres métriques, notamment en Amérique Latine avec SCIELO.

Table-ronde – Rendre les travaux librement accessibles : quel intérêt pour un chercheur ?
Il a été demandé aux 4 intervenants – des « power users » de Hal, issus de différents organismes de recherche, qui déposent beaucoup – comment ils percevaient leur plateforme :
– Importance de Hal pour repérer la littérature grise : le fait que Hal héberge d’autres types de documents que les articles (thèses, rapports…) est très apprécié : il permet de mettre en valeur facilement toutes les publications sur un projet, ainsi que de collaborer sur des documents non publiables (cas d’un document de travail alimenté en commun dans le cadre d’un projet européen)
– Intérêt principal pour le chercheur : avoir la liste complète de ses publications à un seul endroit, et pouvoir l’utiliser pour alimenter une page perso, ou la page de son laboratoire.
– Hal est un moyen de mettre sa production à disposition du public (qui n’a pas forcément accès aux revues en ligne dans lesquelles la recherche est publiée), mais pas un système de validation (ce rôle reste celui de la revue). C’est un auxiliaire utile, mais pas un outil de travail principal.
– Forte utilisation de Google ou Google Scholar comme point d’entrée dans une recherche, les chercheurs se tournent vers les bases de données spécialisées à partir du moment où ils veulent citer des articles. Hal n’est pas utilisé comme moteur de recherche.
– Le fait que les dépôts dans Hal soient assez rapidement indexés par Google Scholar est un vrai plus pour se faire connaître et de se faire citer.
– Hal est devenu petit à petit un outil partagé par les chercheurs, un point commun entre différentes institutions, toutes disciplines confondues.
– En ce qui concerne les améliorations souhaitées : plus d’automatisation pour repérer les travaux publiés dans les bases des éditeurs et demander aux auteurs de déposer, une compatibilité avec d’autres outils que Pubmed et ArXiv ; Endnote est cité.
[photos : Vestman, Waltarrrr]

Retour de scène

Avec quelques collègues twitterers, nous avons couvert le colloque de Lille en direct avec l’outil en ligne Cover it live, que j’avais déjà vu à l’oeuvre pour la session Top Tech Trends de la conférence LITA forum : notes du 26/11notes du 27/11.

J’ai trouvé l’expérience plutôt réussie : le système permettant de se connecter à Twitter, il a été possible d’agréger aux commentaires faits sur Cover it live tous les messages twittés avec le hashtag #epef09, ainsi que des photos, ou des liens vers les sites mentionnés par les intervenants. Les stats indiquent une centaine de visiteurs uniques pour chaque journée, ce qui n’est pas rien pour un premier essai.

J’ai l’impression que ce genre de pratique va se propager, l’étape suivante étant, à mon avis, de faire entrer cette « manifestation parallèle numérique » en amont, ie dans l’organisation des colloques et autres journées d’étude : au même titre que les viennoiseries de la pause café, il faudrait prévoir de bonnes conditions pour une couverture numérique des événements : des prises électriques, de la wifi (ça en général, ça va), mais aussi un signalement des opérations « live » sur la page d’accueil de la manifestation, une présence de la manifestation sur les réseaux sociaux (page facebook, hashtag prédéfini), etc.

C’est ma 2ème expérience de « reporting numérique » cette année (la première c’était pour le blog des journées AO de Couperin), et je trouve tout cela très stimulant ; le fait de pouvoir partager le travail dans une sorte de compte-rendu collaboratif est à la fois rassurant (surtout quand les journées sont denses, on est moins stressé à l’idée de manquer un passage trop technique par exemple) et un peu contraignant : sachant que mes commentaires sont suivis par mes pairs en direct, j’essaye de ne pas dire trop de bêtises, voire de dire des choses intéressantes ;-).

Une pratique que je tâcherai de renouveler, sans aucun doute.

<Update>Gaël détaille l’opération de live-blogging sur son tout nouveau blog 24 hour library people<Update>

Impressions de Lille

J’ai assisté les 26 et 27/11/2009 à la 2ème édition du colloque international EPEF (Évaluation des périodiques électroniques dans le réseau universitaire français : approche comparative par les usages). La thématique de cette année était « Ressources électroniques académiques : mesures et usages« . Je ne ferai pas de compte-rendu ici, parce que des actes très complets seront publiés au printemps 2010. Et parce que tous les supports de présentation seront disponibles en ligne (et traduits même, pour les interventions en anglais). Je me contenterai d’un focus sur quelques points qui m’ont paru intéressants :

– A propos des mesures d’usage : qu’est-ce qu’on comptabilise réellement ? Des articles, des téléchargements ? Ni l’un ni l’autre, pour Dominique Rouger (Université Jean Monnet, Saint-Etienne), qui préfère parler de SFTAR (Successful Full-Text Access Requests). Il propose en outre une manière originale de former l’ensemble des personnels d’une BU à l’utilisation des ressources électroniques, en leur demandant d’interroger une revue en ligne par jour. Ce qui a pour corollaire l’augmentation des statistiques d’usage et devrait donc entraîner une baisse proportionnelle des coûts à l’article – ce qui n’est pas vraiment le cas, car toutes les requêtes ne se valent pas (il distingue les requêtes académiques, les requêtes pédagogiques et les requêtes de manipulation), et tout ce qui est comptabilisé n’est pas pertinent.

– A la bibliothèque de l’Université de Wageningen, aux Pays-Bas, Marco Van Weller établit un coût prévisionnel des revues en fonction des coûts et statistiques d’usage de l’année précédente (vous trouverez les formules mathématiques dans son diaporama) ; comme bon nombre de BU, il n’a guère de marge de manoeuvre pour faire évoluer sa politique documentaire : 90% de son budget pour les ressources électroniques étant consacré à des bouquets, seuls les 10% restants peuvent faire l’objet d’ajustements.

– Il a pas mal été question de l’usage des archives ouvertes et des ressources libres, avec 2 questionnements un peu différents :

* Comment le mesurer l’usage des AO, sachant que les utilisateurs sont de plus en plus nomades, et que le site de la bibliothèque est loin d’être leur point d’accès privilégié ? La solution passe apparemment par la création d’un identifiant unique (comme le DOI existant pour les articles du secteur commercial) pour la littérature grise. [A noter également, sur la question des rapports entre AO et bibliométrie, l’approche qui consiste, comme c’est le cas à l’Université de Wageningen, à utiliser l’AO comme source de l’analyse bibliométrique, avec la conséquence non négligeable qu’un affichage plus visible de l’activité de recherche sur le web motive fortement le dépôt par les chercheurs.]

* Comment promouvoir l’usage des revues en open access (OA) auprès des communautés scientifiques ? L’étude menée par Revues.org montre des résultats symétriquement opposés en terme de public touché par Revues.org et Cairn (les étudiants consultent Cairn, Revues.org touche plus les étudiants avancés et les chercheurs). Il y a vraisemblablement un lien avec le fait que Cairn, payé par les bibliothèques qui s’y abonnent, bénéficie d’une promotion que n’a pas Revues.org, en libre accès. Car politique documentaire et libre accès, cela ne va pas de soi : il me semble avoir déjà évoqué ici le désintérêt des bibliothécaires pour ce qui se passe sur le web en dehors du site de la bibliothèque en général, cela semble se confirmer. Cela dit, les revues en OA comme les archives ouvertes, si elles sont en accès libre, ne sont pas pour autant « gratuites » (il y a toujours quelqu’un qui paye) : il y aura donc forcément un jour ou l’autre à évaluer leur intérêt pour leurs financeurs (les universités, les organismes de recherche et autres acteurs institutionnels). D’où l’importance de leur promotion et de la mesure de leur usage. Est-ce aux bibliothèques d’assurer cette promotion ? Cela ne semble pas encore acquis dans les pratiques de politique documentaire actuelles.

Ce ne sont que quelques-uns des thèmes abordés aux cours de ces journées très intéressantes – et très denses -, je mettrai le lien vers les interventions dès qu’elles seront disponibles, en espérant que les actes seront peut-être sous forme numérique ? On ne sait jamais…

[photos : marlened, Gideon Burton]

<UPDATE>Les supports des différentes présentations sont en ligne sur le site de l’EPEF.</UPDATE>

Library101 !

Finie la « bibliothèque 2.0 » : depuis hier, la nouvelle hype, c’est « Library101 » !

Library101, c’est un projet de David Lee King et Michael Porter, bibliobloggueurs de longue date, qui souhaitent aider les bibliothécaires à entrer dans le XXIème siècle, en ayant pleinement conscience des enjeux que font porter les mutations en cours dans notre « société de l’information » sur notre métier. Etre bibliothécaire aujourd’hui (et demain !), c’est maîtriser un certain nombre de compétences, savoirs-faire et autres savoirs tout court, en terme de communication, de technologies, de présence en ligne, pour pouvoir rester en phase avec sa communauté de service. C’est ce que David et Michael rappellent avec cette initiative, qui connaît déjà un certain succès : + de 2000 fans sur la page Facebook du projet. Sur le site on trouve :

– des liens (Resources To Know)

– des textes (Essays) rédigés par 2 douzaines de professionnels réputés du monde des bibliothèques anglophones

– et bien sûr la vidéo (ci-dessus), illustrée de photos et vidéos envoyées par + de 500 professionnels des bibliothèques du monde entier (oui, j’y suis. plusieurs fois, même)

Le site a été lancé hier après-midi en direct de Monterey, Californie, lors d’Internet Librarian 2009. L’intervention a été filmée, à l’instar de certaines keynotes des jours précédents ; toutes les vidéos sont disponibles sur la chaîne ILive, alimentée par l’équipe des Shanachies ; je vous recommande l’interview de Paul Holdengraber de la New York Public Library par Erik Boekesteijn : c’est pertinent, drôle, « inspirational »… réussi, quoi.

Université d’été du CLEO – Table ronde 2/2

3916382107_eebc85816d_m.jpgSuite du compte-rendu de la table-ronde de clôture de l’Université d’été du Centre pour l’édition électronique Ouverte. Dans cette deuxième partie, la parole est aux chercheurs et responsables de revues, puis conclusion et séance de questions / réponses.

RIVES (Laboratoire TELEMME, L. Verdon)
La revue Rives nord-méditerranéennes est la vitrine de la recherche du laboratoire.
Numéros thématiques (6-10 articles), pas de contributions isolées. Rubrique «Jeunes chercheurs» pour aider à la publication d’une première contribution.
Les chercheurs souhaitent maintenir les 2 supports, car le livre en tant qu’objet esthétique attire du lectorat ; de plus, le livre a un rôle social lors des colloques et autres événements auxquels le laboratoire participe : il est offert en cadeau aux participants, échangé contre d’autres publications…
La revue est présente sur Revues.org depuis 2001 ; la principale valeur ajoutée de la présence sur la plateforme est l’appartenance à une communauté, un réseau de revues. L’équipe éditoriale apprécie également les outils statistiques fournis par la plateforme, qui lui permettent d’avoir une vision plus précise de lectorat (langue, temps de consultation, mots-clé utilisés pour la recherche…), et de voir les conséquences en cas de changement de politique éditoriale (recul de la barrière mobile par exemple).

Le laboratoire TELEMME expérimente par ailleurs un partenariat avec l’INA et la MMSH pour la valorisation d’archives télévisuelles : construite sur la base de la ressource «Jalons» produite par l’INA, «Repères méditerranéens» met en scène l’histoire de la région des années 1940 à aujourd’hui. Le laboratoire intervient pour l’accompagnement scientifique du projet : vérification des métadonnées et rédaction d’un appareil critique par les chercheurs.

REMMM (Laboratoire IREMAM, F. Siino)
Revue associative hébergée par l’IREMAM, qui lui délègue une secrétaire de rédaction, la Revue des Mondes Musulmans et de la Méditerranée reste indépendante du laboratoire. C’est une revue d’aire culturelle, pluridisciplinaire SHS.
2 numéros par an, thématiques mais avec un espace pour des contributions extérieures hors thème. Nombreux compte-rendus d’ouvrages.
Opposition de l’éditeur historique (papier) à une version électronique, d’où une présence réduite sur internet (compte-rendus puis résumés puis introductions). Depuis 2 ans, la revue travaille avec les Presses de l’Université de Provence (PUP), ce qui a permis la mise en ligne du texte intégral avec une barrière mobile de 3 ans. Un important chantier de rétro-conversion a été mené (40 années d’archives), avec le soutien de Revues.org et de Persée. Un travail assez lourd de recherche des auteurs pour l’obtention des autorisations de diffusion des articles a eu lieu en parallèle.

Revues.org travaille sur la continuité des collections avec Persée : l’interopérabilité passe par les échanges de sommaires et une indexation réciproque – pour pouvoir faire des recherche sur la totalité du corpus – (qui sera opérationnelle dans la nouvelle version du portail).

Presses de l’Université de Provence (JB Cholbi, B. Cousin, L. Denoix)
La réflexion sur le devenir des éditions papier est en cours aux PUP.
Une plateforme Lodel a été installée à l’Université de Provence, elle permet de gérer le portail des revues de l’Université de Provence (38 titres) ; elle est également utilisée comme support pour des communications et des colloques (ex : Littemu). C’est un axe qui pourrait être développé pour valoriser les 300+ colloques annuels organisés par l’université. Pour les revues, il s’agit plus d’une solution d’hébergement temporaire avant d’aller sur Revues.org. Lodel est également utilisé pour gérer la mise en ligne de bibliographies.

107836657_9b249c6349_m.jpgConclusion
Il est désormais question d’une édition électronique ouverte :
– sur ce qu’elle va devenir (ouverte à une réflexion commune)
– qui s’appuie sur des logiciels en open source
– à la lecture et à l’écriture
– à tous les acteurs de la chaîne du livre (y compris auteurs et lecteurs).


Questions / Réponses

Q1 : Pourquoi ne pas étendre la cotisation à d’autres acteurs (laboratoires, programmes de recherche…) ? Importance symbolique de ce type de participation : logique de coopération, pas seulement de service.
R1 : La cotisation annuelle pourra être évolutive et couvrir des regroupements de laboratoires ; il y a des partenariats institutionnels qui restent à inventer.
Rappel de l’enquête menée conjointement avec Cairn sur le lectorat : la pyramide des âges montre que les lecteurs de Revues.org sont plutôt âgés et ceux de Cairn plutôt jeunes ; il y a vraisemblablement un lien avec le fait que les bibliothèques font la promotion de Cairn qui est un service qu’elles payent (abonnement annuel). La cotisation est peut-être un moyen de jouer sur l’inégalité de traitement des intermédiaires culturels que sont les bibliothèques.

Q2 : Quelles sont les conditions pour la mise en ligne d’une édition en ligne différente de l’édition papier (coût des images, traitement des documents iconographiques…) ?
R2 : Une édition enrichie est plus difficile à mettre en oeuvre, en général. De plus Revues.org n’a pas vocation à être diffuseur de sources, car d’autres institutions publiques sont en train de mettre cela en place (TGE Adonis, Medi-Hal…). Revues.org offre tout de même certaines possibilités : insertion de cartes multimedia en flash, encapsulage de fichiers mp3, insertion de vidéos (en provenance d’un portail patrimonial par exemple), d’albums photos Flickr. La plateforme est ouverte aux expérimentations : la seule contrainte, c’est que ce les solutions soient faciles à mettre en oeuvre et techniquement durables.
Le coût des images est un problème, qui aboutit à la publication d’articles de recherche indigestes (sans images puisque les droits sont trop chers), qui ne font évidemment pas le poids face aux éditions commerciales richement illustrées, qui attirent plus le grand public. Il est de plus en plus nécessaire de repenser le droit (et en particulier le droit d’auteur) pour régler ce type de problème qui finit par verrouiller une partie du patrimoine culturel de l’humanité.

Q3 : Sur la monétisation du téléchargement : n’y a-t-il pas un paradoxe entre la rapidité technique de traitement des informations et les barrières mobiles imposées par les modèles économiques ?
R3 : Revues.org promeut l’Open Access total (politique d’incitation), mais c’est la revue qui choisit. La cohabitation entre le gratuit et le payant permet de maintenir l’édition électronique dans l’économie. Les choses se font progressivement, souvent par la réduction de la barrière mobile. Il y a une question pratique aussi : certaines revues n’ont pas les ressources humaines nécessaires pour traiter tous les textes, la barrière mobile permet d’absorber le flux. Pour réduire ce paradoxe, une solution pourrait être une édition tout-électronique avec impression à la demande ; l’enjeu de ce type de solution, c’est la mutualisation des moyens pour sortir de l’artisanat expérimental et passer en mode «industriel» – d’où l’intérêt absolu du travail en réseau. Le numérique ne doit pas être considéré comme un service, mais faire partie de la démarche de recherche.

[photos : treehouse1977, Greg Gladman]


janvier 2019
L M M J V S D
« Oct    
 123456
78910111213
14151617181920
21222324252627
28293031  

Archives

Licence

Licence Creative Commons
Ce(tte) œuvre est mise à disposition selon les termes de la Licence Creative Commons Attribution 3.0 France.
Publicités