Archive for the 'Tendances' Category

Sci-Hub : analyse croisée

33297043401_0b87a9eb6c_zBastian Greshake, un doctorant en biologie de l’université de Francfort, a eu l’idée de croiser les données sur les 28 millions de téléchargements effectués sur Sci-Hub en 2015-2016 avec les 62 millions de DOI stockés dans la base , voici quelques-uns des résultats qu’il a pu observer :

  • 35% des articles téléchargés ont moins de 2 ans, ce qui a  tendance à montrer l’inefficacité des embargos imposés par les éditeurs
  • Il y a un effet de longue traîne, avec des articles téléchargés datant d’avant 1900 : « enclosure » du domaine public vendu sous forme de bouquets d’archives ?
  • Moins de 10% des revues constituent plus de 50% des contenus de la base, et moins de 1% des revues représentent plus de 50% des téléchargements d’articles
  • Près de 50% des articles téléchargés proviennent de revues éditées par 3 éditeurs : Elsevier, Springer-Nature et Wiley, avec pour ce dernier une sous-représentation dans les téléchargements compte-tenu de la part de contenus présents dans la base.
  • Forte représentation de la chimie et, dans une moindre mesure, des sciences de l’ingénieur parmi les titres les plus demandés : pour l’auteur c’est à mettre en lien avec le fonctionnement de ces disciplines, pour lesquelles la part de recherche effectuée dans le secteur privé est importante, et pour laquelle on peut supposer plus de difficultés d’accès aux ressources numériques payantes que dans le secteur public.

Source : Looking into Pandora’s box : the content of Sci-hub and its usage

A noter : La diffusion de la liste des 62 millions de DOI contenus dans la base a déjà inspiré quelques développements, comme par exemple cet utilitaire qui permet de voir le pourcentage de couverture sur sci-hub, par revue.
[Photo : Astyan42]

Publicités

APC : Combien ça coûte ?

6736154311_9a0a3a44ba_mJ’ai travaillé en mars dernier sur une évaluation du coût des frais de publication (APC) en accès ouvert pour mon établissement. Ce fut une expérience assez intéressante, j’en note ici les points saillants pouvoir reproduire l’opération les années suivantes.

La démarche

A partir du Web of Science, j’ai limité mes résultats 2013 aux articles en OA : il existe depuis quelques mois une case à cocher qui permet de faire ça. Une fois les données extraites sur Excel, on passe à la recherche du coût des APC pour chaque éditeur, voire revue.

Les difficultés

– Tomber sur des éditeurs qui calculent leurs APC en fonction du nombre de pages de l’article, et aller voir le nombre de page de chaque article pour recalculer un coût plus juste.

– Manquer d’info sur les adhésions des auteurs à telle ou telle société savante : des tarifs préférentiels sont parfois proposés par ces sociétés à leurs membres ; en l’absence d’information, j’ai récupéré le coût le plus élevé.

– Réaliser après coup qu’en fait tous les « corresponding authors » ne sont pas forcément de mon établissement, et reprendre *tous* les articles pour vérifier ; je suis partie du principe que c’est l’établissement de « l’auteur correspondant » qui paye l’APC, c’est une hypothèse qui demande à être vérifiée.

Combien de temps ça m’a pris ? A la grosse louche, je dirai une trentaine d’heures étalées sur 2 mois , mais j’ai perdu du temps en revenant sur des choses que je n’avais pas prévues au départ. Ce qui prend du temps, c’est de trouver la politique des éditeurs et le modèle tarifaire des APC : pour plus de la moitié des éditeurs, il n’y a pas de page dédiée qui détaille les coûts et les différentes options, l’accès à l’information n’est pas facile – il m’est arrivé d’écrire à un éditeur pour savoir si sa revue était bien en OA, et à quel coût.

La suite ?

Ce qu’il faut maintenant, c’est que je puisse croiser mes résultats avec l’outil comptable de l’université, en ayant bien conscience de 2 écueils potentiels avec cette méthode : d’une part tous les APCs ne sont pas forcément payés sur des crédits universitaires, et d’autre part les APCs pour des articles hybrides seront sans doute difficiles à repérer (comment les distinguer des frais de publication « traditionnels » ?) ; je compte reproduire l’opération en mars prochain, pour voir comment ça a évolué.

« La référence, c’est mort »

« On a besoin de gros serveurs et d’informaticiens pour les faire tourner, » selon Neiburger. « Qu’allons-nous supprimer pour pouvoir recruter un informaticien ? Nous allons « tailler » dans le personnel du service de références. La référence, c’est mort. »
Bien qu’un bibliothécaire bien formé apporte une plus-value certaine à un entretien de référence, il se trouve que l’usager d’aujourd’hui, habitué à faire ses recherches sur Google, n’en a cure, et les bibliothécaires n’arrivent pas à s’y résoudre, d’après Neiburger.
« Les agences de voyages se sont démodées parce que les gens ont eu l’impression d’avoir un meilleur accès à l’information que ce que les agences leur proposaient. Nous sommes dans une situation similaire », ajoute-t-il. Dans son rapport « Perceptions of Libraries » de 2010, OCLC soulignait que 84% des consommateurs d’informations démarraient leurs recherches avec un moteur de recherche. Aucun des répondants à l’enquête ne commençait par un site de bibliothèque.
« Les bibliothécaires doivent accepter ce fait, et y voir une opportunité, » pour Neiburger.
« Les bibliothécaires professionnels doivent être dans les coulisses, et leur temps utilisé avec discernement. Et on peut faire beaucoup d’économies en employant du personnel de qualification différente au bureau de références. » Le fait de repenser le service de référence permettra de libérer des ressources pour construire des infrastructures de stockage et employer du personnel qualifié pour les gérer.
« Cela signifie d’avoir des informaticiens qui travaillent pour vous, et pas pour vos fournisseurs, dit-il. »

Pour Eli Neiburger, directeur adjoint de la bibliothèque d’Ann Arbor et responsable des aspects informatiques, l’enjeu c’est d’avoir le contrôle des données : l’exemple donné est celui de l’accord conclu entre la sa bibliothèque et le fournisseur Magnatune, pour la diffusion de musique en ligne – téléchargeable – à ses publics. Les fichiers sont hébergés localement et diffusés sans restrictions de type DRM. Et sa solution pour obtenir les ressources humaines nécessaires pour faire tourner tout ça, c’est de mettre des « paraprofessionnels » – en France, je pense qu’on dirait des bénévoles – aux bureaux de renseignements.
Effectivement, si la permanence au bureau de renseignements se résume les 3/4 du temps à fournir une agrafeuse/un crayon/du scotch ou indiquer les toilettes/la banque de prêt/les horaires d’ouverture, on peut peut-être se poser la question.
Geeks Are the Future: A Program in Ann Arbor, MI, Argues for a Resource Shift Toward IT
[photo : warhead]

Machine à (garder ses) sous

L’étude The value of UK HEI’s to the publishing process du JISC s’est penchée sur le coût des publications scientifiques pour les établissements d’enseignement supérieur et de recherche du Royaume-Uni, sachant que :
– la communication scientifique ne peut pas se passer du peer-review
– le peer-review est réalisé gratuitement par les chercheurs
– le nombre d’articles scientifiques est en augmentation constante, et donc le peer-review aussi.
Elle arrive à des chiffres non négligeables :
– le travail de peer-review est estimé à entre 110 et 165 millions de £
– la participation à des comités éditoriaux représente 30 millions de £
Si l’on ajoute à cela la dépense annuelle des établissements consacrée aux abonnements en ligne, pour pouvoir consulter les articles de revues, estimée à entre 113 et 121 millions de £, la facture se monte annuellement à entre 253 et 316 millions de livres sterling, ie entre 300 et 400 millions d’euros.
Avec de telles sommes, les établissements ne pourraient-ils pas mettre en place un système de production, de diffusion et de conservation de l’information scientifique ? C’est ce que propose Brad Wheeler, de l’Université de l’Indiana dans cet article d’Educause Review, avec « the Big Digital Machine », un concept en cours d’élaboration au sein du Committee on Institutional Cooperation, un consortium d’universités du nord ouest des Etats-Unis. Le principe est que si les établissements se réapproprient leur recherche, ils seront en mesure d’en définir les modes d’accès, aussi bien en terme de droits qu’en termes techniques – l’idée c’est aussi de s’appuyer sur les outils existants, qui ont fait leurs preuves, comme Open Journal Systems (OJS), Fedora/DSpace/DuraSpace, Connexions, EPrints pour pouvoir gérer la totalité du workflow des publications. Une infrastructure de ce type pourrait fédérer aussi bien les sociétés savantes que les presses universitaires, voire les « petits » éditeurs pas encore passés au numérique. Tentant…

[Photo : cobalt123]

Q/R : trouver sa niche

« La conclusion à laquelle je veux arriver est celle-ci : il existe désormais un marché pour répondre aux besoins d’informations. Les bibliothèques sont un des acteurs de ce marché, mais seulement un parmi d’autres, et pas forcément le plus connu ni le meilleur. Le seuil pour entrer dans ce marché est bas, il faut donc s’attendre à ce qu’il y ait d’autres entrants. Quand un opérateur jusque là unique se retrouve soudainement face à la concurrence, ledit opérateur doit changer son modèle économique ou couler. Ma conclusion ? Les bibliothèques doivent abandonner l’idée que les services de questions / réponses font partie du coeur de leurs services. Ce n’est pas le cas. C’est quelque chose que nous faisons pour apporter de la valeur ajoutée au reste des prestations de nos bibliothèques. Il ne faut peut-être pas laisser complètement tomber, mais plutôt se spécialiser dans des domaines que les bibliothèques sont les seules à pouvoir couvrir. Nous devons définir quels peuvent être ces domaines qui nous sont uniques, honnêtement. En d’autres termes, quelle est notre niche sur le marché ? Et, comme les bibliothèques ne sont pas vraiment en concurrence avec les autres acteurs de ce marché (puisque personne ne gagne de l’argent avec les services de questions / réponses), nous devons accepter d’externaliser certaines questions à ces acteurs là. »

Jeffrey Pomerantz sur son blog, à propos de l’annonce faite par Facebook d’un prochain service de questions / réponses « social ».

J’ai envie d’ajouter que *pour l’instant* ce type de service ne fait pas gagner d’argent, mais cette annonce ajoutée au rachat d’Aardvark par Google il y a quelques mois laisse présager que ça risque de ne pas durer…

[photo : shaggy359]

OPAC is (really) dead

« Jane Burke, VP de Serials Solutions, a décrit comment les ressources électroniques éloignaient de plus en plus les bibliothèques de leurs usagers dans le processus de recherche. Et sa conclusion fut, sans équivoque, que « le modèle traditionnel d’utilisation de la bibliothèque est fini », et que « l’OPAC est vraiment mort ».

Des études de ProQuest, d’Ithaka, d’OCLC et d’autres montrent que l’OPAC n’est plus le premier outil de découverte ou le point de départ des recherches. Les dépenses des bibliothèques portent désormais en priorité sur les ressources électroniques, mais les OPAC couvrent moins de la moitié de ces ressources – ils excluent les articles de revues et les projets de numérisation des collections spécialisées.

La perception des usagers de la valeur et de la qualité de la bibliothèque reste très forte, remarque Burke. Cependant, les étudiants ont des difficultés à naviguer entre des douzaines d’interfaces et de stocks de contenus. Le point d’entrée le plus simple pour une recherche, c’est Google, qui, selon de nombreux enseignants, est la source du déclin de la qualité du travail de recherche fait par les étudiants. La solution ? « Accepter le nouveau modèle de recherche, » suggère J. Burke. « Accepter un risque à court terme pour éviter une désintermédiation à long terme, laisser tomber nos règlements, et simplifier les choses. »

Extrait de E-access changes everything, compte-rendu dans Library Journal de la Charleston Conference de novembre dernier, par Carol Tenopir.

[photo : Brave Heart]

Retour de scène

Avec quelques collègues twitterers, nous avons couvert le colloque de Lille en direct avec l’outil en ligne Cover it live, que j’avais déjà vu à l’oeuvre pour la session Top Tech Trends de la conférence LITA forum : notes du 26/11notes du 27/11.

J’ai trouvé l’expérience plutôt réussie : le système permettant de se connecter à Twitter, il a été possible d’agréger aux commentaires faits sur Cover it live tous les messages twittés avec le hashtag #epef09, ainsi que des photos, ou des liens vers les sites mentionnés par les intervenants. Les stats indiquent une centaine de visiteurs uniques pour chaque journée, ce qui n’est pas rien pour un premier essai.

J’ai l’impression que ce genre de pratique va se propager, l’étape suivante étant, à mon avis, de faire entrer cette « manifestation parallèle numérique » en amont, ie dans l’organisation des colloques et autres journées d’étude : au même titre que les viennoiseries de la pause café, il faudrait prévoir de bonnes conditions pour une couverture numérique des événements : des prises électriques, de la wifi (ça en général, ça va), mais aussi un signalement des opérations « live » sur la page d’accueil de la manifestation, une présence de la manifestation sur les réseaux sociaux (page facebook, hashtag prédéfini), etc.

C’est ma 2ème expérience de « reporting numérique » cette année (la première c’était pour le blog des journées AO de Couperin), et je trouve tout cela très stimulant ; le fait de pouvoir partager le travail dans une sorte de compte-rendu collaboratif est à la fois rassurant (surtout quand les journées sont denses, on est moins stressé à l’idée de manquer un passage trop technique par exemple) et un peu contraignant : sachant que mes commentaires sont suivis par mes pairs en direct, j’essaye de ne pas dire trop de bêtises, voire de dire des choses intéressantes ;-).

Une pratique que je tâcherai de renouveler, sans aucun doute.

<Update>Gaël détaille l’opération de live-blogging sur son tout nouveau blog 24 hour library people<Update>


septembre 2017
L M M J V S D
« Août    
 123
45678910
11121314151617
18192021222324
252627282930  

Archives

Licence

Licence Creative Commons
Ce(tte) œuvre est mise à disposition selon les termes de la Licence Creative Commons Attribution 3.0 France.