Archive for the 'Tendances' Category

Les évolutions du plan S (en 20 points)

2943090657_2fcb658a44_oSPARC Europe a publié sur son site un rapport sur les changements dans le plan S suite à la consultation publique (dont l’ensemble des contributions vient d’être rendue publique sur Zenodo) sur le guide d’implémentation dudit plan. Voici une traduction du résumé du rapport, pour se faire une idée des principales évolutions du Plan S.

Résumé des 20 changements majeurs du Plan S

  1. La date d’entrée en vigueur a été reportée d’un an à 2021. La cOAlition S encourage ses membres financeurs à mettre en œuvre les principes du Plan S pour toutes les subventions octroyées à partir de janvier 2021, en fournissant maintenant des instructions claires sur le moment et la manière dont ces principes doivent être appliqués.
  2. Le Plan S aborde la question de l’accès ouvert (Open Access) à la recherche issue non seulement des subventions publiques mais aussi des subventions privées, élargissant ainsi la portée des contenus potentiels à “libérer” en OA. La nouvelle version de ce principe du plan S s’adresse à un éventail plus large de types de financeurs, y compris les conseils de recherche et les organismes de financement internationaux, nationaux et régionaux.
  3. Le principe fondamental, ainsi que certains autres critères du plan S incluent maintenant les archives ouvertes comme un lieu de dépôt en accès ouvert immédiat et sans embargo, au même titre que les revues et plateformes en accès ouvert. L’ancien critère consacré aux archives ouvertes devient de fait superflu.
  4. La cOAlition S procède actuellement à une analyse des écarts entre les disciplines afin d’accroître la part des revues ou des plates-formes en accès ouvert. La cOAlition S élaborera des mesures incitatives pour la constitution de nouvelles revues et plates-formes dans les domaines où des besoins et des écarts existent.
  5. La cOAlition S examinera plus en détail les risques transitoires portés par l’accès ouvert perçus par les sociétés savantes.
  6. La cOAlition S définit plus clairement la notion de plate-forme en accès ouvert, qui ne regroupe pas ou ne republie pas des documents déjà publiés, par exemple Wellcome Open Research ou Gates Open Research.
  7. Les auteurs ou leurs institutions doivent conserver leurs droits d’auteur sans avoir à payer de frais supplémentaires. La cOAlition S a également l’intention de fournir des mécanismes à l’appui en développant ou en adoptant un modèle de « licence de publication » pour leurs bénéficiaires, afin de s’assurer qu’aucun auteur n’ait besoin de négocier individuellement avec les éditeurs pour diffuser un article en accès ouvert. Les « licences de publication » accordées aux éditeurs doivent désormais garantir qu’un auteur ou une institution peut, dès la publication, mettre à disposition la version de reference (version of record, VoR), le manuscrit accepté de l’auteur (author accepted manuscript, AAM) ou les deux versions sous une licence ouverte via archive ouverte.
  8. La cOAlition S s’engage également à s’assurer que les auteurs ou les institutions conservent le droit d’auteur et le droit de mettre immédiatement à disposition une version de l’article (soit la version de référence (VoR), soit le manuscrit accepté de l’auteur (AAM) soit les deux) sous licence ouverte en le précisant dans leurs contrats ou accords de financement – si possible.

Le dépôt du manuscrit accepté de l’auteur ou de la version de reference dans une archive ouverte constitue désormais le seul moyen d’assurer la conformité des publications dans des revues sur abonnement qui ne font pas l’objet d’accords transformants.

  1. La cOAlition S exige maintenant que la licence CC BY 4.0 soit l’option par défaut pour les articles, les alternatives secondaires étant la licence CC BY-SA 4.0 et la liecence CC0. Il autorise également la licence CC BY- ND sur demande justifiée par le bénéficiaire de la subvention.
  2. La demande de normalisation et de plafonnement des APC a été atténuée par les nouveaux critères. Elle a été remplacée par des demandes de mécanismes de tarification équitable par rapport au service offert et favorisant une plus grande transparence en matière de coûts. Ceux-ci peuvent être normalisés et plafonnés à l’avenir si des niveaux de prix déraisonnables sont observés.

La cOAlition S s’efforcera également d’obtenir la transparence sur la tarification de divers services tels que la sélection, l’examen par les pairs, le travail éditorial et la correction pour établir des prix de publication équitables. Il sera demandé aux éditeurs de fournir une ventilation des prix au niveau de l’éditeur, et si possible au niveau de la revue.

Pour plus de transparence, « La revue ou la plateforme doit fournir, sur son site Web, une description détaillée de ses politiques éditoriales et de ses processus décisionnels. En outre, des statistiques de base doivent être publiées au moins une fois par an, portant notamment sur le nombre de soumissions, le nombre de validations demandées, le nombre de validations reçues, le taux d’approbation et le délai moyen entre la soumission et la publication. »

La cOAlition S cherche également à encourager les gouvernements, les universités, les organismes de recherche, les bibliothèques, les académies et les sociétés savantes à aligner leurs stratégies, politiques et pratiques pour assurer la transparence.

  1. La cOAlition S réitère son soutien aux modèles sans APC et à une vaste gamme de plates-formes innovantes d’accès ouvert ainsi qu’à d’autres mécanismes bien établis de mise en œuvre immédiate de l’accès ouvert, et envisage d’apporter un soutien financier collectif en cas de besoin.
  2. La cOAlition S mène une action concertée pour limiter les coûts de l’accès ouvert pour les chercheurs des pays à revenu intermédiaire et à faible revenue, en élaborant des recommandations pour la réduction et la suppression des frais de publication. En outre, les revues et plateformes doivent prévoir des dérogations et des remises pour ces pays ou pour certains auteurs dont les motivations peuvent être démontrées. Il est important de noter que des statistiques sur les dérogations demandées et accordées doivent également être fournies.

Dans ce contexte, le paiement ou la dispense de frais de publication ne doit en aucun cas influencer la décision éditoriale concernant l’acceptation d’un article.

  1. Bien que les organismes financeurs de la cOAlition S déclarent qu’ils ne soutiennent pas l’édition hybride, le principe de refuser purement et simplement l’édition hybride a été supprimé. Au lieu de cela, les organismes financeurs sont autorisés à soutenir l’édition hybride dans le cadre d’accords de transformation temporaires, tandis que les chercheurs individuels, les institutions de recherche, les autres financeurs et les gouvernements sont invités à ne pas soutenir financièrement l’édition hybride.
  2. Les accords transformants seront soutenus jusqu’à la fin de 2024. La cOAlition S utilisera 3 stratégies : les accords transformants, les modèles d’accords de transition et les revues transformantes. Par exemple, les modèles d’accords de transition aideront les maisons d’édition des sociétés savantes et les petites et moyennes maisons d’édition à passer à un modèle de diffusion en libre accès. De plus, la cOAlition S « ne soutiendra financièrement les accords après le 1er janvier 2021, que lorsqu’ils sont conformes aux recommandations de l’ESAC.”.
  3. Dans le Guide de mise en œuvre, la cOAlition S clarifie précisément ce qu’elle paiera et ce qu’elle ne paiera pas pour ouvrir l’accès à la recherche.
  4. Un nouveau principe a été ajouté, exprimant l’engagement des organismes de financement de cOAlition S à évaluer les résultats de la recherche lors des décisions de financement en fonction de leur valeur intrinsèque, sans tenir compte des métriques des revues comme le facteur impact, le canal de publication ou l’éditeur. Les membres de cOAlition S intégreront ce type de principes à leurs politiques avant janvier 2021.
  5. La cOAlition S reconnaît également « l’importance pour les chercheurs en début de carrière que les institutions employeuses s’engagent à réviser leurs procédures (d’évaluation de la recherche) et à les faire progresser vers une mise en œuvre dans la période transitoire du Plan S”.
  6. Plusieurs des exigences de conformité pour les plates-formes, les revues et les dépôts en accès ouvert ont été revues à la baisse. Plus précisément, les exigences relatives aux archives ouvertes portent principalement sur l’inclusion de métadonnées de format non exclusif interopérables et de haute qualité pour les articles sous licence CC0, d’identifiants pérennes pour les versions déposées, de licences lisibles par machine, d’informations sur le type d’accès ouvert et sur la licence, ainsi que d’information sur les organismes financeurs. Un temps de disponibilité des archives de 99,7% est également demandé.

Les critères fortement recommandés pour les archives ouvertes comprennent : des systèmes de soumission de manuscrits qui supportent à la fois les téléchargements d’auteurs individuels et les téléchargements en masse, le stockage du texte intégral au format JATS XML par exemple, le support d’identifiants pérennes (PID) comme ORCID, des données de citation ouverte (I4OC), des API ouvertes, une conformité à OpenAIRE des métadonnées et QA pour relier le texte intégral aux métadonnées bibliographiques.

Ceux-ci feront l’objet d’une étude en 2024 et pourraient alors devenir obligatoires.

  1. La cOAlition S travaillera avec certains services pour établir des mécanismes de contrôle de la conformité en accès ouvert qui seront définis dans le Guide de mise en œuvre, par exemple le DOAJ, OpenDOAR, SHERPA/RoMEO, ESAC.

La cOAlition S soutiendra également « le développement d’un outil dont les chercheurs pourront se servir pour savoir si leurs lieux de publication respectent les critères ».

  1. D’ici la fin 2024, la cOAlition S aura terminé une évaluation approfondie des conditions, des effets et de l’impact du Plan S, en accordant une attention particulière aux conséquences des accords transformants et de la diffusion en accès ouvert des articles de revue par le dépôt dans une archive ouverte.

On trouve dans le rapport complet plus de détails sur certains des principes du plan S.

[Disclaimer : je fais partie du board de SPARC Europe]

[Photo : Markus Mayer sur Flick / CC-BY-NC-SA]

Publicité

La reproductibilité, une corde à ajouter à l’arc des bibliothécaires ?

4048391932_b09fe9569a_oIntéressons-nous aujourd’hui à une tendance émergente dans le monde de la « bibliothéconomie des données » : la reproductibilité. En gros, il s’agit du fait de pouvoir reproduire les expériences et/ou les observations faites par des chercheurs, pour pouvoir d’une part vérifier qu’elles sont justes, mais aussi et surtout pour aller plus loin dans le travail de recherche à partir de ces données. Cela suppose notamment que les données en question soient accessibles bien sûr, mais aussi qu’elles le soient dans des formats normalisés pour pouvoir être manipulées. Et que les outils utilisés pour analyser ces données soient accessibles également.
Cela semble évident dit comme ça, mais c’est loin d’être le cas : depuis le milieu des années 2000, plusieurs études ont montré qu’entre la moitié et les trois quarts, selon les disciplines, des expériences publiées ne sont pas reproductibles, à tel point que l’on a parlé d’une « crise de la reproductibilité » scientifique. La psychologie et la médecine seraient les domaines les plus touchés par le problème.
Pour y remédier, les différents acteurs de la recherche ont mis en place différents outils et démarches : les registered reports (on détaille dans un article spécifique, avant le démarrage de la collecte des données, le processus de recherche qui va être appliqué, si celui-ci est validé, on poursuit), l’analyse collaborative des résultats (pour éviter les biais d’interprétation par un chercheur isolé), un effort sur la formation des chercheurs aux outils statistiques et d’analyse…
La New-York University elle, s’est dotée, en plus, d’une bibliothécaire chargée de la gestion des données de recherche et de la reproductibilité (« Librarian for research data management and reproductibility »). Dans l’article « Reproductibility librarianship » de la revue Collaborative librarianship, Vicky Steeves nous détaille ses fonctions (je traduis et résume) :

  • Formation des enseignants-chercheurs et des étudiants avancés sur la gestion des données de recherche, sur la curation de données, sur les critères à remplir pour être en conformité avec les obligations de diffusion ouverte des organismes financeurs. C’est un travail mené en collaboration avec le ou la bibliothécaire chargé de la gestion des données (« Librarian for RDM »), qui aborde systématiquement la reproductibilité mais aussi les questions d’éthique de la recherche. Ces questions font d’ailleurs partie de la formation obligatoire sur l’intégrité scientifique (« Responsible conduct of research« ) que doivent suivre les lauréats des bourses de la NSF et des NIH.
  • Rayonnement : programmation d’événements mettant en avant les questions de gestion des données de recherche (y compris celle de la reproductibilité), et s’articulant avec l’évolution des besoins des laboratoires selon les disciplines. Ce travail est conduit en étroite collaboration avec les bibliothécaires de chaque discipline (« liaison librarians »), qui connaissent les projets de recherche et le type de données que celles-ci sont susceptibles de générer. Cette collaboration permet d’améliorer l’offre de services à la recherche dans son ensemble. Les projets sont diffusés en libre accès, et présentés lors de différentes manifestations professionnelles nationales.
  • Support et création d’outils : veille sur les outils et techniques d’aide à la reproductibilité, et diffusion de celle-ci auprès des publics concernés, participation à la création d’une infrastructure de stockage et de gestion des données pour les enseignants-chercheurs de l’établissement, développement de méthodes et de workflows pour la ré-utilisation et la conservation de jeux de données. L’outil open source développé par la NYU, ReproZip, permet d’enregistrer les données, les paramètres et l’environnement logiciel avec lesquels la recherche a été faite, et de les « rejouer » sur une autre machine, quel que soit l’environnement de travail. Il permet également de modifier les paramètres pour faire avancer les hypothèses de recherche. C’est un moyen très parlant pour sensibiliser chercheurs et étudiants à l’intérêt de la reproductibilité de la recherche.

Un poste intéressant, qui montre une volonté d’intégration de la gestion des données à toutes les étapes du cycle des projets de recherche, en s’appuyant sur les compétences des bibliothécaires. Et qui demande, comme finalement souvent dans le domaine de la science ouverte,  autant sinon plus de compétences relationnelles, pédagogiques et de gestion de projet que de compétences réellement techniques. Or ces compétences, normalement, nous les avons : c’est plutôt rassurant en terme d’évolution des métiers, je trouve.
[Photo : Roel Wijnants]

Sci-Hub : analyse croisée

33297043401_0b87a9eb6c_zBastian Greshake, un doctorant en biologie de l’université de Francfort, a eu l’idée de croiser les données sur les 28 millions de téléchargements effectués sur Sci-Hub en 2015-2016 avec les 62 millions de DOI stockés dans la base , voici quelques-uns des résultats qu’il a pu observer :

  • 35% des articles téléchargés ont moins de 2 ans, ce qui a  tendance à montrer l’inefficacité des embargos imposés par les éditeurs
  • Il y a un effet de longue traîne, avec des articles téléchargés datant d’avant 1900 : « enclosure » du domaine public vendu sous forme de bouquets d’archives ?
  • Moins de 10% des revues constituent plus de 50% des contenus de la base, et moins de 1% des revues représentent plus de 50% des téléchargements d’articles
  • Près de 50% des articles téléchargés proviennent de revues éditées par 3 éditeurs : Elsevier, Springer-Nature et Wiley, avec pour ce dernier une sous-représentation dans les téléchargements compte-tenu de la part de contenus présents dans la base.
  • Forte représentation de la chimie et, dans une moindre mesure, des sciences de l’ingénieur parmi les titres les plus demandés : pour l’auteur c’est à mettre en lien avec le fonctionnement de ces disciplines, pour lesquelles la part de recherche effectuée dans le secteur privé est importante, et pour laquelle on peut supposer plus de difficultés d’accès aux ressources numériques payantes que dans le secteur public.

Source : Looking into Pandora’s box : the content of Sci-hub and its usage

A noter : La diffusion de la liste des 62 millions de DOI contenus dans la base a déjà inspiré quelques développements, comme par exemple cet utilitaire qui permet de voir le pourcentage de couverture sur sci-hub, par revue.
[Photo : Astyan42]

APC : Combien ça coûte ?

6736154311_9a0a3a44ba_mJ’ai travaillé en mars dernier sur une évaluation du coût des frais de publication (APC) en accès ouvert pour mon établissement. Ce fut une expérience assez intéressante, j’en note ici les points saillants pouvoir reproduire l’opération les années suivantes.

La démarche

A partir du Web of Science, j’ai limité mes résultats 2013 aux articles en OA : il existe depuis quelques mois une case à cocher qui permet de faire ça. Une fois les données extraites sur Excel, on passe à la recherche du coût des APC pour chaque éditeur, voire revue.

Les difficultés

– Tomber sur des éditeurs qui calculent leurs APC en fonction du nombre de pages de l’article, et aller voir le nombre de page de chaque article pour recalculer un coût plus juste.

– Manquer d’info sur les adhésions des auteurs à telle ou telle société savante : des tarifs préférentiels sont parfois proposés par ces sociétés à leurs membres ; en l’absence d’information, j’ai récupéré le coût le plus élevé.

– Réaliser après coup qu’en fait tous les « corresponding authors » ne sont pas forcément de mon établissement, et reprendre *tous* les articles pour vérifier ; je suis partie du principe que c’est l’établissement de « l’auteur correspondant » qui paye l’APC, c’est une hypothèse qui demande à être vérifiée.

Combien de temps ça m’a pris ? A la grosse louche, je dirai une trentaine d’heures étalées sur 2 mois , mais j’ai perdu du temps en revenant sur des choses que je n’avais pas prévues au départ. Ce qui prend du temps, c’est de trouver la politique des éditeurs et le modèle tarifaire des APC : pour plus de la moitié des éditeurs, il n’y a pas de page dédiée qui détaille les coûts et les différentes options, l’accès à l’information n’est pas facile – il m’est arrivé d’écrire à un éditeur pour savoir si sa revue était bien en OA, et à quel coût.

La suite ?

Ce qu’il faut maintenant, c’est que je puisse croiser mes résultats avec l’outil comptable de l’université, en ayant bien conscience de 2 écueils potentiels avec cette méthode : d’une part tous les APCs ne sont pas forcément payés sur des crédits universitaires, et d’autre part les APCs pour des articles hybrides seront sans doute difficiles à repérer (comment les distinguer des frais de publication « traditionnels » ?) ; je compte reproduire l’opération en mars prochain, pour voir comment ça a évolué.

« La référence, c’est mort »

« On a besoin de gros serveurs et d’informaticiens pour les faire tourner, » selon Neiburger. « Qu’allons-nous supprimer pour pouvoir recruter un informaticien ? Nous allons « tailler » dans le personnel du service de références. La référence, c’est mort. »
Bien qu’un bibliothécaire bien formé apporte une plus-value certaine à un entretien de référence, il se trouve que l’usager d’aujourd’hui, habitué à faire ses recherches sur Google, n’en a cure, et les bibliothécaires n’arrivent pas à s’y résoudre, d’après Neiburger.
« Les agences de voyages se sont démodées parce que les gens ont eu l’impression d’avoir un meilleur accès à l’information que ce que les agences leur proposaient. Nous sommes dans une situation similaire », ajoute-t-il. Dans son rapport « Perceptions of Libraries » de 2010, OCLC soulignait que 84% des consommateurs d’informations démarraient leurs recherches avec un moteur de recherche. Aucun des répondants à l’enquête ne commençait par un site de bibliothèque.
« Les bibliothécaires doivent accepter ce fait, et y voir une opportunité, » pour Neiburger.
« Les bibliothécaires professionnels doivent être dans les coulisses, et leur temps utilisé avec discernement. Et on peut faire beaucoup d’économies en employant du personnel de qualification différente au bureau de références. » Le fait de repenser le service de référence permettra de libérer des ressources pour construire des infrastructures de stockage et employer du personnel qualifié pour les gérer.
« Cela signifie d’avoir des informaticiens qui travaillent pour vous, et pas pour vos fournisseurs, dit-il. »

Pour Eli Neiburger, directeur adjoint de la bibliothèque d’Ann Arbor et responsable des aspects informatiques, l’enjeu c’est d’avoir le contrôle des données : l’exemple donné est celui de l’accord conclu entre la sa bibliothèque et le fournisseur Magnatune, pour la diffusion de musique en ligne – téléchargeable – à ses publics. Les fichiers sont hébergés localement et diffusés sans restrictions de type DRM. Et sa solution pour obtenir les ressources humaines nécessaires pour faire tourner tout ça, c’est de mettre des « paraprofessionnels » – en France, je pense qu’on dirait des bénévoles – aux bureaux de renseignements.
Effectivement, si la permanence au bureau de renseignements se résume les 3/4 du temps à fournir une agrafeuse/un crayon/du scotch ou indiquer les toilettes/la banque de prêt/les horaires d’ouverture, on peut peut-être se poser la question.
Geeks Are the Future: A Program in Ann Arbor, MI, Argues for a Resource Shift Toward IT
[photo : warhead]

Machine à (garder ses) sous

L’étude The value of UK HEI’s to the publishing process du JISC s’est penchée sur le coût des publications scientifiques pour les établissements d’enseignement supérieur et de recherche du Royaume-Uni, sachant que :
– la communication scientifique ne peut pas se passer du peer-review
– le peer-review est réalisé gratuitement par les chercheurs
– le nombre d’articles scientifiques est en augmentation constante, et donc le peer-review aussi.
Elle arrive à des chiffres non négligeables :
– le travail de peer-review est estimé à entre 110 et 165 millions de £
– la participation à des comités éditoriaux représente 30 millions de £
Si l’on ajoute à cela la dépense annuelle des établissements consacrée aux abonnements en ligne, pour pouvoir consulter les articles de revues, estimée à entre 113 et 121 millions de £, la facture se monte annuellement à entre 253 et 316 millions de livres sterling, ie entre 300 et 400 millions d’euros.
Avec de telles sommes, les établissements ne pourraient-ils pas mettre en place un système de production, de diffusion et de conservation de l’information scientifique ? C’est ce que propose Brad Wheeler, de l’Université de l’Indiana dans cet article d’Educause Review, avec « the Big Digital Machine », un concept en cours d’élaboration au sein du Committee on Institutional Cooperation, un consortium d’universités du nord ouest des Etats-Unis. Le principe est que si les établissements se réapproprient leur recherche, ils seront en mesure d’en définir les modes d’accès, aussi bien en terme de droits qu’en termes techniques – l’idée c’est aussi de s’appuyer sur les outils existants, qui ont fait leurs preuves, comme Open Journal Systems (OJS), Fedora/DSpace/DuraSpace, Connexions, EPrints pour pouvoir gérer la totalité du workflow des publications. Une infrastructure de ce type pourrait fédérer aussi bien les sociétés savantes que les presses universitaires, voire les « petits » éditeurs pas encore passés au numérique. Tentant…

[Photo : cobalt123]

Q/R : trouver sa niche

« La conclusion à laquelle je veux arriver est celle-ci : il existe désormais un marché pour répondre aux besoins d’informations. Les bibliothèques sont un des acteurs de ce marché, mais seulement un parmi d’autres, et pas forcément le plus connu ni le meilleur. Le seuil pour entrer dans ce marché est bas, il faut donc s’attendre à ce qu’il y ait d’autres entrants. Quand un opérateur jusque là unique se retrouve soudainement face à la concurrence, ledit opérateur doit changer son modèle économique ou couler. Ma conclusion ? Les bibliothèques doivent abandonner l’idée que les services de questions / réponses font partie du coeur de leurs services. Ce n’est pas le cas. C’est quelque chose que nous faisons pour apporter de la valeur ajoutée au reste des prestations de nos bibliothèques. Il ne faut peut-être pas laisser complètement tomber, mais plutôt se spécialiser dans des domaines que les bibliothèques sont les seules à pouvoir couvrir. Nous devons définir quels peuvent être ces domaines qui nous sont uniques, honnêtement. En d’autres termes, quelle est notre niche sur le marché ? Et, comme les bibliothèques ne sont pas vraiment en concurrence avec les autres acteurs de ce marché (puisque personne ne gagne de l’argent avec les services de questions / réponses), nous devons accepter d’externaliser certaines questions à ces acteurs là. »

Jeffrey Pomerantz sur son blog, à propos de l’annonce faite par Facebook d’un prochain service de questions / réponses « social ».

J’ai envie d’ajouter que *pour l’instant* ce type de service ne fait pas gagner d’argent, mais cette annonce ajoutée au rachat d’Aardvark par Google il y a quelques mois laisse présager que ça risque de ne pas durer…

[photo : shaggy359]

OPAC is (really) dead

« Jane Burke, VP de Serials Solutions, a décrit comment les ressources électroniques éloignaient de plus en plus les bibliothèques de leurs usagers dans le processus de recherche. Et sa conclusion fut, sans équivoque, que « le modèle traditionnel d’utilisation de la bibliothèque est fini », et que « l’OPAC est vraiment mort ».

Des études de ProQuest, d’Ithaka, d’OCLC et d’autres montrent que l’OPAC n’est plus le premier outil de découverte ou le point de départ des recherches. Les dépenses des bibliothèques portent désormais en priorité sur les ressources électroniques, mais les OPAC couvrent moins de la moitié de ces ressources – ils excluent les articles de revues et les projets de numérisation des collections spécialisées.

La perception des usagers de la valeur et de la qualité de la bibliothèque reste très forte, remarque Burke. Cependant, les étudiants ont des difficultés à naviguer entre des douzaines d’interfaces et de stocks de contenus. Le point d’entrée le plus simple pour une recherche, c’est Google, qui, selon de nombreux enseignants, est la source du déclin de la qualité du travail de recherche fait par les étudiants. La solution ? « Accepter le nouveau modèle de recherche, » suggère J. Burke. « Accepter un risque à court terme pour éviter une désintermédiation à long terme, laisser tomber nos règlements, et simplifier les choses. »

Extrait de E-access changes everything, compte-rendu dans Library Journal de la Charleston Conference de novembre dernier, par Carol Tenopir.

[photo : Brave Heart]

Retour de scène

Avec quelques collègues twitterers, nous avons couvert le colloque de Lille en direct avec l’outil en ligne Cover it live, que j’avais déjà vu à l’oeuvre pour la session Top Tech Trends de la conférence LITA forum : notes du 26/11notes du 27/11.

J’ai trouvé l’expérience plutôt réussie : le système permettant de se connecter à Twitter, il a été possible d’agréger aux commentaires faits sur Cover it live tous les messages twittés avec le hashtag #epef09, ainsi que des photos, ou des liens vers les sites mentionnés par les intervenants. Les stats indiquent une centaine de visiteurs uniques pour chaque journée, ce qui n’est pas rien pour un premier essai.

J’ai l’impression que ce genre de pratique va se propager, l’étape suivante étant, à mon avis, de faire entrer cette « manifestation parallèle numérique » en amont, ie dans l’organisation des colloques et autres journées d’étude : au même titre que les viennoiseries de la pause café, il faudrait prévoir de bonnes conditions pour une couverture numérique des événements : des prises électriques, de la wifi (ça en général, ça va), mais aussi un signalement des opérations « live » sur la page d’accueil de la manifestation, une présence de la manifestation sur les réseaux sociaux (page facebook, hashtag prédéfini), etc.

C’est ma 2ème expérience de « reporting numérique » cette année (la première c’était pour le blog des journées AO de Couperin), et je trouve tout cela très stimulant ; le fait de pouvoir partager le travail dans une sorte de compte-rendu collaboratif est à la fois rassurant (surtout quand les journées sont denses, on est moins stressé à l’idée de manquer un passage trop technique par exemple) et un peu contraignant : sachant que mes commentaires sont suivis par mes pairs en direct, j’essaye de ne pas dire trop de bêtises, voire de dire des choses intéressantes ;-).

Une pratique que je tâcherai de renouveler, sans aucun doute.

<Update>Gaël détaille l’opération de live-blogging sur son tout nouveau blog 24 hour library people<Update>

Library101 !

Finie la « bibliothèque 2.0 » : depuis hier, la nouvelle hype, c’est « Library101 » !

Library101, c’est un projet de David Lee King et Michael Porter, bibliobloggueurs de longue date, qui souhaitent aider les bibliothécaires à entrer dans le XXIème siècle, en ayant pleinement conscience des enjeux que font porter les mutations en cours dans notre « société de l’information » sur notre métier. Etre bibliothécaire aujourd’hui (et demain !), c’est maîtriser un certain nombre de compétences, savoirs-faire et autres savoirs tout court, en terme de communication, de technologies, de présence en ligne, pour pouvoir rester en phase avec sa communauté de service. C’est ce que David et Michael rappellent avec cette initiative, qui connaît déjà un certain succès : + de 2000 fans sur la page Facebook du projet. Sur le site on trouve :

– des liens (Resources To Know)

– des textes (Essays) rédigés par 2 douzaines de professionnels réputés du monde des bibliothèques anglophones

– et bien sûr la vidéo (ci-dessus), illustrée de photos et vidéos envoyées par + de 500 professionnels des bibliothèques du monde entier (oui, j’y suis. plusieurs fois, même)

Le site a été lancé hier après-midi en direct de Monterey, Californie, lors d’Internet Librarian 2009. L’intervention a été filmée, à l’instar de certaines keynotes des jours précédents ; toutes les vidéos sont disponibles sur la chaîne ILive, alimentée par l’équipe des Shanachies ; je vous recommande l’interview de Paul Holdengraber de la New York Public Library par Erik Boekesteijn : c’est pertinent, drôle, « inspirational »… réussi, quoi.


mai 2023
L M M J V S D
1234567
891011121314
15161718192021
22232425262728
293031  

Archives

Licence

Licence Creative Commons
Ce(tte) œuvre est mise à disposition selon les termes de la Licence Creative Commons Attribution 3.0 France.