Archive for the 'Initiatives à suivre' Category

La feuille de route de l’EUA pour l’OA

L’European Universities Association, EUA, qui rassemble 850 établissements dans 47 pays, vient de sortir une feuille de route pour l’accès ouvert aux publications de recherche, qui constitue une première étape dans un plan plus large de développement de l’Open Science.
Il s’agit de mettre en place un système de publication juste et transparent, respectueux d’un équilibre entre les coûts et les bénéfices, qui permette de faire émerger de nouveaux modes de production et de diffusion des savoirs.
Les objectifs sont larges : promotion des politiques en faveur de l’OA, réflexion sur les modes d’évaluation de la recherche, évolution du cadre juridique de la publication, évolution des modèles économiques, promotion du partage de données et de la fouille de textes (TDM), normalisation des politiques institutionnelles en matière d’OA pour la recherche et pour la pédagogie.
Pour y arriver, l’EUA propose une série d’actions :
– établir une cartographie des politiques institutionnelles d’OA, avec un suivi des accords avec les éditeurs
– partager les bonnes pratiques en matière de négociation de type « big deal », et en extraire des recommandations pour les négociations
– définir des recommandations sur les politiques institutionnelles d’OA, et favoriser l’émergence d’infrastructures et d’initiatives européennes en faveur de l’OA
– favoriser le dialogue entre les chercheurs et leurs institutions (autour des modalités d’évaluation et de reconnaissance académique), entre les différents acteurs institutionnels et associatifs, et avec les éditeurs (autour de modèles économiques viables)
– mobiliser les politiques autour d’un modèle de publication équitable

Tout ceci, rappelons-le, se passe dans un contexte plutôt favorable, avec la présidence hollandaise de l’UE, qui affiche des ambitions très fortes en matière d’open access.

El conditor pasa

ImageAvez-vous déjà entendu parler de Conditor ? Il s’agit d’un projet initié dans le cadre de BSN3, dont l’objectif est de « recenser l’ensemble de la production scientifique de la communauté Enseignement Supérieur et Recherche ». L’idée est donc de faire une grosse base de signalement de la production scientifique française, en récupérant les données là où elles sont déjà (dans le Web of Science, dans les archives ouvertes, dans les réservoirs de littérature grise…) et en s’appuyant sur des référentiels existants (RNSR, IDREF…). La base peut gérer les liens vers le texte intégral le cas échéant, mais ce n’est pas une archive ouverte, on reste bien au niveau du signalement.

Pour avoir une idée de ce que la mise en place d’un tel projet donnerait à l’échelle nationale, une expérimentation a été organisée en 2013 avec un groupe d’établissements pilotes (IRD, INRA, Paris Dauphine, ABES, CNRS, INRIA) : ils ont chacun fourni une extraction de leur archive locale, ou bien donné accès à leur référentiel, pour constituer un corpus de données à analyser.
Les résultats de cette expérimentation ont donné lieu à une restitution la semaine dernière à laquelle j’ai eu l’occasion d’assister, je vous en livre quelques éléments :
– L’expérimentation s’est terminée fin 2013. Il faut améliorer la méthode pour la détection des doublons (28000 repérés dans l’échantillon), pour les appellations des tutelles, pour les liens avec IDREF, pour l’absence d’un tronc commun de métadonnées (qui a donné lieu à un travail de formatage initial très lourd).
– Les points positifs : la volumétrie importante et la variété des signalements et des formats présents dans le corpus expérimental permettent de se rendre réellement compte des difficultés. On réalise que le « tout automatique » est impossible. Le projet est faisable, d’autant plus si les établissements mutualisent les façons de faire, et n’ont plus à saisir dans leurs systèmes que ce qui n’y est pas déjà (la mutualisation telle qu’elle est pratiquée dans le SUDOC a été citée plusieurs fois en exemple).
Les établissements ayant participé à l’expérimentation ont fait un retour sur leur propre expérience, en voici quelques points saillants :
– Conditor comme pivot : l’intérêt d’une base nationale alimentée de façon mutualisée (et qui gère le dédoublonnage) permet de n’avoir plus qu’un seul connecteur à développer pour récupérer la production de son établissement et la reverser dans son archive locale
– Les DOI sont insuffisants pour dédoublonner
– Le matching entre le corpus et le WoS montre les insuffisances de cet outil : 50% des notices du corpus ne figuraient pas dans les résultats du WoS, dont 30% de notices d’articles. Effet collatéral : cela pose question sur la pertinence des analyses de l’OST, qui ne s’appuie que sur des outils commerciaux (WoS et Scopus).
– L’intérêt de la mutualisation est indéniable : l’usage de référentiels communs, la gestion centralisée des opérations de dédoublonnage, les comparaisons entre bases permettront, à terme, de disposer d’une vue d’ensemble claire de chaque communauté de recherche, au-delà des organismes.
Par contre il n’est apparemment pas question d’attribuer à Conditor de budget supplémentaire…
[Photo : Gustavo Duran]

Mon 1er MOOC

8424296306_5c76740088_nJe participe, depuis plusieurs semaines maintenant, avec Gaël et Thomas, au mooc sur les bibliothèques intitulé « The hyperlinked library mooc« , mis en place par la San Jose State University. D’une durée totale de 12 semaines, ce mooc a pour objectif de permettre aux participants d’explorer toutes les facettes de la bibliothèque « connectée » : ouverture sur et interactions avec la communauté, transparence et vie privée, expérience utilisateur, outils et services mobiles… Pourquoi avoir choisi ce mooc ? Parce que les thématiques m’intéressent tout en me sortant un peu de mes sujets de prédilection habituels, et aussi parce que je suis fan du travail de Michaël Stephens, le bibliothécaire organisateur principal du mooc, depuis longtemps. S’ajoute à cela le fait d’avoir à rédiger en anglais : un vrai défi que de repasser de la version au thème, de s’exprimer intelligiblement à côté d’anglophones des 4 coins de la planète. Voici un premier retour au bout de 8 semaines.

Comment ça marche ?
Chaque semaine, les organisateurs postent  le cours principal (une vidéo d’une trentaine de minutes), une intervention extérieure (également en vidéo), ainsi que des liens vers les lectures et vidéos recommandées sur la thématique de la semaine. Ce n’est pas une formation diplômante, mais il est possible d’obtenir un certificat de participation sous certaines conditions : rendre au moins 3 des 6 devoirs proposés, participer activement à la formation (chaque participant peut ouvrir son propre blog), contribuer au symposium final.
Un des griefs contre les moocs est que ce serait la fin des enseignants : après en avoir suivi un, je penche pour le contraire. L’organisation, le montage des cours, l’animation de la communauté des participants, tout ça me semble demander pas mal de travail, et cela ne saurait reposer sur une poignée d’enseignants. C’est plutôt d’une évolution de l’enseignement, qui demande une certaine remise en question du métier, qu’il s’agit, amha.
Les 2 organisateurs sont des bibliothécaires, enseignants dans l’école de sciences de l’information et des bibliothèques de l’université, ils assurent les cours et le suivi des participants. Ils s’appuient sur une douzaine d’étudiants (qui suivent un master SIB en présentiel) pour animer les groupes de participants au mooc : une trentaine de participants par animateur, parce que oui, nous sommes un peu moins de 400 !
Techniquement, le système repose sur une plateforme WordPress à laquelle ont été ajoutés des modules pour le partage des activités, la gestion du suivi, les badges. La plupart des vidéos sont diffusées via Panopto, un système qui permet d’afficher simultanément la vidéo, les slides et une transcription.

8573233746_08c7cfc967_nLes points positifs
– La qualité des interventions : Des professionnels de tous horizons, lecture publique comme BU, ayant mené des projets innovants, développé une réflexion sur leurs pratiques, ayant une vision prospective sur leur métier. Ils sont là pour apporter leur expérience, leur pratique, et se montrent très ouverts aux échanges avec les participants.
– L’enthousiasme des organisateurs : On a vraiment l’impression de faire le plus beau métier du monde quand on entend tous les intervenants parler de ce qu’ils font, de comment ils voient les choses ; c’est un réel contraste avec la vision que de nombreux bibliothécaires ont de leur métier ici.
– Les échanges entre participants : Pas évident de suivre tous les blogs des 365 participants, heureusement, les organisateurs mettent en avant des billets intéressants dans les résumés hebdomadaires, libre à chacun ensuite d’aller les commenter ou de rebondir dans un nouveau billet.
– Les badges : Ils sont là pour valider certaines étapes du parcours, mais aussi pour inciter à être actif sur la plateforme – et, par extension, dans sa formation. Et ça marche !

Quelques difficultés rencontrées
– L’investissement en temps : suivre les cours, rédiger des billets, commenter les billets des autres, faire les devoirs, ça demande un minimum d’organisation. Les organisateurs prévoient entre 8 et 10h de travail personnel par semaine, c’est quasiment mission impossible selon les semaines, surtout quand on travaille à temps plein par ailleurs. Le système est cependant suffisamment souple pour permettre de raccrocher les wagons d’une semaine sur l’autre, et les deadlines sont flexibles : l’objectif est vraiment de participer, quel que soit son rythme.
– Le décalage avec la vraie vie : voir ce qui se fait (sans peine) ailleurs, pouvoir discuter d’égal à égal avec des porteurs de projets, lancer des collaborations avec des collègues du bout du monde, c’est, au bas mot, très stimulant. Revenir à son quotidien en BU en France ensuite, c’est quelque peu frustrant.

En conclusion
Je ne me hasarderai pas à généraliser sur l’intérêt – ou pas – des moocs. Je suis très satisfaite de ce mooc là, c’est sûr. Et, forte de cette première expérience positive, je pense que je retenterai l’expérience dans quelques mois, avec un mooc francophone cette fois, et donc sans doute sur un sujet non bibliothéco-centré (parce que ça ne court pas les rues pour le moment, les mooc bibliothéconomiques en français – hello, les urfist, les crfcb ? #jdcjdr). J’essayerai aussi, si possible de trouver un mooc coïncidant avec une période moins chargée au niveau professionnel.
[Photos : sarah_g, audreywaters]

Pétition pour l’accès libre aux résultats de la recherche fédérale : l’administration Obama dit « Oui » !

Le message traduit ci-dessous, publié ce week-end sur le site de la Maison Blanche, a également été adressé par e-mail aux 65704 signataires de la pétition demandant « un accès libre aux articles de revues scientifiques provenant de recherches financées par les contribuables ».

« Augmenter l’accès public aux résultats de la recherche scientifique

Par le Dr. John Holdren

Merci pour votre participation sur la plateforme « We the people ». L’administration Obama convient du fait que les citoyens méritent un accès facilité aux résultats de la recherche financée par leurs impôts. Comme vous le savez peut-être, le bureau de la politique scientifique et technologique (Office of Science and Technology Policy, OSTP) se préoccupe de cette question depuis un certain temps, et a eu l’occasion à deux reprises de faire appel au public pour connaître ses suggestions sur les moyens d’arriver à la démocratisation des résultats de la recherche financée par le gouvernement fédéral. Votre pétition a été d’une grande aide dans la discussion sur cette question.

La logique derrière un accès public amélioré est évidente. Nous savons que la recherche scientifique soutenue par le gouvernement fédéral stimule des découvertes scientifiques capitales et des avancées économiques, lorsque les résultats de cette recherche sont accessibles pour les innovateurs. Des politiques qui mobilisent ces biens intellectuels pour une réutilisation via un accès élargi peuvent accélérer les avancées scientifiques, accroître les innovations et encourager la croissance économique. C’est pourquoi l’administration Obama s’est engagée à veiller à ce que les résultats de la recherche scientifique financée par le gouvernement fédéral soient mis à la disposition et au service du public, de l’industrie et de la communauté scientifique.

2722210623_6059a1615d_mDe plus, ces recherches ont été financées par l’argent du contribuable. Les américains devraient pouvoir accéder facilement aux résultats de la recherche qu’ils aident à financer.

C’est dans cet objectif que j’ai publié aujourd’hui une note à destination des agences fédérales, qui demande à celles qui dépensent plus de 100 millions de dollars en recherche et développement de concevoir des plans d’actions afin de rendre publics les résultats de la recherche financée par des fonds fédéraux, et ce gratuitement, dans un délai de 12 mois après leur publication initiale. Comme vous l’avez indiqué, la politique d’accès public adoptée par les National Institutes of Health (NIH) a été un grand succès. Et, alors que ce nouvel appel politique ne demande pas aux agences de copier exactement la démarche des NIH, il permet de s’assurer que des politiques similaires vont apparaître dans tout le gouvernement.

Comme je l’ai dit, ces politiques ont été développées soigneusement, à travers une vaste consultation publique. Nous voulions trouver un compromis entre l’extraordinaire bénéfice public amené par l’accroissement de l’accès pour tous aux résultats de la recherche financée sur fonds fédéraux et le besoin de garantir que les contributions de grande valeur apportées par l’industrie de l’édition scientifique ne seraient pas perdues. Cette politique reflète cet équilibre, et se donne aussi la souplesse d’y apporter des changements ultérieurs en fonction des usages et des observations. Par exemple, il a été demandé aux agences de travailler sur la base d’une période d’embargo de 12 mois pour leur permettre de développer leurs politiques, mais également d’envisager un mécanisme permettant aux différents acteurs du secteur de leur demander de modifier cette période. Au fur et à mesure de l’avancée des agences dans le développement et l’implémentation de leurs politiques, il y aura de nombreuses possibilités de participation publique pour s’assurer que les agences font le meilleur travail possible pour satisfaire tous les intérêts en présence.

En plus d’aborder la question de l’accès public aux publications scientifiques, cette note demande aux agences de commencer à s’intéresser à la nécessité d’améliorer la gestion et le partage des données scientifiques produites avec des financements fédéraux. Le renforcement de ces politiques va encourager l’entreprenariat et la création d’emploi, en plus de conduire le progrès scientifique. L’accès à des jeux de données pré-existants peut accélérer la croissance, en permettant à des sociétés de concentrer leurs ressources et leurs efforts sur l’interprétation et l’exploitation pleine des découvertes, au lieu de répéter un travail pré-concurrentiel de base, déjà documenté par ailleurs. Par exemple, les données climatiques ouvertes sous-tendent l’industrie de la prévision et fournissent des bénéfices publics importants ; la publication des séquences du génome humain a engendré de nombreuses innovations dans le domaine biomédical – sans parler des nombreuses sociétés générant des milliards de dollars de revenus et les emplois qui vont avec. Progresser vers une plus large disponibilité des données scientifiques va permettre de créer des marchés économiques innovants pour des services liés à la curation, à la conservation, à l’analyse et à la visualisation des données, entre autres.

Alors merci encore pour votre pétition. J’espère que vous conviendrez que l’administration a fait son travail et vraiment répondu à votre demande.

John Holdren est conseiller du Président pour les questions scientifiques et technologiques et directeur du bureau de la politique scientifique et technologique de la Maison Blanche. »

Merci à @St_B pour la suggestion de traduction.

[Photo : StevenANichols]

 

Global Open Knowledge Base

Global Open Knowledge Base est le fruit du partenariat entre le projet de SGB mutualisé américain Kuali OLE  et l’agence britannique JISC Collections. Il s’agit de monter l’architecture d’une base de connaissances mutualisée intégrable dans différents systèmes de gestion de données. JISC Collections travaille sur les modèles et les circuits de données, il peut également s’appuyer sur ses contacts existants avec les éditeurs (l’agence est l’un des principaux opérateurs pour la négociation des ressources électroniques au Royaume-Uni) ainsi que sur le réseau existant de ses établissements membres pour l’alimentation. La partie mutualisée de la base de connaissances gère les éléments au niveau global (titre, éditeur, identifiant, bouquet, plateforme), les informations locales (contrats, licences, commandes, stats…) sont gérées dans le SGB. Les atouts de GOkb sont l’utilisation de standards, la mise en place d’un système d’identification des ressources, l’application de modèles de données et de workflows, la gestion communautaire. Le projet bénéficie d’un financement de 499000$ de la fondation Mellon, passage en production de la version 1.0 prévu pour 2013.

[photo : squarepants2004/auntiehuia]

Machine à (garder ses) sous

L’étude The value of UK HEI’s to the publishing process du JISC s’est penchée sur le coût des publications scientifiques pour les établissements d’enseignement supérieur et de recherche du Royaume-Uni, sachant que :
– la communication scientifique ne peut pas se passer du peer-review
– le peer-review est réalisé gratuitement par les chercheurs
– le nombre d’articles scientifiques est en augmentation constante, et donc le peer-review aussi.
Elle arrive à des chiffres non négligeables :
– le travail de peer-review est estimé à entre 110 et 165 millions de £
– la participation à des comités éditoriaux représente 30 millions de £
Si l’on ajoute à cela la dépense annuelle des établissements consacrée aux abonnements en ligne, pour pouvoir consulter les articles de revues, estimée à entre 113 et 121 millions de £, la facture se monte annuellement à entre 253 et 316 millions de livres sterling, ie entre 300 et 400 millions d’euros.
Avec de telles sommes, les établissements ne pourraient-ils pas mettre en place un système de production, de diffusion et de conservation de l’information scientifique ? C’est ce que propose Brad Wheeler, de l’Université de l’Indiana dans cet article d’Educause Review, avec « the Big Digital Machine », un concept en cours d’élaboration au sein du Committee on Institutional Cooperation, un consortium d’universités du nord ouest des Etats-Unis. Le principe est que si les établissements se réapproprient leur recherche, ils seront en mesure d’en définir les modes d’accès, aussi bien en terme de droits qu’en termes techniques – l’idée c’est aussi de s’appuyer sur les outils existants, qui ont fait leurs preuves, comme Open Journal Systems (OJS), Fedora/DSpace/DuraSpace, Connexions, EPrints pour pouvoir gérer la totalité du workflow des publications. Une infrastructure de ce type pourrait fédérer aussi bien les sociétés savantes que les presses universitaires, voire les « petits » éditeurs pas encore passés au numérique. Tentant…

[Photo : cobalt123]

Un Aardvark dans le moteur

Aardvark est un service de questions-réponses collaboratif monté par d’ex-cadres de chez Google en 2007, qui utilise les réseaux sociaux pour multiplier les points d’accès : on peut poser des questions et y répondre sur le site web, par messagerie instantanée, par iphone, sur Twitter (d’où la rapidité des résultats – dans les 5 minutes – ce qui est un plus). Le site est simple et plutôt convivial – il permet de renvoyer un message de remerciement à la personne qui vous a répondu, on peut accéder facilement à la liste des questions que l’on a posées / des réponses que l’on a données, ou transférer la question vers une personne plus susceptible de connaître la réponse.

Le concept de ‘recherche sociale’ appliqué ici, c’est, en gros, qu’il vaut mieux demander à celui qui sait plutôt que perdre du temps à chercher. Un réflexe qui n’est pas idiot, mais que j’aurai pensé moins répandu – que ce que j’ai plu le constater en pratiquant sur Aardvark – à l’heure où on peut trouver tout ce qu’on veut en 2 clics sur internet : certaines des questions que j’ai vu passer trouvaient une réponse par une simple requête sur Google. Ce qui me laisse perplexe : il me semble plus facile de googler quelque chose que d’aller poser une question sur un site de questions-réponses, non ? Mais bon, toutes les questions ne sont pas du même acabit, et il y a aussi beaucoup de demandes de conseils, de tuyaux, d’avis : c’est la recommandation que l’on recherche.

Le service marche plutôt bien, enfin, on peut raisonnablement le penser, puisqu’il vient d’être racheté par… Google.

[photo : axlotl]


janvier 2017
L M M J V S D
« Oct    
 1
2345678
9101112131415
16171819202122
23242526272829
3031  

Archives

Licence

Licence Creative Commons
Ce(tte) œuvre est mise à disposition selon les termes de la Licence Creative Commons Attribution 3.0 France.