Archive for the 'Initiatives à suivre' Category

Le (bon) plan S

38028099792_44acda4c73_oScience Europe vient d’annoncer le lancement de la « Coalition S« , un accord signé par 11 organismes financeurs de la recherche en Europe, dont l’ANR. Et c’est l’occasion d’en apprendre un peu plus sur le fameux Plan S élaboré par le chargé de mission pour l’open access de la Commission Européenne, Robert-Jan Smits (RJS). En effet, cette coalition s’engage sur l’objectif principal du Plan S, à savoir l’obligation de diffusion en accès ouvert, à compter du 01/01/2020, de toute la littérature de recherche financée par des fonds publics ; la diffusion pouvant se faire soit dans des revues en open access, soit sur des archives ouvertes.

Le Plan S se décline en 10 points (je résume) :

  • Les auteurs conservent leurs droits et diffusent leurs travaux sous une licence ouverte
  • Les financeurs vont définir des critères et un haut niveau de service pour qualifier les revues OA et les plateformes d’archives ouvertes labellisés
  • Les financeurs soutiendront la création de revues et de plateformes si besoin ; ils soutiendront également les infrastructures de l’open access
  • Les APC seront payés par les financeurs ou par les institutions (et pas par les individus)
  • Les APC seront standardisés et plafonnés au niveau européen
  • Les universités, organismes de recherche et BU devront aligner leurs politiques et leurs stratégies en la matière
  • Tous les produits de la recherche sont concernés par cette politique, même les ouvrages, bien que pour ceux-ci une tolérance soit accordée  au niveau du délai de mise en place
  • Le rôle des archives ouvertes pour la conservation à long terme des productions de recherche et pour l’innovation éditoriale est réaffirmé
  • Exit les hybrides : le modèle hybride n’est pas compatible avec les objectifs du plan S
  • Les financeurs feront une suivi du respect de ces règles et sanctionneront les manquements

Evidemment, les éditeurs ne voient pas ce plan d’un bon oeil : le refus des hybrides signerait la fin de la liberté académique du chercheur et freinerait la transition vers l’open access, le plan « saperait le travail de validation effectué par les revues de qualité » et ne serait « pas soutenable pour les revues du groupe Science », selon un porte-parole de l’éditeur.

PS : Pour quoi un plan « S » ? C’est « S » pour « Science, Speed, Solution, Shock », selon RJS.

Sources :
European science funders ban grantees from publishing in paywalled journals
Radical open access plan could spell end to journal subscriptions

Publicité

Conclusions du 3ème workshop ESAC

461240381_4a57e4f032_oESAC (Efficiency and Standards for Article Charges) est une initiative qui a pour objectif de suivre les évolutions des frais de publication des articles dans les revues scientifiques, de recenser les bonnes pratiques et faire des recommandations sur la gestion des APC et les workflows associés.
Fin juin s’est tenu le 3ème Workshop du projet, le rapport qui en est issu est en ligne, je vous en résume/traduis les grandes lignes :
A propos de l’évaluation de la valeur et les facteurs déterminant le coût :

  • Il faut différentier dans les analyses les différents modèles d’APC, le fait qu’on parle de gold ou d’hybride ou d’accords de compensation (« offsetting agreements ») change la perspective.
  • Le coût des APC hybrides est nettement plus élevé que celui des APC des revues gold, c’est un fait désormais établi.
  • Le coût des APC dans le cadre d’un accord de compensation est du niveau de celui des APC hybrides, mais il est à envisager dans le contexte global de l’accord, ie en prenant en compte les économies éventuelles réalisées sur le double dipping.
  • Les indicateurs tels que le SNIP ou le facteur d’impact ne sont pas les seuls critères pour définir le coût des APC : la discipline, l’éditeur ou le modèle économique jouent également un rôle.
  • Les APC des revues gold reflètent de manière plus cohérente les coûts de production et de services dans leurs prix, alors que les APC hybrides traduisent plutôt le niveau de revenu actuel et les marges bénéficiaires de l’activité d’abonnement des éditeurs. Il ne s’agit donc plus d’un argument valable en faveur d’une hausse des prix des APC.
  • Les niveaux de prix médians sont les principaux moteurs de l’évolution globale des coûts. Sont donc à surveiller les prix des revues très fréquentées et les portefeuilles de revues qui englobent la plus grande partie de la production scientifique.

A propos du suivi des coûts :
6630834701_aabb88e693_o

  • Nécessité de l’indépendance de la collecte et de l’analyse des données sur les APC. La transparence obtenue grâce à des initiatives telles que OpenAPC permet à la communauté de discuter des coûts des APC sur la base de données probantes.
  • Nécessité pour les différents acteurs institutionnels ou individuels actifs sur le sujet de se coordonner pour maximiser l’impact de leurs efforts.
  • Les institutions et les consortiums de bibliothèques doivent maintenant mettre en place des actions concrètes, utilisant ces nouvelles données comme un atout, pour faire passer les négociations avec les éditeurs à un autre niveau, et arriver à un système de publication équitable, durable et en accès complètement ouvert.

A propos du risque d’augmentation des coûts globaux de l’édition scientifique à cause de l’OA hybride :

  • La stratégie d’intégration de l’open access et des coûts relatifs dans le contrat de licence d’abonnement des institutions permet d’exercer un suivi des coûts pour contenir les dépenses en double et de travailler à convertir officiellement les dépenses d’abonnement en soutien à la publication en accès ouvert. Les accords de compensation doivent être négociés comme des mesures transitoires, avec l’objectif clair d’arriver rapidement à la conversion vers l’accès ouvert complet.

A propos du risque de voir les éditeurs traditionnels dominer le marché de l’édition scientifique et imposer leurs coûts d’APC sur la base de leurs marques éditoriales :

  • Le modèle économique basé sur les APC pour la publication en accès ouvert est une nette amélioration par rapport au marché actuel des abonnements, en ce sens que les coûts des APC sont transparents et, par conséquent, soumis à un niveau de contrôle qui fait totalement défaut sur le marché opaque des abonnements. Néanmoins, afin de soutenir l’évolution d’un marché plus efficace et plus diversifié, les institutions devraient éviter deux écueils du modèle des abonnements :4418249517_a83f1e5f4d_o.jpg
    • L’augmentation des prix obligatoire : quand on compare les coûts par article du système actuel d’abonnements (entre 3800 et 5000 euros)[1] avec les coûts moyens d’APC (autour de 2000 euros), on voit bien qu’il y a déjà assez d’argent dans le système pour soutenir une transition vers un accès ouvert ; les augmentations ne sont pas justifiées.
    • L’usage des indicateurs : évaluer le coût des APC en fonction d’indicateurs comme le SNIP et JIF n’est pas pertinent, car ceux-ci sont limités en termes de transparence et d’applicabilité au niveau de l’article, et ne servent qu’à renforcer le pouvoir des revues et des marques d’éditeur. Et puis ce sont les APC médians qui ont la plus grande influence sur l’évolution globale des coûts du marché, dont pas vraiment ceux des revues à fort facteur d’impact.
  • Par ailleurs, n’oublions pas la bibliodiversité : les modèles de publication coopératifs et sans APC ont besoin d’être soutenus. Un transfert des budgets et des économies réalisées vers de nouveaux modèles permet de stimuler la concurrence et l’innovation sur le marché de l’édition scientifique.

Pour finir, à propos du risque d’augmentation des coûts pour les établissements de recherche intensive :

  • Chaque institution est susceptible d’être confrontée à ce problème pour certains éditeurs dont les coûts de publication dépasseront les anciens coûts d’abonnement. Toutefois, comme on l’a vu plus haut, il y a suffisamment d’argent dans le système : il faut trouver un moyen de réaffecter les coûts. Des solutions sont à travailler au niveau des  consortiums, par exemple en introduisant des mécanismes de compensation internes et des fonds de solidarité, le cas échéant.

[1] Disrupting the subscription journals’ business model for the necessary large-scale transformation to open access : le rapport de la Max-Planck-Gesellschaft sur les coûts de la transition vers l’open access.

[Photos : Daniel hoherd, Laura Thorne, Kirstie Warner]

Une initiative pour le financement de l’open science : SCOSS

8661000014_715a3135e5_oSPARC Europe a lancé la « Coalition mondiale pour la durabilité des services scientifiques ouverts » (Global Sustainability Coalition for Open Science Services, SCOSS), pour coordonner un système de mutualisation du financement des projets et services permettant à la science ouverte de se faire, pour assurer leur maintien sur le long terme.

Du financement participatif pour pérenniser la science ouverte

Le principe de ce dispositif est de proposer chaque année à des services non commerciaux participant à l’open access et/ou à l’open science de soumissionner pour un financement mutualisé d’une durée de 3 ans ; les candidatures sont examinées en fonction d’une série de critères tels que la valeur ajoutée pour les différents acteurs de la recherche, la gouvernance, le coût et la durabilité du financement, les projets de développement. Deux initiatives sont sélectionnées par campagne et pourront être subventionnées selon un système de financement participatif, réparti sur les institutions et les organisations de recherche du monde entier.

Les 2 premiers services sélectionnés sont le DOAJ et Sherpa/Romeo, deux outils que nombre de bibliothèques utilisent au quotidien :

– Le DOAJ pour repérer les revues en OA de qualité à signaler aux enseignants-chercheurs. Il est possible que la formule d’adhésion actuelle au DOAJ disparaisse au profit de celle de SCOSS d’ici 2021. (Objectif de financement : 970 000 €)

Sherpa/Romeo pour connaître les politiques des éditeurs en matière d’auto-archivage. C’est un service que nous continuerons d’utiliser malgré la loi numérique, au moins tant qu’il ne sera pas dit officiellement qu’elle est rétroactive. Il est prévu d’ouvrir la curation des données de Sherpa/Romeo à la communauté, pour accélérer le traitement des demandes. (Objectif de financement : 1 529 935 €)

Pourquoi c’est intéressant ?

SCOSS établit une tarification pour les services sélectionnés en fonction des besoins et des objectifs de développement ; la grille tarifaire est échelonnée pour permettre la participation des établissements de grande et de petite taille.

Les établissements participant au financement s’engagent pour 3 ans. A l’issue de cette période, les candidats doivent avoir trouvé un mode de financement durable.

C’est un moyen très concret de soutenir le développement de la science ouverte, en renforçant des structures devenues de référence sans pour autant avoir un financement pérenne. De passer des déclarations d’intention aux actes, dans le droit fil des préconisations de l’appel de Jussieu.

Et ça marche ?

La campagne a plutôt bien commencé : lancée fin 2017 par Sparc Europe, LIBER, EIFL et CAUL, avec le support de l’AOASG, de COAR, de l’ERC, de l’EUA , de l’IFLA et de Science Europe, elle a déjà permis de collecter plus de 340 000 d’euros d’engagements, répartis sur une trentaine d’établissements académiques.

Pour en savoir plus, on peut s’abonner à la newsletter de SCOSS (qui devrait bientôt être disponible en français) ici.

La feuille de route de l’EUA pour l’OA

L’European Universities Association, EUA, qui rassemble 850 établissements dans 47 pays, vient de sortir une feuille de route pour l’accès ouvert aux publications de recherche, qui constitue une première étape dans un plan plus large de développement de l’Open Science.
Il s’agit de mettre en place un système de publication juste et transparent, respectueux d’un équilibre entre les coûts et les bénéfices, qui permette de faire émerger de nouveaux modes de production et de diffusion des savoirs.
Les objectifs sont larges : promotion des politiques en faveur de l’OA, réflexion sur les modes d’évaluation de la recherche, évolution du cadre juridique de la publication, évolution des modèles économiques, promotion du partage de données et de la fouille de textes (TDM), normalisation des politiques institutionnelles en matière d’OA pour la recherche et pour la pédagogie.
Pour y arriver, l’EUA propose une série d’actions :
– établir une cartographie des politiques institutionnelles d’OA, avec un suivi des accords avec les éditeurs
– partager les bonnes pratiques en matière de négociation de type « big deal », et en extraire des recommandations pour les négociations
– définir des recommandations sur les politiques institutionnelles d’OA, et favoriser l’émergence d’infrastructures et d’initiatives européennes en faveur de l’OA
– favoriser le dialogue entre les chercheurs et leurs institutions (autour des modalités d’évaluation et de reconnaissance académique), entre les différents acteurs institutionnels et associatifs, et avec les éditeurs (autour de modèles économiques viables)
– mobiliser les politiques autour d’un modèle de publication équitable

Tout ceci, rappelons-le, se passe dans un contexte plutôt favorable, avec la présidence hollandaise de l’UE, qui affiche des ambitions très fortes en matière d’open access.

El conditor pasa

ImageAvez-vous déjà entendu parler de Conditor ? Il s’agit d’un projet initié dans le cadre de BSN3, dont l’objectif est de « recenser l’ensemble de la production scientifique de la communauté Enseignement Supérieur et Recherche ». L’idée est donc de faire une grosse base de signalement de la production scientifique française, en récupérant les données là où elles sont déjà (dans le Web of Science, dans les archives ouvertes, dans les réservoirs de littérature grise…) et en s’appuyant sur des référentiels existants (RNSR, IDREF…). La base peut gérer les liens vers le texte intégral le cas échéant, mais ce n’est pas une archive ouverte, on reste bien au niveau du signalement.

Pour avoir une idée de ce que la mise en place d’un tel projet donnerait à l’échelle nationale, une expérimentation a été organisée en 2013 avec un groupe d’établissements pilotes (IRD, INRA, Paris Dauphine, ABES, CNRS, INRIA) : ils ont chacun fourni une extraction de leur archive locale, ou bien donné accès à leur référentiel, pour constituer un corpus de données à analyser.
Les résultats de cette expérimentation ont donné lieu à une restitution la semaine dernière à laquelle j’ai eu l’occasion d’assister, je vous en livre quelques éléments :
– L’expérimentation s’est terminée fin 2013. Il faut améliorer la méthode pour la détection des doublons (28000 repérés dans l’échantillon), pour les appellations des tutelles, pour les liens avec IDREF, pour l’absence d’un tronc commun de métadonnées (qui a donné lieu à un travail de formatage initial très lourd).
– Les points positifs : la volumétrie importante et la variété des signalements et des formats présents dans le corpus expérimental permettent de se rendre réellement compte des difficultés. On réalise que le « tout automatique » est impossible. Le projet est faisable, d’autant plus si les établissements mutualisent les façons de faire, et n’ont plus à saisir dans leurs systèmes que ce qui n’y est pas déjà (la mutualisation telle qu’elle est pratiquée dans le SUDOC a été citée plusieurs fois en exemple).
Les établissements ayant participé à l’expérimentation ont fait un retour sur leur propre expérience, en voici quelques points saillants :
– Conditor comme pivot : l’intérêt d’une base nationale alimentée de façon mutualisée (et qui gère le dédoublonnage) permet de n’avoir plus qu’un seul connecteur à développer pour récupérer la production de son établissement et la reverser dans son archive locale
– Les DOI sont insuffisants pour dédoublonner
– Le matching entre le corpus et le WoS montre les insuffisances de cet outil : 50% des notices du corpus ne figuraient pas dans les résultats du WoS, dont 30% de notices d’articles. Effet collatéral : cela pose question sur la pertinence des analyses de l’OST, qui ne s’appuie que sur des outils commerciaux (WoS et Scopus).
– L’intérêt de la mutualisation est indéniable : l’usage de référentiels communs, la gestion centralisée des opérations de dédoublonnage, les comparaisons entre bases permettront, à terme, de disposer d’une vue d’ensemble claire de chaque communauté de recherche, au-delà des organismes.
Par contre il n’est apparemment pas question d’attribuer à Conditor de budget supplémentaire…
[Photo : Gustavo Duran]

Mon 1er MOOC

8424296306_5c76740088_nJe participe, depuis plusieurs semaines maintenant, avec Gaël et Thomas, au mooc sur les bibliothèques intitulé « The hyperlinked library mooc« , mis en place par la San Jose State University. D’une durée totale de 12 semaines, ce mooc a pour objectif de permettre aux participants d’explorer toutes les facettes de la bibliothèque « connectée » : ouverture sur et interactions avec la communauté, transparence et vie privée, expérience utilisateur, outils et services mobiles… Pourquoi avoir choisi ce mooc ? Parce que les thématiques m’intéressent tout en me sortant un peu de mes sujets de prédilection habituels, et aussi parce que je suis fan du travail de Michaël Stephens, le bibliothécaire organisateur principal du mooc, depuis longtemps. S’ajoute à cela le fait d’avoir à rédiger en anglais : un vrai défi que de repasser de la version au thème, de s’exprimer intelligiblement à côté d’anglophones des 4 coins de la planète. Voici un premier retour au bout de 8 semaines.

Comment ça marche ?
Chaque semaine, les organisateurs postent  le cours principal (une vidéo d’une trentaine de minutes), une intervention extérieure (également en vidéo), ainsi que des liens vers les lectures et vidéos recommandées sur la thématique de la semaine. Ce n’est pas une formation diplômante, mais il est possible d’obtenir un certificat de participation sous certaines conditions : rendre au moins 3 des 6 devoirs proposés, participer activement à la formation (chaque participant peut ouvrir son propre blog), contribuer au symposium final.
Un des griefs contre les moocs est que ce serait la fin des enseignants : après en avoir suivi un, je penche pour le contraire. L’organisation, le montage des cours, l’animation de la communauté des participants, tout ça me semble demander pas mal de travail, et cela ne saurait reposer sur une poignée d’enseignants. C’est plutôt d’une évolution de l’enseignement, qui demande une certaine remise en question du métier, qu’il s’agit, amha.
Les 2 organisateurs sont des bibliothécaires, enseignants dans l’école de sciences de l’information et des bibliothèques de l’université, ils assurent les cours et le suivi des participants. Ils s’appuient sur une douzaine d’étudiants (qui suivent un master SIB en présentiel) pour animer les groupes de participants au mooc : une trentaine de participants par animateur, parce que oui, nous sommes un peu moins de 400 !
Techniquement, le système repose sur une plateforme WordPress à laquelle ont été ajoutés des modules pour le partage des activités, la gestion du suivi, les badges. La plupart des vidéos sont diffusées via Panopto, un système qui permet d’afficher simultanément la vidéo, les slides et une transcription.

8573233746_08c7cfc967_nLes points positifs
– La qualité des interventions : Des professionnels de tous horizons, lecture publique comme BU, ayant mené des projets innovants, développé une réflexion sur leurs pratiques, ayant une vision prospective sur leur métier. Ils sont là pour apporter leur expérience, leur pratique, et se montrent très ouverts aux échanges avec les participants.
– L’enthousiasme des organisateurs : On a vraiment l’impression de faire le plus beau métier du monde quand on entend tous les intervenants parler de ce qu’ils font, de comment ils voient les choses ; c’est un réel contraste avec la vision que de nombreux bibliothécaires ont de leur métier ici.
– Les échanges entre participants : Pas évident de suivre tous les blogs des 365 participants, heureusement, les organisateurs mettent en avant des billets intéressants dans les résumés hebdomadaires, libre à chacun ensuite d’aller les commenter ou de rebondir dans un nouveau billet.
– Les badges : Ils sont là pour valider certaines étapes du parcours, mais aussi pour inciter à être actif sur la plateforme – et, par extension, dans sa formation. Et ça marche !

Quelques difficultés rencontrées
– L’investissement en temps : suivre les cours, rédiger des billets, commenter les billets des autres, faire les devoirs, ça demande un minimum d’organisation. Les organisateurs prévoient entre 8 et 10h de travail personnel par semaine, c’est quasiment mission impossible selon les semaines, surtout quand on travaille à temps plein par ailleurs. Le système est cependant suffisamment souple pour permettre de raccrocher les wagons d’une semaine sur l’autre, et les deadlines sont flexibles : l’objectif est vraiment de participer, quel que soit son rythme.
– Le décalage avec la vraie vie : voir ce qui se fait (sans peine) ailleurs, pouvoir discuter d’égal à égal avec des porteurs de projets, lancer des collaborations avec des collègues du bout du monde, c’est, au bas mot, très stimulant. Revenir à son quotidien en BU en France ensuite, c’est quelque peu frustrant.

En conclusion
Je ne me hasarderai pas à généraliser sur l’intérêt – ou pas – des moocs. Je suis très satisfaite de ce mooc là, c’est sûr. Et, forte de cette première expérience positive, je pense que je retenterai l’expérience dans quelques mois, avec un mooc francophone cette fois, et donc sans doute sur un sujet non bibliothéco-centré (parce que ça ne court pas les rues pour le moment, les mooc bibliothéconomiques en français – hello, les urfist, les crfcb ? #jdcjdr). J’essayerai aussi, si possible de trouver un mooc coïncidant avec une période moins chargée au niveau professionnel.
[Photos : sarah_g, audreywaters]

Pétition pour l’accès libre aux résultats de la recherche fédérale : l’administration Obama dit « Oui » !

Le message traduit ci-dessous, publié ce week-end sur le site de la Maison Blanche, a également été adressé par e-mail aux 65704 signataires de la pétition demandant « un accès libre aux articles de revues scientifiques provenant de recherches financées par les contribuables ».

« Augmenter l’accès public aux résultats de la recherche scientifique

Par le Dr. John Holdren

Merci pour votre participation sur la plateforme « We the people ». L’administration Obama convient du fait que les citoyens méritent un accès facilité aux résultats de la recherche financée par leurs impôts. Comme vous le savez peut-être, le bureau de la politique scientifique et technologique (Office of Science and Technology Policy, OSTP) se préoccupe de cette question depuis un certain temps, et a eu l’occasion à deux reprises de faire appel au public pour connaître ses suggestions sur les moyens d’arriver à la démocratisation des résultats de la recherche financée par le gouvernement fédéral. Votre pétition a été d’une grande aide dans la discussion sur cette question.

La logique derrière un accès public amélioré est évidente. Nous savons que la recherche scientifique soutenue par le gouvernement fédéral stimule des découvertes scientifiques capitales et des avancées économiques, lorsque les résultats de cette recherche sont accessibles pour les innovateurs. Des politiques qui mobilisent ces biens intellectuels pour une réutilisation via un accès élargi peuvent accélérer les avancées scientifiques, accroître les innovations et encourager la croissance économique. C’est pourquoi l’administration Obama s’est engagée à veiller à ce que les résultats de la recherche scientifique financée par le gouvernement fédéral soient mis à la disposition et au service du public, de l’industrie et de la communauté scientifique.

2722210623_6059a1615d_mDe plus, ces recherches ont été financées par l’argent du contribuable. Les américains devraient pouvoir accéder facilement aux résultats de la recherche qu’ils aident à financer.

C’est dans cet objectif que j’ai publié aujourd’hui une note à destination des agences fédérales, qui demande à celles qui dépensent plus de 100 millions de dollars en recherche et développement de concevoir des plans d’actions afin de rendre publics les résultats de la recherche financée par des fonds fédéraux, et ce gratuitement, dans un délai de 12 mois après leur publication initiale. Comme vous l’avez indiqué, la politique d’accès public adoptée par les National Institutes of Health (NIH) a été un grand succès. Et, alors que ce nouvel appel politique ne demande pas aux agences de copier exactement la démarche des NIH, il permet de s’assurer que des politiques similaires vont apparaître dans tout le gouvernement.

Comme je l’ai dit, ces politiques ont été développées soigneusement, à travers une vaste consultation publique. Nous voulions trouver un compromis entre l’extraordinaire bénéfice public amené par l’accroissement de l’accès pour tous aux résultats de la recherche financée sur fonds fédéraux et le besoin de garantir que les contributions de grande valeur apportées par l’industrie de l’édition scientifique ne seraient pas perdues. Cette politique reflète cet équilibre, et se donne aussi la souplesse d’y apporter des changements ultérieurs en fonction des usages et des observations. Par exemple, il a été demandé aux agences de travailler sur la base d’une période d’embargo de 12 mois pour leur permettre de développer leurs politiques, mais également d’envisager un mécanisme permettant aux différents acteurs du secteur de leur demander de modifier cette période. Au fur et à mesure de l’avancée des agences dans le développement et l’implémentation de leurs politiques, il y aura de nombreuses possibilités de participation publique pour s’assurer que les agences font le meilleur travail possible pour satisfaire tous les intérêts en présence.

En plus d’aborder la question de l’accès public aux publications scientifiques, cette note demande aux agences de commencer à s’intéresser à la nécessité d’améliorer la gestion et le partage des données scientifiques produites avec des financements fédéraux. Le renforcement de ces politiques va encourager l’entreprenariat et la création d’emploi, en plus de conduire le progrès scientifique. L’accès à des jeux de données pré-existants peut accélérer la croissance, en permettant à des sociétés de concentrer leurs ressources et leurs efforts sur l’interprétation et l’exploitation pleine des découvertes, au lieu de répéter un travail pré-concurrentiel de base, déjà documenté par ailleurs. Par exemple, les données climatiques ouvertes sous-tendent l’industrie de la prévision et fournissent des bénéfices publics importants ; la publication des séquences du génome humain a engendré de nombreuses innovations dans le domaine biomédical – sans parler des nombreuses sociétés générant des milliards de dollars de revenus et les emplois qui vont avec. Progresser vers une plus large disponibilité des données scientifiques va permettre de créer des marchés économiques innovants pour des services liés à la curation, à la conservation, à l’analyse et à la visualisation des données, entre autres.

Alors merci encore pour votre pétition. J’espère que vous conviendrez que l’administration a fait son travail et vraiment répondu à votre demande.

John Holdren est conseiller du Président pour les questions scientifiques et technologiques et directeur du bureau de la politique scientifique et technologique de la Maison Blanche. »

Merci à @St_B pour la suggestion de traduction.

[Photo : StevenANichols]

 

Global Open Knowledge Base

Global Open Knowledge Base est le fruit du partenariat entre le projet de SGB mutualisé américain Kuali OLE  et l’agence britannique JISC Collections. Il s’agit de monter l’architecture d’une base de connaissances mutualisée intégrable dans différents systèmes de gestion de données. JISC Collections travaille sur les modèles et les circuits de données, il peut également s’appuyer sur ses contacts existants avec les éditeurs (l’agence est l’un des principaux opérateurs pour la négociation des ressources électroniques au Royaume-Uni) ainsi que sur le réseau existant de ses établissements membres pour l’alimentation. La partie mutualisée de la base de connaissances gère les éléments au niveau global (titre, éditeur, identifiant, bouquet, plateforme), les informations locales (contrats, licences, commandes, stats…) sont gérées dans le SGB. Les atouts de GOkb sont l’utilisation de standards, la mise en place d’un système d’identification des ressources, l’application de modèles de données et de workflows, la gestion communautaire. Le projet bénéficie d’un financement de 499000$ de la fondation Mellon, passage en production de la version 1.0 prévu pour 2013.

[photo : squarepants2004/auntiehuia]

Machine à (garder ses) sous

L’étude The value of UK HEI’s to the publishing process du JISC s’est penchée sur le coût des publications scientifiques pour les établissements d’enseignement supérieur et de recherche du Royaume-Uni, sachant que :
– la communication scientifique ne peut pas se passer du peer-review
– le peer-review est réalisé gratuitement par les chercheurs
– le nombre d’articles scientifiques est en augmentation constante, et donc le peer-review aussi.
Elle arrive à des chiffres non négligeables :
– le travail de peer-review est estimé à entre 110 et 165 millions de £
– la participation à des comités éditoriaux représente 30 millions de £
Si l’on ajoute à cela la dépense annuelle des établissements consacrée aux abonnements en ligne, pour pouvoir consulter les articles de revues, estimée à entre 113 et 121 millions de £, la facture se monte annuellement à entre 253 et 316 millions de livres sterling, ie entre 300 et 400 millions d’euros.
Avec de telles sommes, les établissements ne pourraient-ils pas mettre en place un système de production, de diffusion et de conservation de l’information scientifique ? C’est ce que propose Brad Wheeler, de l’Université de l’Indiana dans cet article d’Educause Review, avec « the Big Digital Machine », un concept en cours d’élaboration au sein du Committee on Institutional Cooperation, un consortium d’universités du nord ouest des Etats-Unis. Le principe est que si les établissements se réapproprient leur recherche, ils seront en mesure d’en définir les modes d’accès, aussi bien en terme de droits qu’en termes techniques – l’idée c’est aussi de s’appuyer sur les outils existants, qui ont fait leurs preuves, comme Open Journal Systems (OJS), Fedora/DSpace/DuraSpace, Connexions, EPrints pour pouvoir gérer la totalité du workflow des publications. Une infrastructure de ce type pourrait fédérer aussi bien les sociétés savantes que les presses universitaires, voire les « petits » éditeurs pas encore passés au numérique. Tentant…

[Photo : cobalt123]

Un Aardvark dans le moteur

Aardvark est un service de questions-réponses collaboratif monté par d’ex-cadres de chez Google en 2007, qui utilise les réseaux sociaux pour multiplier les points d’accès : on peut poser des questions et y répondre sur le site web, par messagerie instantanée, par iphone, sur Twitter (d’où la rapidité des résultats – dans les 5 minutes – ce qui est un plus). Le site est simple et plutôt convivial – il permet de renvoyer un message de remerciement à la personne qui vous a répondu, on peut accéder facilement à la liste des questions que l’on a posées / des réponses que l’on a données, ou transférer la question vers une personne plus susceptible de connaître la réponse.

Le concept de ‘recherche sociale’ appliqué ici, c’est, en gros, qu’il vaut mieux demander à celui qui sait plutôt que perdre du temps à chercher. Un réflexe qui n’est pas idiot, mais que j’aurai pensé moins répandu – que ce que j’ai plu le constater en pratiquant sur Aardvark – à l’heure où on peut trouver tout ce qu’on veut en 2 clics sur internet : certaines des questions que j’ai vu passer trouvaient une réponse par une simple requête sur Google. Ce qui me laisse perplexe : il me semble plus facile de googler quelque chose que d’aller poser une question sur un site de questions-réponses, non ? Mais bon, toutes les questions ne sont pas du même acabit, et il y a aussi beaucoup de demandes de conseils, de tuyaux, d’avis : c’est la recommandation que l’on recherche.

Le service marche plutôt bien, enfin, on peut raisonnablement le penser, puisqu’il vient d’être racheté par… Google.

[photo : axlotl]


juin 2023
L M M J V S D
 1234
567891011
12131415161718
19202122232425
2627282930  

Archives

Licence

Licence Creative Commons
Ce(tte) œuvre est mise à disposition selon les termes de la Licence Creative Commons Attribution 3.0 France.