Archive for the 'OpenScience' Category

Le (bon) plan S

38028099792_44acda4c73_oScience Europe vient d’annoncer le lancement de la « Coalition S« , un accord signé par 11 organismes financeurs de la recherche en Europe, dont l’ANR. Et c’est l’occasion d’en apprendre un peu plus sur le fameux Plan S élaboré par le chargé de mission pour l’open access de la Commission Européenne, Robert-Jan Smits (RJS). En effet, cette coalition s’engage sur l’objectif principal du Plan S, à savoir l’obligation de diffusion en accès ouvert, à compter du 01/01/2020, de toute la littérature de recherche financée par des fonds publics ; la diffusion pouvant se faire soit dans des revues en open access, soit sur des archives ouvertes.

Le Plan S se décline en 10 points (je résume) :

  • Les auteurs conservent leurs droits et diffusent leurs travaux sous une licence ouverte
  • Les financeurs vont définir des critères et un haut niveau de service pour qualifier les revues OA et les plateformes d’archives ouvertes labellisés
  • Les financeurs soutiendront la création de revues et de plateformes si besoin ; ils soutiendront également les infrastructures de l’open access
  • Les APC seront payés par les financeurs ou par les institutions (et pas par les individus)
  • Les APC seront standardisés et plafonnés au niveau européen
  • Les universités, organismes de recherche et BU devront aligner leurs politiques et leurs stratégies en la matière
  • Tous les produits de la recherche sont concernés par cette politique, même les ouvrages, bien que pour ceux-ci une tolérance soit accordée  au niveau du délai de mise en place
  • Le rôle des archives ouvertes pour la conservation à long terme des productions de recherche et pour l’innovation éditoriale est réaffirmé
  • Exit les hybrides : le modèle hybride n’est pas compatible avec les objectifs du plan S
  • Les financeurs feront une suivi du respect de ces règles et sanctionneront les manquements

Evidemment, les éditeurs ne voient pas ce plan d’un bon oeil : le refus des hybrides signerait la fin de la liberté académique du chercheur et freinerait la transition vers l’open access, le plan « saperait le travail de validation effectué par les revues de qualité » et ne serait « pas soutenable pour les revues du groupe Science », selon un porte-parole de l’éditeur.

PS : Pour quoi un plan « S » ? C’est « S » pour « Science, Speed, Solution, Shock », selon RJS.

Sources :
European science funders ban grantees from publishing in paywalled journals
Radical open access plan could spell end to journal subscriptions

Publicités

Une initiative pour le financement de l’open science : SCOSS

8661000014_715a3135e5_oSPARC Europe a lancé la « Coalition mondiale pour la durabilité des services scientifiques ouverts » (Global Sustainability Coalition for Open Science Services, SCOSS), pour coordonner un système de mutualisation du financement des projets et services permettant à la science ouverte de se faire, pour assurer leur maintien sur le long terme.

Du financement participatif pour pérenniser la science ouverte

Le principe de ce dispositif est de proposer chaque année à des services non commerciaux participant à l’open access et/ou à l’open science de soumissionner pour un financement mutualisé d’une durée de 3 ans ; les candidatures sont examinées en fonction d’une série de critères tels que la valeur ajoutée pour les différents acteurs de la recherche, la gouvernance, le coût et la durabilité du financement, les projets de développement. Deux initiatives sont sélectionnées par campagne et pourront être subventionnées selon un système de financement participatif, réparti sur les institutions et les organisations de recherche du monde entier.

Les 2 premiers services sélectionnés sont le DOAJ et Sherpa/Romeo, deux outils que nombre de bibliothèques utilisent au quotidien :

– Le DOAJ pour repérer les revues en OA de qualité à signaler aux enseignants-chercheurs. Il est possible que la formule d’adhésion actuelle au DOAJ disparaisse au profit de celle de SCOSS d’ici 2021. (Objectif de financement : 970 000 €)

Sherpa/Romeo pour connaître les politiques des éditeurs en matière d’auto-archivage. C’est un service que nous continuerons d’utiliser malgré la loi numérique, au moins tant qu’il ne sera pas dit officiellement qu’elle est rétroactive. Il est prévu d’ouvrir la curation des données de Sherpa/Romeo à la communauté, pour accélérer le traitement des demandes. (Objectif de financement : 1 529 935 €)

Pourquoi c’est intéressant ?

SCOSS établit une tarification pour les services sélectionnés en fonction des besoins et des objectifs de développement ; la grille tarifaire est échelonnée pour permettre la participation des établissements de grande et de petite taille.

Les établissements participant au financement s’engagent pour 3 ans. A l’issue de cette période, les candidats doivent avoir trouvé un mode de financement durable.

C’est un moyen très concret de soutenir le développement de la science ouverte, en renforçant des structures devenues de référence sans pour autant avoir un financement pérenne. De passer des déclarations d’intention aux actes, dans le droit fil des préconisations de l’appel de Jussieu.

Et ça marche ?

La campagne a plutôt bien commencé : lancée fin 2017 par Sparc Europe, LIBER, EIFL et CAUL, avec le support de l’AOASG, de COAR, de l’ERC, de l’EUA , de l’IFLA et de Science Europe, elle a déjà permis de collecter plus de 340 000 d’euros d’engagements, répartis sur une trentaine d’établissements académiques.

Pour en savoir plus, on peut s’abonner à la newsletter de SCOSS (qui devrait bientôt être disponible en français) ici.

2,5% et plus

In the Internet era information will be free, the only question remaining is who pays for that freedom. — Kalev Leetaru

5171649483_dac32e7533_m

 

David Lewis, directeur des BU de l’Indiana University – Purdue University Indianapolis, propose dans le texte « The 2,5% Commitment » de financer une infrastructure commune, nécessaire pour soutenir la science ouverte, en demandant aux bibliothèques d’y consacrer 2,5% de leurs budgets. Elle comprendrait, au minimum, les contributions des établissements :
« 1. Aux projets de logiciels libres qui sous-tendent les initiatives d’open science : Dspace,  Fedora, Hyku, OJS, ArchiveSpace, Islandora…
2. Aux archives disciplinaires : ArXiv, bioRxiv, ou the Humanities Commons
3. Aux grosses bases de données hébergeant des contenus ouverts comme HathiTrust ou l’Internet Archive
4. Aux outils, de Wikipedia à VIVO, en passant par l’Open Access Button ou Unpaywall
5. Aux organisations de conservation telles que le Digital Preservation Network ou l’Academic Preservation Trust
6. Aux ressources éducatives libres telles qu’OpenStax
7. Aux organisations qui soutiennent ces développements, comme DuraSpace, le Center for Open Science, le Public Knowledge Project, l’Open Texbook Network, Impactstory, Orchid, ou Creative Commons
8. Aux organisations de promotion telles que SPARC »

Lewis souhaite aussi fournir une liste des différents outils et initiatives de soutien à la science ouverte, en regard de laquelle les établissements pourraient indiquer leur contribution financière, avec le choix de rendre publique cette information ou pas.

Au delà de la question financière, Lewis souligne qu’il y a une question de mentalité et d’organisation : en effet, malgré une longue tradition de travail en réseau, la mutualisation de capacités financières n’est pas encore entrée dans les pratiques des BU, et encore moins quand il s’agit de financer des structures, et plus seulement d’acheter de la documentation. Il y a un discours à porter auprès des tutelles, pour justifier l’allocation de ressources financières en soutien à des projets de science ouverte, qui n’est pas encore intégré dans les BU (en tout cas en France, du moins je n’en ai pas l’impression).
[Sur cette question d’organisation, on ne peut que faire le lien avec ce qui est en train de se mettre en place avec SCOSS, Sustainability Coalition for Open Science Services, un projet à l’initiative de plusieurs associations de soutien à l’open access et d’associations de bibliothèques. Le principe est assez simple : chaque année, les structures proposant des services en faveur de la science ouverte peuvent candidater pour être éligibles à un financement mutualisé. 2 projets sont sélectionnés par session, que les institutions choisissent de financer selon un barême défini à l’avance ; un genre de crowdfunding institutionnel, en somme. Cette année, Sherpa/Romeo et le DOAJ ont été sélectionnés, soutenez-les !]
La proposition de Lewis contrarie un peu Cameron Neylon, promoteur de longue date de l’open access : pour lui, un financement mutualisé ne peut fonctionner qu’avec un nombre réduit de participants, et nécessite un fort niveau de coordination, difficile à mettre en place au niveau d’un état (en tout cas aux Etats-Unis). Il questionne aussi la définition du pourcentage : qu’est-ce qui est couvert par cette fraction du budget ? Et comment le rationnaliser pour l’expliquer au sein de « la communauté », dans le cadre d’institutions pluri-disciplinaires, qui agrègent une myriade de communautés avec leurs spécificités et où le sens de « la » communauté n’est pas la chose la plus répandue ? Il est néanmoins d’accord avec la majorité des arguments de la proposition de Lewis, et conclut :
« Je pense que l’objectif est sur-évalué. Il demande à ce que trop d’universités participent, il implique des risques politiques à la fois internes et externes qui sont exactement ceux qui ont ralenti l’implémentation de l’open access. Il suppose un pouvoir sur les budgets, et le consentement implicite des universitaires, qui n’existent vraisemblablement pas et sont pratiquement impossibles à obtenir, et les masque derrière un petit pourcentage. Obtenir ce petit pourcentage demande quand même une grande coordination entre de nombreuses institutions, et il me semble peu probable d’y arriver.
Et en même temps cet objectif est loin d’être assez ambitieux. Si l’on veut vraiment transformer la communication scientifique en passant d’une logique de contrats de service à une logique de plateformes partagées, alors se contenter de cibler 2,5% est voué à l’échec. Personne ne sait quel devrait être le chiffre idéal, mais il me semble clair que si nous voulons faire des économies, il faut partir sur un pourcentage élevé. Nous avons besoin d’une optimisation systémique, qui nous permette de récolter les bénéfices de l’offre commerciale, y compris le capital extérieur, la qualité du service et la concurrence, tout en conservant progressivement une plus grande part des normes, des plates-formes et des mécanismes d’échange dans la sphère communautaire.

Passer d’une logique d’acquisition à une logique d’investissement est une façon d’ y parvenir. »

La reproductibilité, une corde à ajouter à l’arc des bibliothécaires ?

4048391932_b09fe9569a_oIntéressons-nous aujourd’hui à une tendance émergente dans le monde de la « bibliothéconomie des données » : la reproductibilité. En gros, il s’agit du fait de pouvoir reproduire les expériences et/ou les observations faites par des chercheurs, pour pouvoir d’une part vérifier qu’elles sont justes, mais aussi et surtout pour aller plus loin dans le travail de recherche à partir de ces données. Cela suppose notamment que les données en question soient accessibles bien sûr, mais aussi qu’elles le soient dans des formats normalisés pour pouvoir être manipulées. Et que les outils utilisés pour analyser ces données soient accessibles également.
Cela semble évident dit comme ça, mais c’est loin d’être le cas : depuis le milieu des années 2000, plusieurs études ont montré qu’entre la moitié et les trois quarts, selon les disciplines, des expériences publiées ne sont pas reproductibles, à tel point que l’on a parlé d’une « crise de la reproductibilité » scientifique. La psychologie et la médecine seraient les domaines les plus touchés par le problème.
Pour y remédier, les différents acteurs de la recherche ont mis en place différents outils et démarches : les registered reports (on détaille dans un article spécifique, avant le démarrage de la collecte des données, le processus de recherche qui va être appliqué, si celui-ci est validé, on poursuit), l’analyse collaborative des résultats (pour éviter les biais d’interprétation par un chercheur isolé), un effort sur la formation des chercheurs aux outils statistiques et d’analyse…
La New-York University elle, s’est dotée, en plus, d’une bibliothécaire chargée de la gestion des données de recherche et de la reproductibilité (« Librarian for research data management and reproductibility »). Dans l’article « Reproductibility librarianship » de la revue Collaborative librarianship, Vicky Steeves nous détaille ses fonctions (je traduis et résume) :

  • Formation des enseignants-chercheurs et des étudiants avancés sur la gestion des données de recherche, sur la curation de données, sur les critères à remplir pour être en conformité avec les obligations de diffusion ouverte des organismes financeurs. C’est un travail mené en collaboration avec le ou la bibliothécaire chargé de la gestion des données (« Librarian for RDM »), qui aborde systématiquement la reproductibilité mais aussi les questions d’éthique de la recherche. Ces questions font d’ailleurs partie de la formation obligatoire sur l’intégrité scientifique (« Responsible conduct of research« ) que doivent suivre les lauréats des bourses de la NSF et des NIH.
  • Rayonnement : programmation d’événements mettant en avant les questions de gestion des données de recherche (y compris celle de la reproductibilité), et s’articulant avec l’évolution des besoins des laboratoires selon les disciplines. Ce travail est conduit en étroite collaboration avec les bibliothécaires de chaque discipline (« liaison librarians »), qui connaissent les projets de recherche et le type de données que celles-ci sont susceptibles de générer. Cette collaboration permet d’améliorer l’offre de services à la recherche dans son ensemble. Les projets sont diffusés en libre accès, et présentés lors de différentes manifestations professionnelles nationales.
  • Support et création d’outils : veille sur les outils et techniques d’aide à la reproductibilité, et diffusion de celle-ci auprès des publics concernés, participation à la création d’une infrastructure de stockage et de gestion des données pour les enseignants-chercheurs de l’établissement, développement de méthodes et de workflows pour la ré-utilisation et la conservation de jeux de données. L’outil open source développé par la NYU, ReproZip, permet d’enregistrer les données, les paramètres et l’environnement logiciel avec lesquels la recherche a été faite, et de les « rejouer » sur une autre machine, quel que soit l’environnement de travail. Il permet également de modifier les paramètres pour faire avancer les hypothèses de recherche. C’est un moyen très parlant pour sensibiliser chercheurs et étudiants à l’intérêt de la reproductibilité de la recherche.

Un poste intéressant, qui montre une volonté d’intégration de la gestion des données à toutes les étapes du cycle des projets de recherche, en s’appuyant sur les compétences des bibliothécaires. Et qui demande, comme finalement souvent dans le domaine de la science ouverte,  autant sinon plus de compétences relationnelles, pédagogiques et de gestion de projet que de compétences réellement techniques. Or ces compétences, normalement, nous les avons : c’est plutôt rassurant en terme d’évolution des métiers, je trouve.
[Photo : Roel Wijnants]

Les pre-prints en 10 points

4069417645_570914e701_zUn pre-print est une contribution scientifique non validée par les pairs, qui peut être destinée à la publication (mais ce n’est pas une obligation). Les initiatives autour des pre-prints se multiplient ; Philip Bourne, Jessica Polka, Ronald Vale et Robert Kiley présentent en 10 points l’intérêt des pre-prints aujourd’hui :

Les pre-prints accélèrent la diffusion des connaissances : ils permettent de s’affranchir des délais longs de la publication (comptez en moyenne 9 mois entre la soumission et la publication d’un article dans une revue).

Les pre-prints rendent possible une science ouverte (« open science ») et améliorent la communication scientifique : ils ne sont pas soumis aux contraintes du copyright et leur consultation n’est pas restreinte, ils peuvent être fouillés par des programmes informatiques.

Les pre-prints fournissent du contenu scientifique qui serait perdu sans cela : un sujet qui n’a pas trouvé son public au moment où il a été traité, les travaux d’un étudiant ayant changé d’établissement, des résultats négatifs : ces contenus ne seront pas forcément publiés dans une revue, ils peuvent néanmoins servir à la communauté. « Oui mais ils ne sont pas validés ! » – certes, mais ni plus ni moins que les échanges dans les congrès, ou les blogs scientifiques…

Les pre-prints ne sont pas synonymes de mauvaise qualité : ce sont des contributions diffusées publiquement, qui peuvent être citées, et mettent en jeu la réputation de leurs auteurs, qui ont donc tout intérêt à diffuser des contenus de qualité – c’est en tout cas ce que l’on constate sur arxiv et biorxiv.

Les pre-prints permettent une évaluation rapide des résultats controversés : leur diffusion publique permet la discussion, le repérage des erreurs, la correction des données. Les NIH ont ainsi pu obtenir une vision très complète et très documentée de résultats controversés.

Les pre-prints n’empêchent pas forcément la publication : au vu de cette liste des politiques éditoriales concernant les pre-prints, on constate que peu d’éditeurs refusent des contributions au motif qu’elles ont déjà été déposées sur un serveur de pre-prints. La tendance est même plutôt à l’ouverture aux pre-prints, avec le développement de passerelles entre les serveurs de pre-prints et les outils de soumission aux revues, et d’epi-revues.

Les pre-prints ne mènent pas au plagiat : l’exemple d’arxiv montre que la communauté s’autorégule : des comportements plagiaires ne sont pas tolérés.

Les pre-prints permettent d’enregistrer la priorité : les contenus sont horodatés et publics, garantissant la paternité de leur auteur et leur antériorité dès leur dépôt, ce que ne permettent pas les revues, en raison de la validation par les pairs encore le plus souvent « fermée » et des délais de publication.

Les pre-prints peuvent appuyer les demandes de financement et l’avancement de carrière : les délais de publication sont un handicap, mieux vaut un dossier de financement avec des pre-prints disponibles en texte intégral immédiatement, c’est en tout cas ce qu’indique le fait que les organismes de financement, qui incluent de plus en plus l’intégration des pre-prints dans leurs politiques de subventionnement de la recherche. Concernant l’avancement, on peut imaginer qu’un pre-print assumé par son auteur aurait autant de poids que d’autres publications dans le processus d’évaluation.

Les pre-prints s’adaptent aux usages de leurs communautés : biorxiv par exemple n’accepte pas les papiers comportant des données sur des sujets humains, qui posent des questions d’ordre éthique, juridique et social.

Ten simple rules for considering preprints, disponible sur PEERJ Preprints.

Liber 2013

Mairie de Münich (neues Rathaus)J’ai eu l’opportunité, dans le cadre de mon stage chez Openedition, d’assister fin juin au congrès annuel de Liber à Münich, dont le thème était cette année : « Research information infrastructures and the future role of libraries ». Le programme et les supports des interventions sont en ligne sur le site du congrès, inutile donc de tenter un compte-rendu exhaustif de ces 3 jours, d’autant qu’il n’était pas possible d’assister à tous les ateliers ; voici juste quelques aperçus.

Open access
Même si la route est encore longue, la marche vers l’Open Access continue ; le rapport Finch et les prises de position multiples qui s’en sont suivies amènent le secteur éditorial à évoluer. Plusieurs initiatives ont été présentées, concernant essentiellement les SHS :
Openedition, qu’on ne présente plus, en France en tout cas : Ses presque 400 revues, ses 600 carnets de recherche, ses 20000 annonces d’événements, ses bientôt 1000 livres… et ses 3 millions de visites par mois en provenance de tous les pays, preuve s’il en était que les SHS suscitent l’intérêt au delà du monde académique francophone.
Social Sciences directory : L’idée qui sous-tend ce projet récent de publication, c’est de garder les bons côtés de l’édition scientifique traditionnelle (le contrôle de la qualité, l’indépendance éditoriale, la structuration des articles…) et de leur ajouter les bénéfices de l’édition numérique (pagination illimitée, réduction des délais de publication, liens vers des données additionnelles…). Côté modèle économique c’est du Gold auteur-payeur, l’institution paye des frais de publication (Article Processing Charges, APCs) annuels pour ses chercheurs, ou bien ceux-ci payent des APCs à l’article. La différence avec les autres offres éditoriales de ce type, c’est la volonté affichée d’arriver à un modèle durable sur le long terme, donc avec des coûts a priori plus bas que ceux généralement constatés : on est à 150$ par article, au lieu de 3000$. Jusqu’ici 3 numéros sont parus, soit 9 articles, et une version pour les humanités est déjà prévue.
Directory of OA Books : Calqué sur le modèle du DOAJ, le DOAB vise à améliorer la visibilité des livres en open access, en mettant l’accent sur la qualité des contenus publiés, qui doivent obéir à des critères académiques de validation (peer review). Il est maintenu par l’OAPEN Foundation, un projet de développement de l’édition de livres en open access financé par l’Union Européenne, qui rassemble des presses universitaires d’Europe (surtout) du nord.
Knowledge Unlatched : Un projet plutôt intéressant, qui propose de faire financer la publication d’ouvrages en libre accès par les bibliothèques : elles partagent les coûts fixes de publication (sélection, peer review, relecture…) – sachant qu’il faut compter dans les 10 000 à 15 000 $ en moyenne pour un ouvrage universitaire – et les contenus sont ensuite accessibles librement par tous. Les éditeurs restent libres de vendre des versions imprimées ou dans d’autres formats électroniques. Une commission est chargée de choisir les titres sélectionnés par les bibliothèques membres du consortium en cours de constitution parmi les titres proposés par les éditeurs partenaires du projet ; il s’agit pour l’instant uniquement  de livres à paraître, mais il n’est pas exclut que le projet s’intéresse ultérieurement à des ouvrages déjà parus (et donc déjà amortis). Le succès de l’opération réside dans la participation d’un grand nombre de bibliothèques, pour faire diminuer la contribution de chacun. C’est là le vrai challenge : les bibliothèques sont-elles prêtes à faire ce type d’investissement ? (et en ont-elles les moyens ?)
MedOAnet : Dans le cadre de ce projet européen de suivi des stratégies et politiques en faveur de l’Open Access dans les pays de l’Europe méditerranéenne a été menée une étude auprès des éditeurs (publics et privés), afin d’avoir une vue de leur politique vis à vis de l’open access. On leur a posé des questions assez précises sur leurs politiques en matière de transfert de copyright, d’auto-archivage, sur la version de dépôt autorisée, sur la présence d’embargos.  Il en ressort que  les éditeurs ayant répondu seraient plutôt favorables à la diffusion en open access (forts taux d’acceptation du dépôt dans des archives ouvertes, peu d’exigences de transfert exclusif des droits de diffusion). Ce résultat est néanmoins à pondérer au vu du taux de réponse (12%), qui permet difficilement, à mon sens, de tirer des conclusions très probantes de l’enquête. Il serait intéressant de la reconduire, en en faisant davantage de promotion : cela sera-t-il possible, sachant que le projet n’est financé que jusqu’à fin 2013 ? Et que les financements vont généralement aux nouveaux projets plutôt qu’au suivi de projets existants ?
[Ce n’est pas directement le sujet de ce billet ni de ce congrès, mais il me semble cependant que c’est une vraie question en ce qui concerne le financement de l’open access : on entend beaucoup parler de « durabilité », de viabilité (‘ »sustainability ») comme d’un Graal à atteindre, mais on continue à ne donner que des enveloppes d’impulsion – comment espérer à ce compte là arriver à des stratégies à long terme ? Bref, fin de la parenthèse.]

Data data data
On a beaucoup entendu parler de gestion des données de la recherche (« research data management ») : face au « data deluge » qui se profile, par exemple avec l’obligation de mise en place de plans de gestion des données (« RDM plans ») pour les agences fédérales américaines (cf la directive de l’OSTP), les bibliothèques doivent s’adapter et intégrer la gestion des données de recherche à leurs missions, voire au coeur de leurs missions. Les recommandations pour plus d’ouverture des résultats de la recherche qui se sont multipliées au cours des derniers mois s’étendent aux données de la recherche, qui doivent être ouvertes par défaut. Cette ouverture est garante d’une science plus intègre (moins de fraude), plus économique (réplicabilité de la recherche), accessible au plus grand nombre (« citizen science »)…
La gestion de ces données soulève bien des questions, notamment celle de leur archivage (quelle durée ? quels formats ? quels moyens ?), et, en corollaire, celle des coûts, qui demeure la grande inconnue : si ceux-ci peuvent être financés par les bourses et autres financements des projets de recherche au départ, la conservation des données à long-terme a aussi un coût qui doit être supporté, vraisemblablement par les institutions. Par ailleurs, vue la masse de données produites, il y a nécessité de mutualiser les outils et de partager les infrastructures de stockage et d’accès aux informations ; ce serait particulièrement pertinent pour les projets les plus modestes (les « gros » projets comprennent généralement un volet spécifique aux données et à leur gestion). Dans ce contexte, les bibliothèques pourraient se positionner comme services de publication de données institutionnelles : en apportant de l’assistance aux chercheurs dans la mise en place de « plan de gestion des données », en participant à la structuration des formats de données, en travaillant sur les métriques autour des données…
Quelques initiatives à suivre :
Journals Research Data policy bank (JoRD) : Un projet du JISC, piloté par la responsable de Sherpa/Romeo, qui examine la faisabilité d’un service centralisé de recensement des politiques des revues concernant les données de recherche. L’étude montre que la moitié des revues affichent des politiques en la matière, mais que les 3/4 de celles-ci sont floues (manque de standardisation, incomplétude…)
Elixir : Un projet européen d’infrastructure pour le stockage et le traitement des données en sciences de la vie, mené par la Royal Society.
– La ligue européenne des universités de recherche (LERU) travaille, avec LIBER, sur ces questions, la rédaction d’une feuille de route sur les données de recherche est en cours.

Une statue perplexe dans le hall de la Bayerische Staats Bibliothek

Problème de casting ?
Ca a été clairement dit par l’un des intervenants (G. Boulton, ppt) : « Libraries do the wrong things, employ the wrong people ». Pour gérer toutes ces données, les bibliothèques doivent s’équiper de « data scientists », de « data managers ». Problème : où les trouver ? Il y a un vrai problème de manque de compétences dans la profession actuellement, qui attire toujours peu de profils scientifiques (en sciences « dures ») – or un data scientist, c’est quelqu’un qui sait gérer les données et les manipuler pour leur donner du sens, avec des compétences en statistiques, en mathématiques, en informatique spécialisée. De l’avis général, il existe peu de formations spécifiques dans les cursus universitaires, et la gestion de données ne fait pas partie des enseignements dans les formations initiales des bibliothécaires (je confirme) ; acquérir ce type de compétences est pourtant un enjeu fort, qui va demander un changement dans les mentalités des bibliothécaires. Des initiatives émergent, notamment au Royaume-Uni :
Immersive Informatics : il s’agit d’un programme pilote de formation à la gestion des données de la recherche, mené conjointement par les universités de Bath et de Melbourne, à destination des professionnels de l’IST. Il comprend, en plus des nombreux ateliers thématiques (sur la conservation, les aspects juridiques, la gestion des plans, etc), 2 modules au sein desquels les participants sont entièrement intégrés dans un laboratoire ou un département de recherche de l’université et travaillent sur des jeux de données réels.
RDMRose : ce projet de formation continue pour les professionnels de l’IST financé par le JISC a permis de produire des cours sur la gestion des données (en accès libre et donc réutilisables)

Bref, encore du pain sur la planche pour les bibliothécaires…

Open access : méfiez-vous des imitations

Un signe du succès d’un produit ou d’un concept est souvent que d’autres acteurs que les producteurs originaux s’en inspirent – de façon plus ou moins convaincante -, en proposant quelque chose de similaire. Et bien c’est le cas pour les revues en open access : certains éditeurs – jusque là inconnus – diffusent désormais des revues « en libre accès », mais ne proposant aucune des garanties de sérieux que l’on est en droit d’attendre quand il s’agit de recherche scientifique. Jeffrey Beall, un bibliothécaire du Colorado, passe au crible sur son blog Scholarly Open Access les offres de ces éditeurs : caution scientifique de sociétés savantes fantômes, re-publications multiples des mêmes articles, système de validation inexistant ou fortement biaisé (les auteurs choisissant leurs reviewers…), références des auteurs invérifiables (chercheurs d’une université qui n’existe pas)… tels sont quelques-uns des principaux « défauts » de ces publications. Plusieurs indices doivent éveiller le soupçon chez le bibliothécaire confronté à des revues publiées par ces maisons : coordonnées factices de l’éditeur, faible nombre d’articles, annonce d’un facteur d’impact pour des revues récentes, emploi d’un anglais approximatif sur le site web, récompenses imaginaires…

L’intérêt pour ces « prédateurs », comme Jeffrey Beall les nomme (« predatory publishers ») ? Il s’agit essentiellement :
– de l’appât du gain : par un détournement pur et simple du modèle « auteur-payeur ». Ces éditeurs rivalisent de créativité pour faire payer des frais de publication aux auteurs (frais de traitement, frais d’enrichissement…).
– d’une  stratégie opportuniste : effet collatéral du « publier ou périr ». On voit ainsi des articles recyclés dans plusieurs revues du même « éditeur », pour booster la liste de publications de chercheurs, souvent issus de pays émergents. En fait d’éditeur, il s’agit de collègues ou de compatriotes basés en Europe ou aux Etats-Unis, qui ouvrent des sociétés fantôme dont l’activité principale consiste à promouvoir leurs revues et leurs auteurs, sous une apparence d’honnêteté (« Vanity presses »).

J. Beall tient à jour une liste, qui s’enrichit régulièrement de nouveaux éditeurs douteux. Il recommande aux chercheurs d’éviter toute collaboration avec ces éditeurs, que ce soit en tant qu’auteurs ou en tant que reviewers, et de considérer avec beaucoup de méfiance les informations contenues dans ces articles. Ca semble en effet plus prudent.

[photo : amulonphotography]


octobre 2018
L M M J V S D
« Sep    
1234567
891011121314
15161718192021
22232425262728
293031  

Archives

Licence

Licence Creative Commons
Ce(tte) œuvre est mise à disposition selon les termes de la Licence Creative Commons Attribution 3.0 France.
Publicités