Archive for the 'Open Access' Category

Double peine

7615370532_791d9a917c_z« Les commissions de recherche du Royaume-Uni, et d’autres organismes financeurs de la recherche, exigent la publication en accès ouvert des résultats de recherche qu’ils financent. Cela a abouti, pour l’University College of London (UCL), partisan de l’accès ouvert de la première heure, ainsi que pour d’autres universités à forte activité de recherche, à un double paiement auprès des éditeurs : une première fois sous la forme de frais de traitement (« article processing charges », APCs), pour pourvoir publier les articles en accès ouvert, et une seconde fois sous la forme d’abonnements, pour pouvoir lire ces mêmes articles.
Pour répondre à la pression de la communauté universitaire, portée par l’UCL, plusieurs éditeurs ont fini par reconnaître l’impact négatif de ces mesures sur le coût global de possession (ce que l’on désigne parfois sous le terme de « double-dipping »). Dans le cadre d’un accord conclus avec le JISC, les éditeurs Wiley-Blackwell et Taylor&Francis se sont engagés auprès de la communauté à répondre à ces inquiétudes avec des modèles innovants pour s’attaquer à la question du coût global de possession et faire baisser les dépenses totales payées actuellement par les BU. »

Je n’arrive pas à me réjouir de cette nouvelle, surtout après avoir commencé à recevoir mes devis pour 2015. Effectivement, il y a bien une colonne avec une réduction pour les publications en OA. Mais son montant est si faible, au vu des coûts des APCs pratiqués par les éditeurs (pas forcément les 2 évoqués ci-dessus, d’ailleurs)…

On apprend par ailleurs que les négociations entre l’association des universités des Pays-Bas et Elsevier sont dans l’impasse, justement parce que l’éditeur n’a apparemment pas été en mesure jusqu’ici de proposer une option crédible de transition vers la diffusion en accès ouvert. Si aucune solution n’est trouvée d’ici la fin de l’année, les accès seront interrompus : l’objectif affiché du ministère de la recherche hollandais est d’atteindre 100% de la production de recherche en OA d’ici 10 ans, il met en cohérence sa politique et ses actes, ce qui n’est pas si fréquent.

[Photo : danaharisson]

Quels changements pour les BU quand l’OA primera ?

13921535969_dccf724a92_kJe trouve le billet d’Aaron Tay « How academic libraries may change when open access becomes the norm » particulièrement pertinent par rapport aux questionnements que nous avons en BU ces temps-ci ; voici les changements qu’il anticipe (ce qui est en italique est traduit par mes soins) , en partant du principe « qu’au cours des 10-25 prochaines années, 50 à 80% (ou plus) des publications annuelles seront disponibles sous une forme ou une autre d’open access« .

1. « Les rôles des BU dans la découverte et même dans la fourniture d’information aux usagers vont diminuer » :
Les étudiants, et de plus en plus de chercheurs, n’utilisent pas le site de la BU pour commencer leurs recherches, ils utilisent sans le savoir les ressources de la BU croisées avec les outils de signalement commerciaux comme Google Scholar : exit la mission d’aide à la découverte.
Par ailleurs, une fois la majorité des ressources accessibles librement en OA, finie la mission de fourniture d’information : divers outils permettent déjà (l’extension pour Chrome Lazy Scholar par exemple) de récupérer automatiquement une version en libre accès quand elle est disponible.
Du coup, cela aura une incidence au niveau des RH : on n’aura en principe plus besoin de grosses équipes pour la gestion des abonnements imprimés (tant qu’il en restera) ni pour la gestion des ressources en ligne (qui se concentrera du coup sur l’administration du résolveur de liens, de la base de connaissance…)

2. « Les BU pourraient plus se concentrer sur leurs fonds spécifiques et passer à l’édition/l’hébergement de revues » :
« Au delà du simple rôle d’archive, quelques bibliothèques s’essayent à produire des épirevues, comme le fait l’University College London. Cela demande essentiellement que les BU se lancent dans l’édition en convertissant les archives institutionnelles en plateformes de publication. Les presses universitaires de l’UCL, par exemple, sont désormais un département au sein de la bibliothèque de l’institution. En combinant la plateforme open source Open Journal System (OJS) et l’archive institutionnelle comme système de stockage, la bibliothèque édite désormais des revues en open access. De nombreuses revues sont aussi publiées avec la solution Digital Commons.
La grosse question est de savoir si les BU ont les compétences, les savoirs et les motivations pour jouer ce rôle et reprendre le système de communication scientifique. »
En ce qui concerne les fonds spécifiques, il s’agirait de penser non plus en termes quantitatifs, mais qualitatifs : mettre l’accent sur les unica, les documents rares ou précieux, ou spécifiques à l’institution (littérature grise, thèses, etc). Pour ce faire, « numérisation, OCRisation, transcription de textes, création de métadonnées pour une meilleure « découvrabilité » desdites collections. Une autre façon de revenir de la gestion de l’abondance à celle de la rareté qui a sous-tendu l’activité des bibliothèques pendant des siècles, si je ne m’abuse ?

3. « Les bibliothèques s’axeront plus sur des services d’expertise à haute valeur ajoutée, comme l’information literacy, les services de gestion des données, les services de géolocalisation etc pour remplacer leur mission réduite d’acquisition » :

La BU est ici confrontée à son problème d’image, de perception qu’en ont les utilisateurs : dans un monde où tout ou presque est accessible facilement, sans barrière financière, institutionnelle ou juridique, la mission d’acquisition de documentation n’a plus de raison d’être. Or cette mission est celle qui est la plus reconnue aux bibliothèques (p.67) par les chercheurs : comment justifier la valeur ajoutée de la BU pour la recherche dans ce contexte ? D’où l’intérêt pour les bibliothécaires de se saisir le plut tôt possible d’autres missions de support à la recherche : aide à la publication en OA, bibliométrie, gestion des données, formation aux « compétences informationnelles »…

4. « Les budgets des bibliothèques pourraient diminuer » :
En toute logique, la disponibilité des contenus en OA implique une baisse des coûts.
Cela ne veut pas dire que la dépense sera nulle pour autant : il faudra bien payer les APCs (mais ce rôle ne sera pas forcément donné aux bibliothèques), et, j’ajoute que l’édition électronique et les archives institutionnelles, ça a un coût aussi : développer des fonctionnalités pour son archive ouverte, former le personnel à de nouvelles compétences d’édition par exemple, ou embaucher des personnels qualifiés pour mettre en oeuvre une chaîne de publication, rien de tout cela n’est gratuit.
La question fondamentale à mon avis, c’est : est-ce que ces missions se feront dans les bibliothèques ou en dehors ?

10231527134_535e3171e5_k5. « Moderniser les pratiques de citation » :
Selon l’article « Academic citation practices need to be modernized – References should lead to full texts wherever possible« , les versions en open access des articles publiés devraient devenir la source de référence, et les articles accessibles uniquement sur abonnement ne devraient être cités qu’en dernier recours ; il propose l’ordre de priorité suivant :

  1. Revue en open access
  2. Revue hybrides
  3. Archive ouverte institutionnelle
  4. Toutes les autres sites en open access, aussi bien les réseaux sociaux de recherche type Academia.edu ou Researchgate que les archives thématiques comme SSRN

(L’auteur de l’article prône également la citation des DOI, l’usage d’URLs compactes et l’abandon de la pagination)

Aaron s’interroge, en conclusion, sur les indicateurs qui permettront aux BU de réaliser qu’il est temps pour elles de diminuer les activités traditionnelles : « la baisse des téléchargement d’articles par utilisateur pour les revues sur abonnement ? La baisse des consultations du site web de la bibliothèque ?
A partir de quel pourcentage de la production éditoriale annuelle en open access les BU commenceront-elles à réduire la voilure ? »
[Photos : Santi, Lena CH]

Ils publient dans les mégarevues : pourquoi ? comment ?

ImageUne nouvelle étude de David Solomon s’intéresse cette fois aux auteurs publiant dans les mégarevues en open access (PLoS ONE, Sage Open, BMJ Open et PeerJ). Voici quelques-uns des résultats récoltés auprès de ces auteurs  :

- Le quart des articles est de la recherche originale. Moins de la moitié des articles soumis ont déjà été proposés pour publication dans d’autres revues : l’idée, encouragée par les éditeurs eux-mêmes, c’est de re-soumettre un article refusé dans une mégarevue du même éditeur.

- Les critères de choix prépondérants sont la qualité de la revue et la rapidité du processus de validation ; le facteur d’impact compte aussi, dans une moindre mesure (PLOS et BMJ), ainsi que les critères de validation et le fait que la revue soit en OA (PeerJ). Les auteurs publiant chez Sage Open et BMJ se montrent également sensibles à la réputation de l’éditeur

- Le financement des APCs provient, pour la moitié des auteurs de PLoS ONE et le tiers de ceux de BMJ Open et de PeerJ, des bourses allouées aux projets de recherche eux-mêmes. Une grande proportion des auteurs de Sage Open (60%) et de PeerJ (32%) semblent financer les APCs sur leurs propres deniers, mais il est vrai que ceux-ci sont traditionnellement plus modestes en SHS que pour les sciences dures d’une part (Sage est descendu sous la barre des 100$), et que les adhésions individuelles proposées par PeerJ sont très abordables d’autre part.

Solomon conclut :

« Les mégarevues attirent un public international de chercheurs expérimentés. Ceux-ci choisissent de publier dans ces mégarevues pour de nombreuses raisons, mais pour un grand nombre d’entre eux c’est la qualité de la revue et la rapidité du processus de validation et de publication qui priment. Pour la plupart des auteurs, le fait d’avoir une audience plus large n’est pas un facteur-clé, bien que ce soit important pour les auteurs publiant chez PeerJ et chez Sage Open. Les auteurs se disent satisfaits de cette expérience de publication et indiquent qu’ils soumettront vraisemblablement de futures contributions à la même revue ou à une mégarevue similaire, ce qui laisse présager une croissance continue de la poularité de ces revues. »

Solomon DJ. (2014) A survey of authors publishing in four megajournals. PeerJ 2:e365 http://dx.doi.org/10.7717/peerj.365

[Photo : Howard Ignatius]

OA hybride : difficile d’en avoir pour son argent

3205861278_77d3081dab_mLe Wellcome Trust a diffusé ces jours-ci la liste des articles en Open Access qu’il a financés en 2012/2013. Facile ainsi d’aller vérifier si lesdits articles sont bien accessibles librement, de préférence avec la mention de la licence qui va bien : les données ont ainsi pu être récupérées puis améliorées (correction du nom des éditeurs dans la liste, par exemple), pour permettre de produire des graphiques et autres tableaux montrant clairement la répartition des dépenses et les coûts des APC versés ; c’est ce qu’a fait notamment Ernesto Priego, qui explique sa démarche dans Quick insights from the Wellcome Trust paid APC 2012/13 dataset.
Les résultats d’Ernesto et d’autres observateurs sont pour le moins mitigés : si une grande partie des articles est bien accessible sans abonnement aux plateformes, on constate des pratiques de signalement hétérogènes :
– La licence n’est pas mentionnée, et remplacée par un « All rights reserved » chez Elsevier, ou, pire, le lecteur est renvoyé vers le formulaire de demande d’autorisation payante : l’éditeur vient de se fendre d’un communiqué à ce sujet, expliquant que leur service technique est en train de mettre à jour ses multiples bases de données pour rectifier le tir d’ici à l’été 2014. C’est la moindre des chose puisqu’il s’avère que l’éditeur a ainsi revendu une douzaine d’articles en OA à une cinquantaine de clients redirigés vers ce fameux formulaire… Peter Murray-Rust râle, à raison : ça fait déjà 2 ans qu’il a signalé le problème ; de la part d’une multinationale de cette taille, on pourrait effectivement s’attendre a un peu plus de réactivité.
– La mention de licence est erronée chez Wiley : elle dit qu’aucune exploitation commerciale n’est autorisée pour des articles pourtant sous licence CC-BY… On peut s’étonner, là aussi, que de grosses sociétés de ce type, avec quand même des moyens, puissent commettre des erreurs si grossières : ce n’est quand même pas compliqué de copier-coller le descriptif des licences depuis le site de Creative Commons, non ?
Plus inquiétant, il semble que l’article avec l’APC le plus élevé (6000£) ait été publié dans une revue qui n’est plus en ligne…

Du coup on peut s’interroger :
– Comment faire respecter les droits des auteurs et des financeurs dans la jungle des revues hybrides ? Il me semble, là comme ça à vue de nez, que les bibliothécaires seraient bien placés pour contrôler l’accessibilité et le respect des licences de diffusion de la production de leurs établissements : ils maîtrisent les outils de repérage des publications type WoS, les plateformes d’accès, et connaissent les licences.
– Est-ce que ces constats, répétés, ne sont pas la preuve que ce modèle n’est bon que pour les éditeurs traditionnels, auxquels il apporte un revenu supplémentaire sans aucun investissement ? Du coup, est-ce que les établissements ne devraient pas refuser de financer les publications dans les revues hybrides, et inciter plutôt au dépôt dans les archives ouvertes ?

Photo : TheoJunior

Gare aux chiffres !

WTF? - Francis Mariani - CC BY-NC-SAJ’ai lu dernièrement ici et :
– « … Elsevier a parfaitement compris une chose : c’est que si l’existence de ses revues importe tant, malgré tout, aux communautés scientifiques, ce n’est pas tant qu’il est pour elles crucial de lire les articles qu’elles contiennent (on en trouve la plupart sans problème en open access sur la Toile).« 
– « Actuellement, plus de 1 500 revues d’Elsevier sont au moins partiellement en « libre accès »…« 
Et là je me dis : zut, j’ai raté un épisode ou quoi ?
Aux dernières nouvelles, les articles publiés dans les revues hybrides (ces revues sur abonnement dans lesquelles il est possible, moyennant finances, de publier des articles en accès ouvert), notamment chez Elsevier, se comptent sur les doigts de quelques mains : 1014 articles en 2011, selon cette étude de Björk et Solomon sur les revues hybrides.
« 2011, ça date, les choses ont changé » me direz-vous ?
OK. Voici les chiffres que nous donne Science Direct pour les 8 titres les plus consultés par les membres de Couperin en 2012 (+ de 100 000 téléchargements) :

  • The Lancet : 451 043 articles, 302 en OA (0.06%)
  • Archives de pédiatrie : 11 756, pas d’article en OA
  • La revue de médecine interne : 18 803, 3 articles en OA (0.015%)
  • Tetrahedron letters : 93 149, 61 articles en OA (0.06%)
  • Annales françaises d’anesthésie et de réanimation : 10 244, 2 articles en OA (0.01%)
  • Tetrahedron : 46975, 26 articles en OA (0.05%)

Imaginons que les choses aient encore changé en 2013, et qu’on arrive à 1% d’articles en OA : nous serions encore bien loin d’un large accès aux contenus d’Elsevier. Il me semble utile de le repréciser.

Chorus et Share

5009661582_7c08e91ebd_mL’annonce faite en février dernier par la Maison Blanche requérant la mise en accès ouvert des résultats de la recherche financée sur fonds publics invitait les agences gouvernementales concernées à mettre en place des outils pour assurer le stockage et la diffusion de ces données. Deux réponses ont émergé pour faire face à cette exigence, l’une émanant des éditeurs commerciaux, Chorus, l’autre étant soutenue par les bibliothèques, Share.

Chorus : on s’occupe de tout
L’argument principal des tenants de Chorus, c’est, believe it or not, de faire faire des économies au gouvernement américain. Les éditeurs s’engagent en effet à monter à leurs frais un portail d’accès aux articles en OA hébergés sur leurs plateformes. Les données sur le financement seraient mises à jour grâce à l’outil FundRef, déclinaison spécifique du système CrossRef pour l’identification et le signalement des publications (c’est CrossRef qui attribue les DOI aux articles). Du coup, plus besoin pour les autorités de maintenir des outils comme PubMedCentral, l’archive ouverte financée par les NIH.
Sauf que…
– Les éditeurs ne savent pas signaler correctement les articles en OA dans leur propres bases (voir mes essais précédents, par exemple).
– Ce n’est d’ailleurs pas dans leur intérêt : c’est même plutôt le contraire. Faire en sorte que ce soit la croix et la bannière pour trouver un article en OA, ou qu’au final la consultation se fasse en mode dégradé (sans possibilité de télécharger ou d’imprimer, par exemple), bref que l’expérience utilisateur soit bien meilleure sur les interfaces payantes, c’est aussi une stratégie de protection du patrimoine des éditeurs.
– Ce sont les agences qui ont les données les plus précises, les plus exhaustives et surtout les plus justes sur les financements, pas les éditeurs : le temps que FundRef soit réellement exploitable risque d’être assez long, ce qui risque de ralentir encore la mise en accès public des contenus.

Share : entrez, c’est ouvert
Ce que proposent les associations de bibliothèques et d’universités à l’initiative de Share (ARL, AAUL, APLU), c’est de s’appuyer sur le réseau des archives ouvertes existantes, qui serait en quelque sorte moissonné pour permettre une recherche fédérée. La plupart des archives ouvertes utilisant des logiciels open source et des protocoles libres, il ne devrait pas y avoir de problèmes d’interopérabilité. L’ARL a obtenu une subvention de 50 000$ de la Sloan Foundation , qui doit permettre de concevoir une feuille de route pour la mise en place du projet.
Fiche d’informations de l’ARL sur SHARE
Le draft du projet SHARE
Pour l’instant on ne sait pas lequel des 2 projets sera choisi : les projets ont bien été présentés dans le délai de 6 mois imposé par l’OSTP, mais on ne sait pas quand les agences se prononceront.

[Photo : Opensourceway]

Liber 2013

Mairie de Münich (neues Rathaus)J’ai eu l’opportunité, dans le cadre de mon stage chez Openedition, d’assister fin juin au congrès annuel de Liber à Münich, dont le thème était cette année : « Research information infrastructures and the future role of libraries ». Le programme et les supports des interventions sont en ligne sur le site du congrès, inutile donc de tenter un compte-rendu exhaustif de ces 3 jours, d’autant qu’il n’était pas possible d’assister à tous les ateliers ; voici juste quelques aperçus.

Open access
Même si la route est encore longue, la marche vers l’Open Access continue ; le rapport Finch et les prises de position multiples qui s’en sont suivies amènent le secteur éditorial à évoluer. Plusieurs initiatives ont été présentées, concernant essentiellement les SHS :
Openedition, qu’on ne présente plus, en France en tout cas : Ses presque 400 revues, ses 600 carnets de recherche, ses 20000 annonces d’événements, ses bientôt 1000 livres… et ses 3 millions de visites par mois en provenance de tous les pays, preuve s’il en était que les SHS suscitent l’intérêt au delà du monde académique francophone.
Social Sciences directory : L’idée qui sous-tend ce projet récent de publication, c’est de garder les bons côtés de l’édition scientifique traditionnelle (le contrôle de la qualité, l’indépendance éditoriale, la structuration des articles…) et de leur ajouter les bénéfices de l’édition numérique (pagination illimitée, réduction des délais de publication, liens vers des données additionnelles…). Côté modèle économique c’est du Gold auteur-payeur, l’institution paye des frais de publication (Article Processing Charges, APCs) annuels pour ses chercheurs, ou bien ceux-ci payent des APCs à l’article. La différence avec les autres offres éditoriales de ce type, c’est la volonté affichée d’arriver à un modèle durable sur le long terme, donc avec des coûts a priori plus bas que ceux généralement constatés : on est à 150$ par article, au lieu de 3000$. Jusqu’ici 3 numéros sont parus, soit 9 articles, et une version pour les humanités est déjà prévue.
Directory of OA Books : Calqué sur le modèle du DOAJ, le DOAB vise à améliorer la visibilité des livres en open access, en mettant l’accent sur la qualité des contenus publiés, qui doivent obéir à des critères académiques de validation (peer review). Il est maintenu par l’OAPEN Foundation, un projet de développement de l’édition de livres en open access financé par l’Union Européenne, qui rassemble des presses universitaires d’Europe (surtout) du nord.
Knowledge Unlatched : Un projet plutôt intéressant, qui propose de faire financer la publication d’ouvrages en libre accès par les bibliothèques : elles partagent les coûts fixes de publication (sélection, peer review, relecture…) – sachant qu’il faut compter dans les 10 000 à 15 000 $ en moyenne pour un ouvrage universitaire – et les contenus sont ensuite accessibles librement par tous. Les éditeurs restent libres de vendre des versions imprimées ou dans d’autres formats électroniques. Une commission est chargée de choisir les titres sélectionnés par les bibliothèques membres du consortium en cours de constitution parmi les titres proposés par les éditeurs partenaires du projet ; il s’agit pour l’instant uniquement  de livres à paraître, mais il n’est pas exclut que le projet s’intéresse ultérieurement à des ouvrages déjà parus (et donc déjà amortis). Le succès de l’opération réside dans la participation d’un grand nombre de bibliothèques, pour faire diminuer la contribution de chacun. C’est là le vrai challenge : les bibliothèques sont-elles prêtes à faire ce type d’investissement ? (et en ont-elles les moyens ?)
MedOAnet : Dans le cadre de ce projet européen de suivi des stratégies et politiques en faveur de l’Open Access dans les pays de l’Europe méditerranéenne a été menée une étude auprès des éditeurs (publics et privés), afin d’avoir une vue de leur politique vis à vis de l’open access. On leur a posé des questions assez précises sur leurs politiques en matière de transfert de copyright, d’auto-archivage, sur la version de dépôt autorisée, sur la présence d’embargos.  Il en ressort que  les éditeurs ayant répondu seraient plutôt favorables à la diffusion en open access (forts taux d’acceptation du dépôt dans des archives ouvertes, peu d’exigences de transfert exclusif des droits de diffusion). Ce résultat est néanmoins à pondérer au vu du taux de réponse (12%), qui permet difficilement, à mon sens, de tirer des conclusions très probantes de l’enquête. Il serait intéressant de la reconduire, en en faisant davantage de promotion : cela sera-t-il possible, sachant que le projet n’est financé que jusqu’à fin 2013 ? Et que les financements vont généralement aux nouveaux projets plutôt qu’au suivi de projets existants ?
[Ce n’est pas directement le sujet de ce billet ni de ce congrès, mais il me semble cependant que c’est une vraie question en ce qui concerne le financement de l’open access : on entend beaucoup parler de « durabilité », de viabilité (‘ »sustainability ») comme d’un Graal à atteindre, mais on continue à ne donner que des enveloppes d’impulsion – comment espérer à ce compte là arriver à des stratégies à long terme ? Bref, fin de la parenthèse.]

Data data data
On a beaucoup entendu parler de gestion des données de la recherche (« research data management ») : face au « data deluge » qui se profile, par exemple avec l’obligation de mise en place de plans de gestion des données (« RDM plans ») pour les agences fédérales américaines (cf la directive de l’OSTP), les bibliothèques doivent s’adapter et intégrer la gestion des données de recherche à leurs missions, voire au coeur de leurs missions. Les recommandations pour plus d’ouverture des résultats de la recherche qui se sont multipliées au cours des derniers mois s’étendent aux données de la recherche, qui doivent être ouvertes par défaut. Cette ouverture est garante d’une science plus intègre (moins de fraude), plus économique (réplicabilité de la recherche), accessible au plus grand nombre (« citizen science »)…
La gestion de ces données soulève bien des questions, notamment celle de leur archivage (quelle durée ? quels formats ? quels moyens ?), et, en corollaire, celle des coûts, qui demeure la grande inconnue : si ceux-ci peuvent être financés par les bourses et autres financements des projets de recherche au départ, la conservation des données à long-terme a aussi un coût qui doit être supporté, vraisemblablement par les institutions. Par ailleurs, vue la masse de données produites, il y a nécessité de mutualiser les outils et de partager les infrastructures de stockage et d’accès aux informations ; ce serait particulièrement pertinent pour les projets les plus modestes (les « gros » projets comprennent généralement un volet spécifique aux données et à leur gestion). Dans ce contexte, les bibliothèques pourraient se positionner comme services de publication de données institutionnelles : en apportant de l’assistance aux chercheurs dans la mise en place de « plan de gestion des données », en participant à la structuration des formats de données, en travaillant sur les métriques autour des données…
Quelques initiatives à suivre :
- Journals Research Data policy bank (JoRD) : Un projet du JISC, piloté par la responsable de Sherpa/Romeo, qui examine la faisabilité d’un service centralisé de recensement des politiques des revues concernant les données de recherche. L’étude montre que la moitié des revues affichent des politiques en la matière, mais que les 3/4 de celles-ci sont floues (manque de standardisation, incomplétude…)
Elixir : Un projet européen d’infrastructure pour le stockage et le traitement des données en sciences de la vie, mené par la Royal Society.
– La ligue européenne des universités de recherche (LERU) travaille, avec LIBER, sur ces questions, la rédaction d’une feuille de route sur les données de recherche est en cours.

Une statue perplexe dans le hall de la Bayerische Staats Bibliothek

Problème de casting ?
Ca a été clairement dit par l’un des intervenants (G. Boulton, ppt) : « Libraries do the wrong things, employ the wrong people ». Pour gérer toutes ces données, les bibliothèques doivent s’équiper de « data scientists », de « data managers ». Problème : où les trouver ? Il y a un vrai problème de manque de compétences dans la profession actuellement, qui attire toujours peu de profils scientifiques (en sciences « dures ») – or un data scientist, c’est quelqu’un qui sait gérer les données et les manipuler pour leur donner du sens, avec des compétences en statistiques, en mathématiques, en informatique spécialisée. De l’avis général, il existe peu de formations spécifiques dans les cursus universitaires, et la gestion de données ne fait pas partie des enseignements dans les formations initiales des bibliothécaires (je confirme) ; acquérir ce type de compétences est pourtant un enjeu fort, qui va demander un changement dans les mentalités des bibliothécaires. Des initiatives émergent, notamment au Royaume-Uni :
Immersive Informatics : il s’agit d’un programme pilote de formation à la gestion des données de la recherche, mené conjointement par les universités de Bath et de Melbourne, à destination des professionnels de l’IST. Il comprend, en plus des nombreux ateliers thématiques (sur la conservation, les aspects juridiques, la gestion des plans, etc), 2 modules au sein desquels les participants sont entièrement intégrés dans un laboratoire ou un département de recherche de l’université et travaillent sur des jeux de données réels.
RDMRose : ce projet de formation continue pour les professionnels de l’IST financé par le JISC a permis de produire des cours sur la gestion des données (en accès libre et donc réutilisables)

Bref, encore du pain sur la planche pour les bibliothécaires…


novembre 2014
L Ma Me J V S D
« août    
 12
3456789
10111213141516
17181920212223
24252627282930

Archives

Licence

Licence Creative Commons
Ce(tte) œuvre est mise à disposition selon les termes de la Licence Creative Commons Attribution 3.0 France.

Suivre

Recevez les nouvelles publications par mail.

Rejoignez 704 autres abonnés