Archive for the 'Open Access' Category

Quels changements pour les BU quand l’OA primera ?

13921535969_dccf724a92_kJe trouve le billet d’Aaron Tay « How academic libraries may change when open access becomes the norm » particulièrement pertinent par rapport aux questionnements que nous avons en BU ces temps-ci ; voici les changements qu’il anticipe (ce qui est en italique est traduit par mes soins) , en partant du principe « qu’au cours des 10-25 prochaines années, 50 à 80% (ou plus) des publications annuelles seront disponibles sous une forme ou une autre d’open access« .

1. « Les rôles des BU dans la découverte et même dans la fourniture d’information aux usagers vont diminuer » :
Les étudiants, et de plus en plus de chercheurs, n’utilisent pas le site de la BU pour commencer leurs recherches, ils utilisent sans le savoir les ressources de la BU croisées avec les outils de signalement commerciaux comme Google Scholar : exit la mission d’aide à la découverte.
Par ailleurs, une fois la majorité des ressources accessibles librement en OA, finie la mission de fourniture d’information : divers outils permettent déjà (l’extension pour Chrome Lazy Scholar par exemple) de récupérer automatiquement une version en libre accès quand elle est disponible.
Du coup, cela aura une incidence au niveau des RH : on n’aura en principe plus besoin de grosses équipes pour la gestion des abonnements imprimés (tant qu’il en restera) ni pour la gestion des ressources en ligne (qui se concentrera du coup sur l’administration du résolveur de liens, de la base de connaissance…)

2. « Les BU pourraient plus se concentrer sur leurs fonds spécifiques et passer à l’édition/l’hébergement de revues » :
« Au delà du simple rôle d’archive, quelques bibliothèques s’essayent à produire des épirevues, comme le fait l’University College London. Cela demande essentiellement que les BU se lancent dans l’édition en convertissant les archives institutionnelles en plateformes de publication. Les presses universitaires de l’UCL, par exemple, sont désormais un département au sein de la bibliothèque de l’institution. En combinant la plateforme open source Open Journal System (OJS) et l’archive institutionnelle comme système de stockage, la bibliothèque édite désormais des revues en open access. De nombreuses revues sont aussi publiées avec la solution Digital Commons.
La grosse question est de savoir si les BU ont les compétences, les savoirs et les motivations pour jouer ce rôle et reprendre le système de communication scientifique. »
En ce qui concerne les fonds spécifiques, il s’agirait de penser non plus en termes quantitatifs, mais qualitatifs : mettre l’accent sur les unica, les documents rares ou précieux, ou spécifiques à l’institution (littérature grise, thèses, etc). Pour ce faire, « numérisation, OCRisation, transcription de textes, création de métadonnées pour une meilleure « découvrabilité » desdites collections. Une autre façon de revenir de la gestion de l’abondance à celle de la rareté qui a sous-tendu l’activité des bibliothèques pendant des siècles, si je ne m’abuse ?

3. « Les bibliothèques s’axeront plus sur des services d’expertise à haute valeur ajoutée, comme l’information literacy, les services de gestion des données, les services de géolocalisation etc pour remplacer leur mission réduite d’acquisition » :

La BU est ici confrontée à son problème d’image, de perception qu’en ont les utilisateurs : dans un monde où tout ou presque est accessible facilement, sans barrière financière, institutionnelle ou juridique, la mission d’acquisition de documentation n’a plus de raison d’être. Or cette mission est celle qui est la plus reconnue aux bibliothèques (p.67) par les chercheurs : comment justifier la valeur ajoutée de la BU pour la recherche dans ce contexte ? D’où l’intérêt pour les bibliothécaires de se saisir le plut tôt possible d’autres missions de support à la recherche : aide à la publication en OA, bibliométrie, gestion des données, formation aux « compétences informationnelles »…

4. « Les budgets des bibliothèques pourraient diminuer » :
En toute logique, la disponibilité des contenus en OA implique une baisse des coûts.
Cela ne veut pas dire que la dépense sera nulle pour autant : il faudra bien payer les APCs (mais ce rôle ne sera pas forcément donné aux bibliothèques), et, j’ajoute que l’édition électronique et les archives institutionnelles, ça a un coût aussi : développer des fonctionnalités pour son archive ouverte, former le personnel à de nouvelles compétences d’édition par exemple, ou embaucher des personnels qualifiés pour mettre en oeuvre une chaîne de publication, rien de tout cela n’est gratuit.
La question fondamentale à mon avis, c’est : est-ce que ces missions se feront dans les bibliothèques ou en dehors ?

10231527134_535e3171e5_k5. « Moderniser les pratiques de citation » :
Selon l’article « Academic citation practices need to be modernized – References should lead to full texts wherever possible« , les versions en open access des articles publiés devraient devenir la source de référence, et les articles accessibles uniquement sur abonnement ne devraient être cités qu’en dernier recours ; il propose l’ordre de priorité suivant :

  1. Revue en open access
  2. Revue hybrides
  3. Archive ouverte institutionnelle
  4. Toutes les autres sites en open access, aussi bien les réseaux sociaux de recherche type Academia.edu ou Researchgate que les archives thématiques comme SSRN

(L’auteur de l’article prône également la citation des DOI, l’usage d’URLs compactes et l’abandon de la pagination)

Aaron s’interroge, en conclusion, sur les indicateurs qui permettront aux BU de réaliser qu’il est temps pour elles de diminuer les activités traditionnelles : « la baisse des téléchargement d’articles par utilisateur pour les revues sur abonnement ? La baisse des consultations du site web de la bibliothèque ?
A partir de quel pourcentage de la production éditoriale annuelle en open access les BU commenceront-elles à réduire la voilure ? »
[Photos : Santi, Lena CH]

Ils publient dans les mégarevues : pourquoi ? comment ?

ImageUne nouvelle étude de David Solomon s’intéresse cette fois aux auteurs publiant dans les mégarevues en open access (PLoS ONE, Sage Open, BMJ Open et PeerJ). Voici quelques-uns des résultats récoltés auprès de ces auteurs  :

- Le quart des articles est de la recherche originale. Moins de la moitié des articles soumis ont déjà été proposés pour publication dans d’autres revues : l’idée, encouragée par les éditeurs eux-mêmes, c’est de re-soumettre un article refusé dans une mégarevue du même éditeur.

- Les critères de choix prépondérants sont la qualité de la revue et la rapidité du processus de validation ; le facteur d’impact compte aussi, dans une moindre mesure (PLOS et BMJ), ainsi que les critères de validation et le fait que la revue soit en OA (PeerJ). Les auteurs publiant chez Sage Open et BMJ se montrent également sensibles à la réputation de l’éditeur

- Le financement des APCs provient, pour la moitié des auteurs de PLoS ONE et le tiers de ceux de BMJ Open et de PeerJ, des bourses allouées aux projets de recherche eux-mêmes. Une grande proportion des auteurs de Sage Open (60%) et de PeerJ (32%) semblent financer les APCs sur leurs propres deniers, mais il est vrai que ceux-ci sont traditionnellement plus modestes en SHS que pour les sciences dures d’une part (Sage est descendu sous la barre des 100$), et que les adhésions individuelles proposées par PeerJ sont très abordables d’autre part.

Solomon conclut :

« Les mégarevues attirent un public international de chercheurs expérimentés. Ceux-ci choisissent de publier dans ces mégarevues pour de nombreuses raisons, mais pour un grand nombre d’entre eux c’est la qualité de la revue et la rapidité du processus de validation et de publication qui priment. Pour la plupart des auteurs, le fait d’avoir une audience plus large n’est pas un facteur-clé, bien que ce soit important pour les auteurs publiant chez PeerJ et chez Sage Open. Les auteurs se disent satisfaits de cette expérience de publication et indiquent qu’ils soumettront vraisemblablement de futures contributions à la même revue ou à une mégarevue similaire, ce qui laisse présager une croissance continue de la poularité de ces revues. »

Solomon DJ. (2014) A survey of authors publishing in four megajournals. PeerJ 2:e365 http://dx.doi.org/10.7717/peerj.365

[Photo : Howard Ignatius]

OA hybride : difficile d’en avoir pour son argent

3205861278_77d3081dab_mLe Wellcome Trust a diffusé ces jours-ci la liste des articles en Open Access qu’il a financés en 2012/2013. Facile ainsi d’aller vérifier si lesdits articles sont bien accessibles librement, de préférence avec la mention de la licence qui va bien : les données ont ainsi pu être récupérées puis améliorées (correction du nom des éditeurs dans la liste, par exemple), pour permettre de produire des graphiques et autres tableaux montrant clairement la répartition des dépenses et les coûts des APC versés ; c’est ce qu’a fait notamment Ernesto Priego, qui explique sa démarche dans Quick insights from the Wellcome Trust paid APC 2012/13 dataset.
Les résultats d’Ernesto et d’autres observateurs sont pour le moins mitigés : si une grande partie des articles est bien accessible sans abonnement aux plateformes, on constate des pratiques de signalement hétérogènes :
– La licence n’est pas mentionnée, et remplacée par un « All rights reserved » chez Elsevier, ou, pire, le lecteur est renvoyé vers le formulaire de demande d’autorisation payante : l’éditeur vient de se fendre d’un communiqué à ce sujet, expliquant que leur service technique est en train de mettre à jour ses multiples bases de données pour rectifier le tir d’ici à l’été 2014. C’est la moindre des chose puisqu’il s’avère que l’éditeur a ainsi revendu une douzaine d’articles en OA à une cinquantaine de clients redirigés vers ce fameux formulaire… Peter Murray-Rust râle, à raison : ça fait déjà 2 ans qu’il a signalé le problème ; de la part d’une multinationale de cette taille, on pourrait effectivement s’attendre a un peu plus de réactivité.
– La mention de licence est erronée chez Wiley : elle dit qu’aucune exploitation commerciale n’est autorisée pour des articles pourtant sous licence CC-BY… On peut s’étonner, là aussi, que de grosses sociétés de ce type, avec quand même des moyens, puissent commettre des erreurs si grossières : ce n’est quand même pas compliqué de copier-coller le descriptif des licences depuis le site de Creative Commons, non ?
Plus inquiétant, il semble que l’article avec l’APC le plus élevé (6000£) ait été publié dans une revue qui n’est plus en ligne…

Du coup on peut s’interroger :
– Comment faire respecter les droits des auteurs et des financeurs dans la jungle des revues hybrides ? Il me semble, là comme ça à vue de nez, que les bibliothécaires seraient bien placés pour contrôler l’accessibilité et le respect des licences de diffusion de la production de leurs établissements : ils maîtrisent les outils de repérage des publications type WoS, les plateformes d’accès, et connaissent les licences.
– Est-ce que ces constats, répétés, ne sont pas la preuve que ce modèle n’est bon que pour les éditeurs traditionnels, auxquels il apporte un revenu supplémentaire sans aucun investissement ? Du coup, est-ce que les établissements ne devraient pas refuser de financer les publications dans les revues hybrides, et inciter plutôt au dépôt dans les archives ouvertes ?

Photo : TheoJunior

Gare aux chiffres !

WTF? - Francis Mariani - CC BY-NC-SAJ’ai lu dernièrement ici et :
– « … Elsevier a parfaitement compris une chose : c’est que si l’existence de ses revues importe tant, malgré tout, aux communautés scientifiques, ce n’est pas tant qu’il est pour elles crucial de lire les articles qu’elles contiennent (on en trouve la plupart sans problème en open access sur la Toile).« 
– « Actuellement, plus de 1 500 revues d’Elsevier sont au moins partiellement en « libre accès »…« 
Et là je me dis : zut, j’ai raté un épisode ou quoi ?
Aux dernières nouvelles, les articles publiés dans les revues hybrides (ces revues sur abonnement dans lesquelles il est possible, moyennant finances, de publier des articles en accès ouvert), notamment chez Elsevier, se comptent sur les doigts de quelques mains : 1014 articles en 2011, selon cette étude de Björk et Solomon sur les revues hybrides.
« 2011, ça date, les choses ont changé » me direz-vous ?
OK. Voici les chiffres que nous donne Science Direct pour les 8 titres les plus consultés par les membres de Couperin en 2012 (+ de 100 000 téléchargements) :

  • The Lancet : 451 043 articles, 302 en OA (0.06%)
  • Archives de pédiatrie : 11 756, pas d’article en OA
  • La revue de médecine interne : 18 803, 3 articles en OA (0.015%)
  • Tetrahedron letters : 93 149, 61 articles en OA (0.06%)
  • Annales françaises d’anesthésie et de réanimation : 10 244, 2 articles en OA (0.01%)
  • Tetrahedron : 46975, 26 articles en OA (0.05%)

Imaginons que les choses aient encore changé en 2013, et qu’on arrive à 1% d’articles en OA : nous serions encore bien loin d’un large accès aux contenus d’Elsevier. Il me semble utile de le repréciser.

Chorus et Share

5009661582_7c08e91ebd_mL’annonce faite en février dernier par la Maison Blanche requérant la mise en accès ouvert des résultats de la recherche financée sur fonds publics invitait les agences gouvernementales concernées à mettre en place des outils pour assurer le stockage et la diffusion de ces données. Deux réponses ont émergé pour faire face à cette exigence, l’une émanant des éditeurs commerciaux, Chorus, l’autre étant soutenue par les bibliothèques, Share.

Chorus : on s’occupe de tout
L’argument principal des tenants de Chorus, c’est, believe it or not, de faire faire des économies au gouvernement américain. Les éditeurs s’engagent en effet à monter à leurs frais un portail d’accès aux articles en OA hébergés sur leurs plateformes. Les données sur le financement seraient mises à jour grâce à l’outil FundRef, déclinaison spécifique du système CrossRef pour l’identification et le signalement des publications (c’est CrossRef qui attribue les DOI aux articles). Du coup, plus besoin pour les autorités de maintenir des outils comme PubMedCentral, l’archive ouverte financée par les NIH.
Sauf que…
– Les éditeurs ne savent pas signaler correctement les articles en OA dans leur propres bases (voir mes essais précédents, par exemple).
– Ce n’est d’ailleurs pas dans leur intérêt : c’est même plutôt le contraire. Faire en sorte que ce soit la croix et la bannière pour trouver un article en OA, ou qu’au final la consultation se fasse en mode dégradé (sans possibilité de télécharger ou d’imprimer, par exemple), bref que l’expérience utilisateur soit bien meilleure sur les interfaces payantes, c’est aussi une stratégie de protection du patrimoine des éditeurs.
– Ce sont les agences qui ont les données les plus précises, les plus exhaustives et surtout les plus justes sur les financements, pas les éditeurs : le temps que FundRef soit réellement exploitable risque d’être assez long, ce qui risque de ralentir encore la mise en accès public des contenus.

Share : entrez, c’est ouvert
Ce que proposent les associations de bibliothèques et d’universités à l’initiative de Share (ARL, AAUL, APLU), c’est de s’appuyer sur le réseau des archives ouvertes existantes, qui serait en quelque sorte moissonné pour permettre une recherche fédérée. La plupart des archives ouvertes utilisant des logiciels open source et des protocoles libres, il ne devrait pas y avoir de problèmes d’interopérabilité. L’ARL a obtenu une subvention de 50 000$ de la Sloan Foundation , qui doit permettre de concevoir une feuille de route pour la mise en place du projet.
Fiche d’informations de l’ARL sur SHARE
Le draft du projet SHARE
Pour l’instant on ne sait pas lequel des 2 projets sera choisi : les projets ont bien été présentés dans le délai de 6 mois imposé par l’OSTP, mais on ne sait pas quand les agences se prononceront.

[Photo : Opensourceway]

Liber 2013

Mairie de Münich (neues Rathaus)J’ai eu l’opportunité, dans le cadre de mon stage chez Openedition, d’assister fin juin au congrès annuel de Liber à Münich, dont le thème était cette année : « Research information infrastructures and the future role of libraries ». Le programme et les supports des interventions sont en ligne sur le site du congrès, inutile donc de tenter un compte-rendu exhaustif de ces 3 jours, d’autant qu’il n’était pas possible d’assister à tous les ateliers ; voici juste quelques aperçus.

Open access
Même si la route est encore longue, la marche vers l’Open Access continue ; le rapport Finch et les prises de position multiples qui s’en sont suivies amènent le secteur éditorial à évoluer. Plusieurs initiatives ont été présentées, concernant essentiellement les SHS :
Openedition, qu’on ne présente plus, en France en tout cas : Ses presque 400 revues, ses 600 carnets de recherche, ses 20000 annonces d’événements, ses bientôt 1000 livres… et ses 3 millions de visites par mois en provenance de tous les pays, preuve s’il en était que les SHS suscitent l’intérêt au delà du monde académique francophone.
Social Sciences directory : L’idée qui sous-tend ce projet récent de publication, c’est de garder les bons côtés de l’édition scientifique traditionnelle (le contrôle de la qualité, l’indépendance éditoriale, la structuration des articles…) et de leur ajouter les bénéfices de l’édition numérique (pagination illimitée, réduction des délais de publication, liens vers des données additionnelles…). Côté modèle économique c’est du Gold auteur-payeur, l’institution paye des frais de publication (Article Processing Charges, APCs) annuels pour ses chercheurs, ou bien ceux-ci payent des APCs à l’article. La différence avec les autres offres éditoriales de ce type, c’est la volonté affichée d’arriver à un modèle durable sur le long terme, donc avec des coûts a priori plus bas que ceux généralement constatés : on est à 150$ par article, au lieu de 3000$. Jusqu’ici 3 numéros sont parus, soit 9 articles, et une version pour les humanités est déjà prévue.
Directory of OA Books : Calqué sur le modèle du DOAJ, le DOAB vise à améliorer la visibilité des livres en open access, en mettant l’accent sur la qualité des contenus publiés, qui doivent obéir à des critères académiques de validation (peer review). Il est maintenu par l’OAPEN Foundation, un projet de développement de l’édition de livres en open access financé par l’Union Européenne, qui rassemble des presses universitaires d’Europe (surtout) du nord.
Knowledge Unlatched : Un projet plutôt intéressant, qui propose de faire financer la publication d’ouvrages en libre accès par les bibliothèques : elles partagent les coûts fixes de publication (sélection, peer review, relecture…) – sachant qu’il faut compter dans les 10 000 à 15 000 $ en moyenne pour un ouvrage universitaire – et les contenus sont ensuite accessibles librement par tous. Les éditeurs restent libres de vendre des versions imprimées ou dans d’autres formats électroniques. Une commission est chargée de choisir les titres sélectionnés par les bibliothèques membres du consortium en cours de constitution parmi les titres proposés par les éditeurs partenaires du projet ; il s’agit pour l’instant uniquement  de livres à paraître, mais il n’est pas exclut que le projet s’intéresse ultérieurement à des ouvrages déjà parus (et donc déjà amortis). Le succès de l’opération réside dans la participation d’un grand nombre de bibliothèques, pour faire diminuer la contribution de chacun. C’est là le vrai challenge : les bibliothèques sont-elles prêtes à faire ce type d’investissement ? (et en ont-elles les moyens ?)
MedOAnet : Dans le cadre de ce projet européen de suivi des stratégies et politiques en faveur de l’Open Access dans les pays de l’Europe méditerranéenne a été menée une étude auprès des éditeurs (publics et privés), afin d’avoir une vue de leur politique vis à vis de l’open access. On leur a posé des questions assez précises sur leurs politiques en matière de transfert de copyright, d’auto-archivage, sur la version de dépôt autorisée, sur la présence d’embargos.  Il en ressort que  les éditeurs ayant répondu seraient plutôt favorables à la diffusion en open access (forts taux d’acceptation du dépôt dans des archives ouvertes, peu d’exigences de transfert exclusif des droits de diffusion). Ce résultat est néanmoins à pondérer au vu du taux de réponse (12%), qui permet difficilement, à mon sens, de tirer des conclusions très probantes de l’enquête. Il serait intéressant de la reconduire, en en faisant davantage de promotion : cela sera-t-il possible, sachant que le projet n’est financé que jusqu’à fin 2013 ? Et que les financements vont généralement aux nouveaux projets plutôt qu’au suivi de projets existants ?
[Ce n'est pas directement le sujet de ce billet ni de ce congrès, mais il me semble cependant que c'est une vraie question en ce qui concerne le financement de l'open access : on entend beaucoup parler de "durabilité", de viabilité ('"sustainability") comme d'un Graal à atteindre, mais on continue à ne donner que des enveloppes d'impulsion - comment espérer à ce compte là arriver à des stratégies à long terme ? Bref, fin de la parenthèse.]

Data data data
On a beaucoup entendu parler de gestion des données de la recherche (« research data management ») : face au « data deluge » qui se profile, par exemple avec l’obligation de mise en place de plans de gestion des données (« RDM plans ») pour les agences fédérales américaines (cf la directive de l’OSTP), les bibliothèques doivent s’adapter et intégrer la gestion des données de recherche à leurs missions, voire au coeur de leurs missions. Les recommandations pour plus d’ouverture des résultats de la recherche qui se sont multipliées au cours des derniers mois s’étendent aux données de la recherche, qui doivent être ouvertes par défaut. Cette ouverture est garante d’une science plus intègre (moins de fraude), plus économique (réplicabilité de la recherche), accessible au plus grand nombre (« citizen science »)…
La gestion de ces données soulève bien des questions, notamment celle de leur archivage (quelle durée ? quels formats ? quels moyens ?), et, en corollaire, celle des coûts, qui demeure la grande inconnue : si ceux-ci peuvent être financés par les bourses et autres financements des projets de recherche au départ, la conservation des données à long-terme a aussi un coût qui doit être supporté, vraisemblablement par les institutions. Par ailleurs, vue la masse de données produites, il y a nécessité de mutualiser les outils et de partager les infrastructures de stockage et d’accès aux informations ; ce serait particulièrement pertinent pour les projets les plus modestes (les « gros » projets comprennent généralement un volet spécifique aux données et à leur gestion). Dans ce contexte, les bibliothèques pourraient se positionner comme services de publication de données institutionnelles : en apportant de l’assistance aux chercheurs dans la mise en place de « plan de gestion des données », en participant à la structuration des formats de données, en travaillant sur les métriques autour des données…
Quelques initiatives à suivre :
- Journals Research Data policy bank (JoRD) : Un projet du JISC, piloté par la responsable de Sherpa/Romeo, qui examine la faisabilité d’un service centralisé de recensement des politiques des revues concernant les données de recherche. L’étude montre que la moitié des revues affichent des politiques en la matière, mais que les 3/4 de celles-ci sont floues (manque de standardisation, incomplétude…)
Elixir : Un projet européen d’infrastructure pour le stockage et le traitement des données en sciences de la vie, mené par la Royal Society.
– La ligue européenne des universités de recherche (LERU) travaille, avec LIBER, sur ces questions, la rédaction d’une feuille de route sur les données de recherche est en cours.

Une statue perplexe dans le hall de la Bayerische Staats Bibliothek

Problème de casting ?
Ca a été clairement dit par l’un des intervenants (G. Boulton, ppt) : « Libraries do the wrong things, employ the wrong people ». Pour gérer toutes ces données, les bibliothèques doivent s’équiper de « data scientists », de « data managers ». Problème : où les trouver ? Il y a un vrai problème de manque de compétences dans la profession actuellement, qui attire toujours peu de profils scientifiques (en sciences « dures ») – or un data scientist, c’est quelqu’un qui sait gérer les données et les manipuler pour leur donner du sens, avec des compétences en statistiques, en mathématiques, en informatique spécialisée. De l’avis général, il existe peu de formations spécifiques dans les cursus universitaires, et la gestion de données ne fait pas partie des enseignements dans les formations initiales des bibliothécaires (je confirme) ; acquérir ce type de compétences est pourtant un enjeu fort, qui va demander un changement dans les mentalités des bibliothécaires. Des initiatives émergent, notamment au Royaume-Uni :
Immersive Informatics : il s’agit d’un programme pilote de formation à la gestion des données de la recherche, mené conjointement par les universités de Bath et de Melbourne, à destination des professionnels de l’IST. Il comprend, en plus des nombreux ateliers thématiques (sur la conservation, les aspects juridiques, la gestion des plans, etc), 2 modules au sein desquels les participants sont entièrement intégrés dans un laboratoire ou un département de recherche de l’université et travaillent sur des jeux de données réels.
RDMRose : ce projet de formation continue pour les professionnels de l’IST financé par le JISC a permis de produire des cours sur la gestion des données (en accès libre et donc réutilisables)

Bref, encore du pain sur la planche pour les bibliothécaires…

AHAgate

L’American Historical Association recommande fortement aux programmes diplômants et aux bibliothèques universitaires d’adopter une politique autorisant un embargo de 6 ans sur les thèses de doctorat au format électronique. Comme de nombreuses universités ne conservent plus de version imprimée des thèses déposées dans leurs bibliothèques, de plus en plus d’institutions exigent que toutes les thèses soutenues soient mises en ligne, afin de les rendre accessible gratuitement pour qui veut les lire. Simultanément pourtant, un nombre croissant de presses universitaires renâclent à proposer une contrat d’édition aux jeunes docteurs dont les thèses sont disponibles en ligne librement. (déclaration de l’AHA du 19/07/2013)

The gates : tree of orangeL’argument de l’AHA, c’est qu’une fois la thèse soutenue, les jeunes diplômés vont passer plusieurs années à l’améliorer, la modifier, la formater pour la publier : en histoire comme dans d’autres disciplines des SHS, c’est encore beaucoup sur la publication de « vrais livres » que se basent les critères d’évaluation et de promotion. Or si le contenu est accessible gratuitement sur internet, selon l’AHA, aucun éditeur ne voudra le publier – car aucune bibliothèque ne voudra l’acheter ; les étudiants obligés de déposer leurs thèses au format électronique seraient en quelque sorte handicapés par la politique de dépôt en ligne, et devraient pouvoir choisir de restreindre l’accès à leurs travaux – l’AHA souhaiterait revenir au dépôt de versions imprimées.

Parmi les nombreuses réactions à cette annonce, je retiens 2 éléments qui infirment le raisonnement de l’AHA :
– Hasard du calendrier, à peu près au même moment est sorti un article dans C&RL consacré justement à la question de l’impact de la mise à disposition en OA des thèses sur les chances de publication : Do Open Access Electronic Theses and Dissertations Diminish Publishing Opportunities in the Social Science and Humanities ? Le sondage mené par les auteurs en 2011 auprès d’une cinquantaine d’éditeurs de revues et de presses universitaires montre que  moins de 10% d’entre eux refuseraient de publier un ouvrage issu d’une thèse déjà disponible en ligne en libre accès ; ils concluent que « comme la majorité des revues et des presses universitaires prendra en compte un manuscrit en sciences sociales ou en sciences humaines dérivé d’une thèse en open access, [nous conseillons] vivement aux étudiants de ces disciplines de mettre leurs thèses en ligne en accès ouvert. »
– A propos du comportement d’achat des bibliothèques dans cette histoire, Barbara Fister souligne :  » Les bibliothèques achètent moins de livres, qu’ils soient dérivés de thèses ou pas ; elles n’achèteront pas plus de livres si les thèses ne sont plus accessibles en ligne. Les éditeurs universitaires ne gagnent plus assez sur le marché des bibliothèques pour baser leurs décisions de publication sur ce que feront les bibliothèques. « 

Enfin, T. Mills Kelly fait le rapprochement avec des déclarations précédentes de l’AHA pour le moins circonspectes à propos de l’open access – elles reflètent, selon lui, la position cohérente mais ambigüe d’une société savante qui doit concilier un idéal de partage de la connaissance avec des réalités économiques mettant en cause une de ses principales sources de revenus (les abonnements à sa revue phare).


octobre 2014
L Ma Me J V S D
« août    
 12345
6789101112
13141516171819
20212223242526
2728293031  

Archives

Licence

Licence Creative Commons
Ce(tte) œuvre est mise à disposition selon les termes de la Licence Creative Commons Attribution 3.0 France.

Suivre

Recevez les nouvelles publications par mail.

Rejoignez 662 autres abonnés