Archive for the 'Archives Ouvertes' Category



Rendre les archives intitutionnelles + attractives

Pour inciter les chercheurs à déposer dans des archives ouvertes, il y a les mandats institutionnels. Mais il pourrait y avoir aussi une évolution des fonctionnalités et/ou des types d’archives disponibles. Dans ce post, M. Fenner liste une série de possibilités d’enrichissement, essentiellement dans le domaine biomédical :
– L’hébergement de sets de données de recherche
– La création d’une archive disciplinaire pour la recherche biomédicale : en effet, PubMed Central et UK PubMed Central n’accueillent que les articles qui ont été financés par certains organismes.
– La création d’une archive pour les pré-publications d’essais cliniques, un peu comme ArXiv le fait pour la physique.
– Le fait que plus d’éditeurs autorisent l’auto-archivage
– Une intégration des archives dans le processus de soumission des articles
– Une intégration dans l’annuaire de la recherche des institutions (cf BibApp)
– L’usage d’un identifiant unique pour l’attribution des citations (cf ORCID, dont MF est l’un des principaux promoteurs).

[photo : alex_ark_55_55]

L’OA « vert » n’est pas la panacée

« La voie « verte » vers le libre accès est simple : pour chaque article de revue scientifique, il faut qu’au moins un des auteurs fasse le nécessaire pour s’assurer que l’article en question est accessible en ligne librement, où que ce soit. Ils peuvent le déposer dans PubMed Central, ou bien mettre le pdf ou leur propre version de travail sur leur site web. Cependant, la méthode préférée de nombreux défenseurs du libre accès « vert » reste le dépôt dans une archive institutionnelle : chaque bibliothèque universitaire gère sa propre base de données des publications des chercheurs qui y sont affiliés. C’est effectivement une solution au problème de l’impossibilité d’accès aux articles que l’on souhaite lire.

Ca va vous paraître une hérésie, mais le problème de l’accès n’est pas intéressant. Les éditeurs commerciaux butés ont raison quand ils disent que la plupart des gens peuvent lire la plupart des articles qui les intéressent. Oui, cela signifie envoyer des messages aux auteurs, pirater entre amis, et emprunter des mots de passe, et oui, c’est un vrai problème, et non, les éditeurs commerciaux n’ont aucune excuse pour ne rien faire contre ça. Mais ce n’est plus un problème intéressant. Nous laisser lire un article librement, sans avoir à se connecter ou à harceler l’auteur au bout de 12 mois, ce n’est pas une révolution.

Il y a d’autres problèmes tout aussi ennuyeux dans le domaine de la publication scientifique que le libre accès « vert » ne résout pas. Comme par exemple trouver comment les bibliothèques universitaires peuvent échapper aux éditeurs parasites (ceux qui ne jurent que par l’accès sur abonnement), qui sont en train de tuer à petit feu leurs hôtes sans défense. Le libre accès « vert » envoie à ces éditeurs parasites le message qu’ils peuvent continuer à vider les bibliothèques de leurs budgets en leur vendant des bouquets d’abonnements à des revues de faible qualité que peu de gens veulent lire, du moment qu’ils ouvrent l’accès aux articles au bout de 12 mois.

C’est maintenant, alors que les bibliothèques sont confrontées à leurs plus grandes restrictions budgétaires depuis le début de la crise, le moment idéal pour qu’elles aient le cran d’intervenir, de dire « non », et de se débarrasser de ces parasites une bonne fois pour toutes, avant que quelqu’un n’arrive et ne les bâillonne derrière un énorme sparadrap. Les étudiants devraient se révolter en apprenant qu’ils vont devoir se passer de manuels et d’ordinateurs parce que leurs bibliothèques préfèrent dépenser plusieurs dizaines de milliers d’euros pour un bouquet d’obscures revues de seconde zone. Au lieu de cela, nous sommes distraits par le libre accès « vert », parce qu’on nous dit que c’est de cela que la recherche a désespérément besoin. »

Joe Dunkley dans « Green is no goal« , sur Journalology. Il évoque ensuite les « vraies révolutions » pour la recherche : la diffusion ouverte de données dans des formats structurés (il cite l’exemple de ce qui a été fait en génomique), et l’open notebook science (la science « ouverte », dont les partisans diffusent librement leurs travaux, recherches et expérimentations en cours, en toute transparence), susceptible de modifier profondément selon lui la manière de faire de la recherche.

[photo : gfpeck]

Elsevier en plein déni

Extrait de l’interview de Claudio Aspesi, analyste financier à propos des évolutions possibles pour Elsevier, par Richard Poynder sur son blog Open and shut ? – je vous conseille de le lire en entier, si vous vous intéressez aux questions de doc électronique – :

« RP: Dans un rapport publié en mars, vous disiez « Reed Elsevier semble nier l’ampleur du problème pouvant affecter l’édition scientifique, et une approche plus en profondeur sur cette question serait la bienvenue. » Pouvez-vous nous en dire plus sur ce à quoi vous faites allusion ?
CA:
Si – et je tiens à souligner le « si » – les contraintes budgétaires sur les bibliothèques universitaires résultent en plusieurs années de faible augmentation, voire d’absence d’augmentation des revenus, les éditeurs devront, au minimum, réduire fortement leurs coûts de production.
Si les contraintes budgétaires conduisent à des suppressions massives de contrats de type « big deal », et à une offre de nouveaux contrats à 20-30% de dépenses en moins, les éditeurs auront l’obligation de s’adapter. Aussi longtemps que les gestionnaires sembleront croire (si l’on en juge leurs déclarations publiques) qu’il n’y a aucune probabilité pour que leurs revenus restent inchangés pour les nombreuses années à venir, il faudra se demander s’il existe un plan B, qui en est responsable, et quel type d’événement pourront le déclencher.
Il y a également le fait que les arguments qu’Elsevier a mis en avant par le passé à propos de l’OA ne sont pas convaincants : par exemple, quand Reed Elsevier affirme que l’OA est voué à l’échec à cause du besoin de validation par les pairs, la société ignore le fait que la plupart des partisans de l’OA  soutiennent la dissemination de cette validation.

RP: Je pense que ce que vous dites, au fond, c’est que le groupe est en déni face à l’Open Access (OA), et à son impact probable sur sa rentabilité future. En quoi l’OA est-il une menace pour l’avenir d’Elsevier ?
CA:
L’OA n’a pas besoin d’être une menace. En fait, je pense qu’un passage vers l’OA « en or » (Gold OA) pourrait être bénéfique à Elsevier : si les revues proposaient des coûts de publication correspondant globalement aux revenus que la compagnie perçoit actuellement, elle maintiendrait son niveau de revenu, pour un coût vraisemblablement moindre.
La véritable menace vient de l’auto-archivage des revues validées par les pairs [Green OA]. C’est cela qui rend SCOAP, le modèle développé par la communauté des physiciens, tellement  perturbant : il réduit le rôle de l’éditeur à la gestion du processus de validation, avec éventuellement un peu de mise en page. Cela nécessite des coûts plus faibles, et nie la valeur du facteur d’impact.

RP: Alors quel est le fond du problème auquel fait face Elsevier  ?

CA: La société a élaboré un modèle économique sur un principe d’augmentations de revenu annuelles, justifiées et donc financées par le lancement continu de nouveaux titres. Cela a bien marché (en tout cas pour Elsevier) tant que les bibliothécaires ont pu trouver l’argent nécessaire (quel qu’ait pu être leur mécontentement croissant de l’augmentation des dépenses). Cela ne peut pas durer si l’on continue à restreindre les budgets des bibliothèques. »

[photo : deni]

OpenAIRE

L’Open Access, un mythe qui pourrait commencer à devenir une réalité  en Europe ?

C’est en tout cas l’objectif du projet OpenAIRE (Open Access Infrastructure for Research in Europe) : il s’agit d’aider à la mise en libre accès des publications présentant les résultats de programmes de recherche bénéficiant d’un financement de la Commission Européenne (dans le cadre du 7ème PCRD) ou de l’European Research Council. La première phase du projet, prévue sur 3 ans, vise à signaler 20% de la production de recherche faite sur des financements CE (dans 7 domaines prédéfinis). Comment ? En mettant en place un méta-moteur, chargé de moissonner les archives institutionnelles compatibles pour en faire remonter les projets estampillés « 7ème PCRD ». L’Italie, qui est le partenaire chargé de la partie technique, doit fournir les pré-requis OAI pour que les archives soient compatibles (en gros, il s’agit d’exposer un set de métadonnées qui indique l’appartenance de l’article à un projet européen). Dans chaque pays participant (27 pays en tout), un bureau national est chargé de diffuser de l’information sur l’Open Access, et d’apporter soutien et assistance aux chercheurs ou aux institutions devant se mettre en conformité avec ce programme pilote pour l’Open Access en Europe. Un volet du projet est destiné aux chercheurs dont les institutions ne disposent pas d’archive ouverte : il permet le dépôt des articles dans une archive maintenue par le CERN, en Suisse. Mais on en reparlera.

Quelques sites pour en savoir plus :

OpenAIRE : le site du projet (@openaire.eu), le communiqué de presse.

Eurosfaire : toute l’info sur les programmes de recherche en Europe (@eurosfaire)

– Le site du 7ème PCRD

[photo : N.I.M.A]

Qui va payer le gratuit ?

La question, sous-jacente depuis quelques temps, émerge de plus en plus ouvertement : ainsi la bibliothèque de l’Université de Cornell, qui héberge ArXiv, va lancer très prochainement un appel à contributions pour mutualiser une partie du financement des 400 000$ annuels nécessaires au fonctionnement de la base. La cible de cet appel : les 200 institutions les plus utilisatrices du service (qui représentent 75% des consultations). J’aimerai bien voir les chiffres d’usage pour avoir une idée de ce que ça représente pour un établissement ; il semble cependant que ce soit « rentable » (ie moins cher que certaines bases de données commerciales), vu que 11 des 20 premières institutions contactées ont déjà donné leur accord pour une participation financière. C’est une première étape dans le développement d’une stratégie à plus long terme pour assurer la pérennité de l’archive ; le modèle de contribution « durable » reste à définir – publicité, donations, subventions, services premium sont à l’étude.
Le même type de réflexion est à l’oeuvre ailleurs, chez  Revues.org notamment, où la mise en place d’une cotisation pour les bibliothèques, en échange de services dédiés (statistiques d’usage notamment) est annoncée pour 2010 (Marin Dacos en a parlé lors de l’Université d’Eté du CLEO, et Pierre Mounier l’a évoqué lors du colloque EPEF). Les bibliothèques françaises accepteront-elles de payer ? Ces cotisations de soutien ne devraient-elles pas plutôt être versées par les services de recherche ? Après tout, l’ouverture au libre accès est une question politique, l’engagement de toute une institution, et pas des seules bibliothèques. A suivre.
[photo : kipbot]

OA week : l’exemple d’E-LIS

vert_ban_add_120x240.jpgSuite de la semaine de l’Open Access, avec une présentation d’ELIS.

ELIS est une archive ouverte thématique dédiée aux sciences de l’information et des bibliothèques, créée en 2003. Elle est maintenue et mise à jour par une équipe internationale de volontaires, constituée d’une soixantaine de bibliothécaires ; ceux-ci (les éditeurs) vérifient les métadonnées des documents soumis par les auteurs et valident les dépôts.
ELIS fait partie du projet de recherche RCLIS (Research in Computing, Library and Information Science), qui vise à recenser et à disséminer le plus largement possible la production de recherche dans le domaine des sciences de l’information et des bibliothèques. Techniquement, l’archive est hébergée par l’AEPIC (Advanced e-Publishing Infrastructures – CILEA), service du CILEA, un consortium d’universités italiennes fortement impliqué dans le libre accès. L’AEPIC est également l’opérateur de l’archive ouverte italienne PLEIADI.

ELIS oeuvre également à la promotion de l’Open Access auprès des bibliothécaires par la participation de ses volontaires à de nombreuses manifestations professionnelles (au moins une trentaine de conférences et journées d’études en 2009).

Des contenus

L’archive accepte des documents scientifiques ou techniques, relevant des disciplines des sciences de l’information et des bibliothèques, publiés ou non, finalisés, pouvant être communiqués. Les documents déposés sont principalement des articles (plus de la moitié), mais également des présentations, des communications, des posters, des thèses. Plus de la moitié de ces documents a fait l’objet d’une validation par les pairs. La classification utilisée par l’archive, JITA, est spécifique aux sciences de l’information et des bibliothèques.

De la technique
L’archive est construite avec le logiciel open source GNU E-prints, qui utilise nativement le protocole OAI, ce qui la rend moissonnable par de nombreux moteurs de recherche (généralistes comme spécialisés).

Des chiffres

En octobre 2009, l’archive héberge plus de 9600 documents en 37 langues, provenant de 5600 auteurs. Les plus gros contributeurs sont l’Espagne, l’Italie (plus de 1000 documents), les Etats-Unis, l’Inde et Cuba (entre 500 et 1000 docs), le Royaume-Uni, la Grèce, le Mexique, l’Allemagne et le Canada (entre 300 et 500 docs).

Les statistiques de consultation, plutôt en hausse régulière depuis 2005, semblent marquer le pas, du moins en ce qui concerne le nombre d’abstracts et de documents téléchargés ; elles sont cependant à prendre avec précaution : je ne sais pas dans quelle mesure le changement de plateforme technique qui a eu lieu fin 2008 n’a pas affecté les chiffres sur les usages.

De la participation

La participation francophone à l’archive est assez faible (données octobre 2009) :

– on recense 131 documents en langue française : 54 provenant de Suisse, 41 de France, 11 de Belgique, 8 d’Argentine, 7 du Canada, 3 du Maroc , 8 d’autres pays européens.

– 85 documents proviennent de France (et oui, les auteurs français publient aussi en anglais) ; comme je le rappelais dans ce billet, certaines revues professionnelles autorisent l’auto-archivage, qui ne prend pas plus de 10 minutes sur E-LIS, il ne faut pas hésiter à se lancer.

D’ailleurs la participation est en hausse : j’ai édité pour la catégorie France 7 documents en 2008, 11 en 2009 – j’espère que vous serez encore plus nombreux en 2010 ! 😉

OA week : sélection de lectures

vert_ban_add_120x240.jpgCa vous aura peut-être échappé, tant le sujet est finalement assez ignoré en France*, mais c’est la semaine de l’Open Access. Marlene’s corner s’y associe, et vous propose, pour commencer, cette petite sélection de documents consacrés à l’OA :

Open Access Resources, Services, and More par Andrew Waller

Open Access Dissemination Challenges: A Case Study par Young Philip

Open Access (OA) immersion: librarians report from the field par A. Waller et Leah Vanderjagt

Open access e-books par Jennifer Dekker

Open Access. Chapter 6 of Scholarly Communication for Librarians par Heather Morrison

Libre Accès à la recherche scientifique (Open Access) et dépôts institutionnels : contexte et enjeux par Kumiko Vezina

Le coût du libre accès dans le cas du modèle hybride par Caroline Collette

Une plus grande portée pour vos recherches par l’association CARL

L’ « Open Access », pour une réelle liberté de la communication scientifique : état des lieux et problématiques par Christian Gérini

It’s a Repository, it’s a Depository, it’s an Archive…: Open Access, Digital Collections and Value par Jean-Claude Guédon

* à l’exception notable de l’IFREMER, qui est le seul organisme participant à l’OA week en France recensé sur le wiki de l’opération, bravo l’Ifremer !

Bref, de l’Open Access au menu tous les jours cette semaine !

Une huître dans une botte de foin

3813189585_713dac4684_m.jpgEn janvier dernier, l’Université du Michigan, à l’origine du projet OAIster, passait la main à OCLC, qui s’est alors engagé à maintenir un accès libre à cet outil (qui moissonne les archives OAI du monde entier et en fait un outil de diffusion de premier ordre pour les contenus en libre accès). Or OCLC vient d’annoncer les prochaines étapes de la migration d’OAIster aux responsables d’archives ouvertes, dans un mél qui en a contrarié plus d’un : à partir d’octobre prochain, OAIster sera interrogeable soit depuis Firstsearch (une base de données payante d’OCLC), soit depuis Worldcat (l’équivalent du Sudoc pour l’ensemble des bibliothèques publiques, gratuit, piloté aussi par OCLC).
Ce qui soulève plusieurs problèmes :
– Les archives ouvertes fonctionnent généralement selon les principes de l’open access (pas de barrière économique, ni technique, ni juridique) : on comprend que les auteurs et/ou les responsables ne soient pas d’accord pour que leurs données soient exploitées dans le cadre d’un abonnement payant, ni soumises aux conditions d’utilisation des données (les « Terms and conditions ») proposées par OCLC.
– A priori seuls les clients de Firstsearch pourront interroger OAIster de façon isolée : pour les autres, les résultats seront noyés dans les notices de Worldcat (il ne sera pas possible de restreindre la recherche à OIAster uniquement) : ce n’est pas très propice à la valorisation des contenus récoltés via OAIster. Certes, OCLC n’est pas une association philanthropique, et il est logique qu’elle cherche à faire bénéficier d’un « service plus » ses abonnés, mais sur ce coup là je trouve qu’en terme d’image et de service rendu, EBSCO (une autre entreprise commerciale) s’en sort beaucoup mieux lorsqu’elle met à la disposition de tous des bases comme LISTA ou Teacher Reference Center ou GreenFile.

Les explications de Roy Tennant (qui travaille chez OCLC) : The Straight Dope on OAIster et Clarification on OCLC/OAIster Transfer.
[photo : feetwet]

Open access : juste fais-le

3836955294_28192ca3df_m.jpgVous avez au cours des derniers mois produit un article publié dans une revue professionnelle : savez-vous que certaines d’entre elles autorisent l’auto-archivage des articles par leurs auteurs dans les dépôts électroniques de leur choix ?

Alors pourquoi ne pas déposer une version de vos articles sur E-LIS, l’archive ouverte en sciences de l’information et des bibliothèques ?

Une visibilité internationale, des urls pérennes, des métadonnées de qualité, des statistiques d’utilisation détaillées : voilà quelques uns des avantages, à déposer sur E-LIS, en plus d’oeuvrer ainsi concrètement pour le libre accès, en participant à la dissémination la plus large de l’information dans le domaine des SIB…

Le dépôt ne prend pas plus de 10 minutes, laissez-vous guider par la démo en version flash : http://eprints.rclis.org/subsmission_flash.html ou en version gif animé : http://eprints.rclis.org/Subsmission_gif.html

Pour vous enregistrer, c’est par là : http://eprints.rclis.org/perl/register

Vous pouvez également être informés des nouveaux documents déposés en vous abonnant au fil RSS de la base, ou à son compte Twitter ; il y a aussi un groupe Facebook.

*Disclaimer : je suis éditrice E-LIS pour la France ;-)*

[Photo : vieux bandit]

Résultats de l’enquête du CREST

3694137894_c359cae3d9_m.jpgLe Comité de la Recherche Scientifique et Technique (CREST) a été chargé par la Commission Européenne d’enquêter auprès des membres de l’UE sur l’accès à l’Information Scientifique et Technique à l’ère numérique. Les résultats de l’enquête mettent en lumière les éléments suivants :

1) Malgré une augmentation des initiatives menées par les universités, les bibliothèques et les organismes financeurs, très peu de stratégies nationales ont émergé sur les problématiques d’accès, de diffusion et de conservation de l’IST. D’où une grande méconnaissance des possibilités d’auto-archivage par les chercheurs, un investissement minime desdits chercheurs dans la diffusion (qui ne représente qu’entre 1 et 10% de l’activité de recherche), des taux de TVA pénalisants dans certains pays (elle est toutefois remboursée aux bibliothèques

2) De nombreuses déclarations, prises de positions et initiatives nationales et multi-nationales existent, mais il n’y a toujours pas de politiques nationales claires et fortes sur les questions liées à l’IST, notamment sur l’Open Access.

3) Dans la plupart des pays les questions d’archivage pérenne se sont focalisées sur le patrimoine culturel, et pas suffisamment sur le patrimoine scientifique, d’où une faible sensibilisation des chercheurs aux enjeux de la conservation de leurs travaux sur le long terme.

Le comité préconise :

La mise en place de stratégies nationales claires et cohérentes pour l’accès et la diffusion de l’IST, qui faciliteraient une coordination européenne. Elles devraient prendre en compte les questions d’Open Access, de copyright, de diffusion des résultats de la recherche, de TVA sur l’électronique, d’archives ouvertes et d’interopérabilité.

L’amélioration de la coordination des politiques d’accès et de diffusion, afin de traiter des points tels que l’Open Access, les négociations avec les acteurs commerciaux de l’édition (plus de transparence sur les « big deals » et des clauses favorisant le libre accès), l’interopérabilité des archives ouvertes.

L’extension des stratégies de conservation nationales existantes au domaine spécifique de l’IST, qui passe par une nécessaire prise de conscience des chercheurs.

[photo : Stephan Geyer]


février 2026
L M M J V S D
 1
2345678
9101112131415
16171819202122
232425262728  

Archives

Licence

Licence Creative Commons
Ce(tte) œuvre est mise à disposition selon les termes de la Licence Creative Commons Attribution 3.0 France.