N’enterrez pas les archives ouvertes !

22644657642_80f8c7ae73_zDans ce billet de juillet dernier, « Let IR RIP » (en gros, « Ci-gisent les archives ouvertes institutionnelles »), Eric Van de Velde explique pourquoi, pour lui, les AO sont finies (il se concentre sur les AO d’établissements) :

  • Manque d’enthousiasme des enseignants-chercheurs : ils déposent par obligation, par par choix – on ne peut pas parler d’adhésion à l’OA
  • La gestion au niveau local des AO est déconnectée du fonctionnement plus global des communautés scientifiques
  • Les droits de réutilisation des contenus sont trop restrictifs pour pouvoir permettre une recherche fédérée efficace
  • Les AO ne sont pas suffisamment utilisées comme des outils de recherche (ie comme source de contenus) pour qu’une communauté d’utilisateurs permette d’en améliorer la qualité et les fonctionnalités
  • Le coût de la gestion des AO est disproportionné par rapport aux fonctionnalités limitées qu’elles proposent
  • La logique institutionnelle des AO n’épouse pas la logique de carrière des enseignants-chercheurs
  • Il manque aux AO une couche d’interactivité sociale pour stimuler les échanges entre enseignants-chercheurs
  • Les services autour des AO (type réseaux académiques) sont développés en dehors des institutions, et doivent trouver des modèles de financement alternatifs parfois contestés

Pour l’auteur, les AO ne sont pas la seule manifestation du green OA : les archives personnelles (« personal repositories »), les archives disciplinaires ou centralisées (il cite Arxiv et Pubmed) et les réseaux sociaux académiques sont d’autres véhicules de la voie verte.
22390839653_18d7c28799_zJe ne suis pas d’accord avec la totalité de l’argumentaire, dont certains éléments ne sont pas spécifiquement liés aux AO locales (la faible adhésion, les droits, les usages), ni avec sa conclusion : je vois mal comment un chercheur qui n’est pas motivé pour déposer un article dans une AO aurait subitement les capacités, l’envie et le temps de mettre en place son archive perso – et quelle belle opportunité de service à développer pour les acteurs privés ! -, et j’ai l’impression que la visibilité se travaille plus au niveau du laboratoire que du chercheur, en tout cas c’est ce que je perçois dans les échanges au sein de mon institution. On a aussi déjà dit ailleurs que les réseaux sociaux, ce ne sont pas des AO (et inversement), et le récent passage d’Academia a un modèle premium le confirme. Sur les 2 derniers griefs : il me semble que l’intérêt des AO locales est bien de pouvoir développer des services personnalisés pour sa communauté (après ils gagneraient peut-être à être mutualisés et rendus plus visibles, mais c’est une autre histoire), et un des moyens pour avoir des fonctionnalités sociales ne serait-il pas plutôt de développer des connecteurs avec les réseaux existants, au lieu de réinventer la roue ?

[Photos : Martine, Frédéric Bisson]

Sci-Hub

Sci-hub est un site web créée en 2011 par Alexandra Elbakyan, une étudiante kazakh ayant alors du mal à accéder aux articles dont elle avait besoin pour sa thèse. Le site, qui se définit clairement comme pirate, donne accès à plus de 47 millions d’articles scientifiques, en toute illégalité.
A l’heure actuelle, on estime qu’un article est partagé 11 fois en moyenne, principalement par email : Sci-Hub n’a rien inventé, mais il a industrialisé le processus.

Comment ça marche ?
5241380268_a4229953c2_mDepuis l’interface de Sci-Hub, l’utilisateur rentre l’identifiant d’un article (son DOI, son PMID), son url ou des termes de recherche. Sci-Hub va d’abord chercher si l’article est présent dans LibGen, un autre site pirate de stockage d’articles scientifiques, qui héberge aussi des livres et des BD.
Si ce n’est pas le cas, le système va se connecter à des sites d’universités pour récupérer l’article, en utilisant les identifiants d’étudiants ou d’enseignants-chercheurs de ces établissements. Ces identifiants sont soit donnés de plein accord par les utilisateurs, soit achetés par Sci-Hub : il y a bien un marché des identifiants…
On estime l’activité sur le site à plus de 200 000 téléchargements par jour.

Qui utilise Sci-hub ?
Une enquête menée par la revue Science en avril 2016 s’est intéressée aux usages de Sci-Hub ; elle a donné une forte exposition à ce service jusque là plus ou moins confidentiel.

L’enquête montre que, si ce sont bien les pays en voie de développement qui sont les plus gros utilisateurs du service (Iran, Inde et Chine en tête), un bon quart des usages émane des Etats-Unis et des pays d’Europe de Ouest, censés être correctement desservis en ressources en ligne.
Au delà de la problématiques de l’accès, il semble donc que la facilité d’utilisation du service entre en ligne de compte pour ces usagers : d’une part le système est simple à utiliser, et d’autre part on y trouve tout sur place, ce qui permet un gain de temps appréciable.
De fait, 37 % des répondants affirment avoir eu recours à Sci-Hub bien qu’ils bénéficient par ailleurs d’un accès aux ressources consultées.
L’université d’Utrecht a pu analyser les usages probables de ses chercheurs sur Sci-Hub : 75 % des consultations concernent des ressources disponibles via la BU (60 %) ou en open access (15%).

Légalité et éthique
Le système n’est pas légal : la créatrice du site est poursuivie aux Etats-Unis par l’éditeur Elsevier pour violation de copyright et piratage ; l’éditeur estime les usages de Sci-Hub à 5 % du total des téléchargements légaux, tous éditeurs confondus.
Pour sa défense, A. Elbakyan s’appuie sur l’article 27 de la Déclaration universelle des droits de l’homme, qui pose que «Toute personne a le droit de prendre part librement à la vie culturelle de la communauté, de jouir des arts et de participer au progrès scientifique et aux bienfaits qui en résultent. »
La justice américaine a rendu un verdict en sa défaveur, et demandé à ce que le site soit fermé : A. Elbakyan n’étant pas localisée sur le sol américain, elle échappe pour l’instant aux poursuites ; le site est resté fermé pendant une quinzaine de jours en novembre 2015, et a pu rouvrir à une autre adresse assez rapidement.

Malgré l’illégalité avérée de ce système, il bénéficie cependant de la sympathie d’une partie de la communauté des chercheurs, utilisateurs ou non du site : pour 88 % des répondants à l’enquête de Science, pirater des articles scientifiques n’est pas répréhensible.
Plusieurs arguments viennent étayer ce « capital sympathie » : le système actuel de diffusion des résultats de la recherche ralentit la diffusion de la science, la restreint et empêche son exploitation scientifique (par la fouille de données notamment) ; le cadre légal actuel est inadapté aux besoins et usages permis par le numérique ; le coût de l’accès reste un problème pour de nombreux pays ; la valeur ajoutée des « grands » éditeurs est remise en question…

Position des éditeurs
8466937657_c9c834feef_mLes éditeurs condamnent bien entendu globalement les pratiques de Sci-Hub. Sans surprise, ce sont des articles des « big 5 » qui sont le plus téléchargés : Elsevier, Springer-Nature, ACS, Wiley, Taylor&Francis. Les enjeux ne sont cependant pas les mêmes pour ces éditeurs commerciaux et pour les sociétés savantes, qui éditent bien moins de titres et dont les abonnements constituent la principale ressource de revenu.
Plusieurs représentants d’éditeurs critiquent « l’approbation silencieuse » constatée chez certains bibliothécaires et/ou défenseurs de l’open access, et préfèreraient une franche condamnation des « bibliothèques pirates ».
Pour l’instant le soufflé semble retombé, mais il est possible que les éditeurs réagissent avec une réponse technique dans un futur plus ou moins proche : renforcement des mesures d’authentification dans les établissements, quotas de téléchargements imposés, voire suppression de la mise à disposition des documents au format pdf – probablement au final une complexification des systèmes d’accès documentaire des BU…

Positions des bibliothèques
Les bibliothécaires sont dans une position délicate : d’un côté Sci-Hub semble répondre en partie au problème de l’accès à l’information scientifique, mais d’un autre cela se fait au mépris de toutes les règles du droit d’auteur, ce qui n’est pas défendable dans le contexte actuel.
Par ailleurs, Sci-Hub s’appuie sur les bibliothèques à leur insu, tout en sapant leur intérêt (l’utilisateur n’a pas conscience que ce sont les établissements qui fournissent, certes malgré eux, les accès : la bibliothèque n’apparaît nulle part dans le dispositif), et leur crédit (pour les éditeurs, Sci-Hub prospère parce que les bibliothèques ne parviennent pas à mettre en place des systèmes d’authentification performants).
6263541898_724d37bbb7_mCoincées entre des coûts toujours croissants et des budgets stables dans le meilleurs des cas, la tentation est grande pour les bibliothèques de considérer Sci-Hub comme une alternative pour couvrir des besoins documentaires à moindre frais, voire pour remplacer certaines ressources qu’elles ne peuvent plus financer. Mais, si on pousse le raisonnement jusqu’au bout, et que les bibliothèques finissent par supprimer leurs abonnements, d’une part Sci-Hub n’aura plus accès à grand-chose, et d’autre part les éditeurs finiront par faire faillite : on explose le système, mais pour le remplacer par quoi ? Pas sûr qu’on ait une réponse pour l’instant…

Menace pour l’open access ?
Bien que Sci-Hub affiche sur son site son soutien à l’open access, on ne peut pas dire que son activité bénéficie particulièrement au libre accès : l’illégalité du procédé incite plus les éditeurs à attaquer en justice qu’à faire évoluer leurs modèles économiques. En terme d’image, alors que le mouvement de l’open access a encore du mal a se sortir de l’amalgame avec les éditeurs prédateurs, ou avec le modèle de l’auteur-payeur, le fait d’être associé avec un site pirate ne facilite pas la tâche des promoteurs de l’OA auprès des chercheurs…
Sur le fond, Sci-Hub ne résoud pas les problèmes : les éditeurs ne changent pas leurs modèles, le système d’évaluation de la recherche ne change pas (maintien du facteur d’impact), le droit d’auteur n’évolue pas (les auteurs continuent à céder leurs droits sur leurs publications). Or c’est sur tous ces points que le mouvement de l’open access entend agir, pour arriver à un changement culturel profond dans les communautés scientifiques, à une science ouverte.

Plus qu’une menace, Sci-Hub est peut être plutôt à voir comme une opportunité pour les bibliothécaires de se re-positionner dans le paysage de l’open access, en renforçant leur rôle de médiateurs et de promoteurs d’un véritable open access, respectueux des droits de toutes les parties, pérenne et citable.

[Photos : françois.sorrentino, Laurent Henschen, Christian Gonzales]

True colors

Dans cet article du JOLIS, « What does ‘green’ open access mean? Tracking twelve years of changes to journal publisher self-archiving policies« , Elisabeth Gadd et Denise Troll Covey ont étudié l’évolution sur 12 ans des politiques des éditeurs en matière d’auto-archivage, référencées sur Sherpa/Romeo. Ce que l’on peut en retenir :5584187526_fe3169c780_o

  • Les couleurs de Sherpa/Romeo ne reflètent plus la diversité des politiques éditoriales en matière d’auto-archivage, qui se sont complexifiées au cours des dernières années.
  • L’attribution de la couleur ne prend pas en compte la totalité des critères entrant dans les politiques des éditeurs, négligeant les embargos, le lieu de dépôt, les conditions annexes.
  • Les restrictions imposées par les éditeurs augmentent : sur le lieu de dépôt (pages perso en hausse notamment), sur la date de dépôt (de plus en plus d’embargos) et sur les conditions à remplir (lien vers le site de l’éditeur, mention de l’éditeur, suppression du pre-print après publication, ajout d’un fee pour sortir de l’embargo ou l’usage du pdf éditeur etc.)
  • Il existe une forte corrélation entre l’introduction d’options OA payantes (gold ou hybride) et l’augmentation des restrictions sur le green OA
  • Les demandes des financeurs, notamment sur les conditions de ré-utilisation, sont en hausse (dépôt sous licences CC spécifiques par exemple)
  • Globalement, on constate une augmentation des revues green (+4%), et une baisse des revues white (défavorables à l’auto-archivage). Mais c’est sans compter sur les restrictions des éditeurs : si l’on se base sur les revues autorisant un OA immédiat, dans une archive institutionnelle ou thématique, sans obligation d’en informer l’éditeur, les revues green baissent de 35%…
  • Paradoxalement, les revues acceptant le dépôt du pdf éditeur sont en augmentation : pour certains éditeurs, le green OA n’est donc pas une menace.5583597507_28c94e9d7f_o

Il y a indéniablement un effet de « greenwashing » : les éditeurs passent pour favorables à l’OA green en affichant l’aval de Sherpa/Romeo (du moment que le dépôt du pre-print et du post-print est autorisé, la revue est classée comme « green », même si des restrictions s’appliquent), alors qu’ils imposent en fait de plus en plus de contraintes au dépôt, ce qui a de quoi décourager les auteurs – et les professionnels de l’IST – qui finissent par ne plus savoir où ils en sont : l’OA gold c’est l’accès immédiat, mais c’est hors de prix, l’OA green c’est pas cher mais c’est compliqué, et il y a des éditeurs white qui autorisent quand même une forme de dépôt…

Les auteurs préconisent donc une révision du système de couleurs de Romeo et la mise en place d’un nouveau système d’évaluation du niveau d’open access des revues, prenant en compte toutes les spécificités de l’accès, sur le modèle de l’OA Spectrum établi par SPARC.

[Photos : NoHoDamon]

Openwashing

Dans son dernier billet When is the library Open ?, Barbara Fister revient sur plusieurs  mouvements récents dans le paysage scientifique :

  • L’accord passé entre l’université de Floride et Elsevier pour automatiser l’alimentation (via l’API de l’éditeur) de leur archive ouverte locale : dit comme ça, ça a l’air d’être une bonne idée, et c’est vrai que c’est plutôt pas mal pour récupérer des métadonnées, mais en fait le texte intégral des articles ne sera accessible que pour les abonnés à la plateforme ScienceDirect  (en dehors des articles nativement en OA)… Pas vraiment de l’OA, donc, et clairement une tentative forte de l’éditeur pour se positionner comme « partenaire/prestataire » de la Recherche, en récupérant des données de consultation et du trafic sur son propre site web au passage…

Il est évident qu’externaliser la gestion d’une archive ouverte institutionnelle à Elsevier n’est pas une bonne idée. Ce qui l’est moins, c’est que les bibliothécaires doivent se bouger rapidement pour financer et/ou bâtir collectivement des alternatives sérieuses à cet « openwashing« . Ce nous prendra du temps et de l’argent. Ca nécessitera de prendre des risques. Ca implique de nous éduquer à des solutions tout en réfléchissant à comment mettre nos valeurs en pratique. Ca implique de faire des compromis sur l’accès immédiat avec quelques râleurs ayant pignon sur rue, pour mettre de l’argent et du temps dans des solutions à long terme, qui pourront mette un certain temps avant de fonctionner. Ca implique de considérer la fourniture équitable d’accès au savoir comme notre fonction première, et pas comme une option sur laquelle travailler quand nous n’avons rien de mieux à faire avec nos « vraies » missions de négociation de licences, de maintenance des résolveurs de liens et de formation des étudiants à l’utilisation d’interfaces qui seront obsolètes quand ils auront terminé leurs études. Ca implique d’agir dès maintenant pour pouvoir faire partie du futur de la communication scientifique.

  • L’achat, toujours par Elsevier, de la plateforme SSRN : après les sociétés savantes, et les outils de gestion bibliographique (Mendeley), les infrastructures de l’OA deviennent un enjeu majeur du développement des éditeurs – et on peut légitiment penser qu’Academia et ResearchGate sont les prochains sur la liste.

4439668659_5ba184bf95_o

 

Leadership numérique

Dans Library leadership for the digital age, la dernière synthèse publiée par l’association de consultants Ithaka S+R, Deanna Marcum adapte au monde des bibliothèques des recommandations pour le leadership numérique, en 10 points ; extraits :
1. Créer une stratégie numérique globale, qui peut être partagée largement et répliquée au sein de l’organisation

C’est sans doute l’un des plus grands défis pour les bibliothèques. Bien que beaucoup de bibliothécaires comprennent que les bibliothèques sont numériques au quotidien, il y en a toujours un certain nombre qui pensent que les activités numériques s’ajoutent au coeur du métier. Nous n’attendons plus que la révolution numérique ait lieu : elle est là. Les collections imprimées continuent à avoir une grande valeur universitaire, mais les étudiants recherchent de l’information numérique – quand ils en ont besoin, sur n’importe quel appareil, provenant de n’importe où.

2. Inclure la littératie numérique dans toute l’organisation4315941245_d0516fec53_m

Une des principales raisons pour lesquelles la plupart des personnels considèrent le numérique comme un joli ajout est qu’ils ne sont pas encore entièrement à l’aise avec le numérique. Pour les conservateurs et les spécialistes documentaires, cela signifie d’en savoir autant sur les ressources numériques que sur les revues et livres imprimés. Cela veut dire connaître les sites web qui contiennent de l’information universitaire riche et de qualité. Cela veut dire savoir comment les chercheurs utilisent les blogs et les sites web pour communiquer leurs résultats de recherche. Cela veut dire connaître les services et les produits que proposent déjà les fournisseurs. Comprendre où trouver les ressources numériques est insuffisant en soi. Les bibliothécaires doivent savoir comment identifier, acquérir et conserver ces ressources numériques. C’est plus compliqué que d’acheter et de stocker des livres dans les collections. Les acquisitions numériques nécessitent souvent la négociation complexe de droits de propriété intellectuelle. L’ajout de ces ressources aux collections de la bibliothèque demande un savoir-faire technique et une infrastructure suffisamment robuste pour assurer l’hébergement et la conservation numériques.

3. Se recentrer sur les fondamentaux

Les usagers veulent accéder à l’information, ils se fichent de savoir ce que la bibliothèque possède. En intégrant complètement les ressources numériques aux ressources patrimoniales, nous construisons le type de bibliothèque dont les usagers d’aujourd’hui ont besoin – et nous donnons en même temps de la crédibilité à notre mission traditionnelle. Le rôle de la bibliothèque change dans le monde numérique, et nous devons être honnêtes avec ces changements. Les étudiants utilisent la bibliothèque autant ou même plus qu’avant, mais ils l’utilisent la plupart du temps à distance. Les budgets des bibliothèques pour les ressources électroniques ont augmenté de façon dramatique ces dernières années, mais peu de bibliothécaires ont réellement analysé de façon sérieuse ce que cet accès distant implique en termes de personnels, d’espaces ou d’organisation.

4. Adopter les nouvelles règles d’interaction avec les usagers

4545772727_d596406d64_mLes bibliothèques doivent être prêtes à écouter les besoins des usagers. Nous ne sommes pas en position de prescription. Dans l’environnement web, plusieurs questions des usagers peuvent avoir des réponses instantanées. Si les bibliothèques veulent avoir une valeur ajoutée pour leurs usagers, elles doivent être prêtes à fonctionner [selon les règles de] cet environnement.

5. Comprendre les différences globales dans la façon des usagers d’accéder à et d’utiliser internet

De plus en plus de BU comprennent leur rôle-clé dans les politiques de recrutement et de suivi des étudiants de leurs établissements, elles doivent être conscientes des questions variées de diversité  et faciliter l’accès à tous.

6.Développer les compétences d’analyse de l’organisation

Au lieu de se baser sur les pratiques du passé, le leader numérique s’appuiera de plus en plus sur les données pour prendre des décisions. Que savons-nous des intérêts et des préférences de nos usagers ? Elaborons-nous nos services à partir de ces informations ?

[…] sans violer les questions de protection de la vie privée, nous devons utiliser l’analyse de données pour comprendre les comportements de nos usagers et créer des services qui répondent à leurs besoins.

7. Se concentrer sur l’expérience utilisateur

Quand nous commençons à personnaliser nos services, nous nous heurtons assez vite au manque d’expertise disciplinaire de nos bibliothécaires généralistes. Nous avons besoin de bibliothécaires qui travaillent en partenariat avec les départements universitaires, pour créer des services de soutien à leurs missions de recherche et d’enseignement.

8. Promouvoir des leaders possédant des compétences qui concilient expertise traditionnelle et expertise numérique

Les nouveaux personnels s’attendront à ce que l’établissement soit numérique. Ils seront mal à l’aise avec les règles traditionnelles. Les leaders numériques aideront les personnels les plus chevronnés à passer dans le monde numérique avec confiance et enthousiasme.7900901406_5be290fc5d_m

9. Faire attention à la compatibilité culturelle lors du recrutement de leaders numériques

Les leaders efficaces n’ont pas peur de secouer la culture établie quand c’est nécessaire.

10. Comprendre les motivations de ses employés les plus talentueux

Les bibliothèques doivent cultiver les talents parmi leurs personnels, et être suffisamment attractives pour les encourager à rester dans l’établissement. Pour ce faire, elles doivent avoir une stratégie numérique claire pour leur développement, mais surtout elles doivent entretenir une culture d’établissement qui valorise l’expérimentation et la créativité…

[Photos : Michael Dales, Limor, Viki Reed]

La feuille de route de l’EUA pour l’OA

L’European Universities Association, EUA, qui rassemble 850 établissements dans 47 pays, vient de sortir une feuille de route pour l’accès ouvert aux publications de recherche, qui constitue une première étape dans un plan plus large de développement de l’Open Science.
Il s’agit de mettre en place un système de publication juste et transparent, respectueux d’un équilibre entre les coûts et les bénéfices, qui permette de faire émerger de nouveaux modes de production et de diffusion des savoirs.
Les objectifs sont larges : promotion des politiques en faveur de l’OA, réflexion sur les modes d’évaluation de la recherche, évolution du cadre juridique de la publication, évolution des modèles économiques, promotion du partage de données et de la fouille de textes (TDM), normalisation des politiques institutionnelles en matière d’OA pour la recherche et pour la pédagogie.
Pour y arriver, l’EUA propose une série d’actions :
– établir une cartographie des politiques institutionnelles d’OA, avec un suivi des accords avec les éditeurs
– partager les bonnes pratiques en matière de négociation de type « big deal », et en extraire des recommandations pour les négociations
– définir des recommandations sur les politiques institutionnelles d’OA, et favoriser l’émergence d’infrastructures et d’initiatives européennes en faveur de l’OA
– favoriser le dialogue entre les chercheurs et leurs institutions (autour des modalités d’évaluation et de reconnaissance académique), entre les différents acteurs institutionnels et associatifs, et avec les éditeurs (autour de modèles économiques viables)
– mobiliser les politiques autour d’un modèle de publication équitable

Tout ceci, rappelons-le, se passe dans un contexte plutôt favorable, avec la présidence hollandaise de l’UE, qui affiche des ambitions très fortes en matière d’open access.

Méga-autorat : qui fait quoi ?

2385193167_b654c17189_mDans son billet Does mega-authorship matters ? , Stephen Heard s’intéresse au phénomène du « méga-autorat » (je n’ai pas trouvé mieux pour traduire « authorship ») qui touche une frange croissante de la production scientifique mondiale.
Il commence par souligner que la question n’est pas nouvelle, puisque depuis les années 2000, 90% des articles ont des auteurs multiples, et que le nombre des articles à plus de 50 auteurs augmente régulièrement depuis la fin des années 90. Il n’est ainsi pas rare de voir passer des articles avec plusieurs centaines de co-auteurs, dont la liste est plus longue que l’article lui-même.
Dans certaines disciplines, c’est même une politique assumée d’associer comme auteur tous les intervenants d’un projet (les chercheurs, les ingénieurs, les techniciens, etc). La physique fonctionne sur ce modèle : les équipes CMS et ATLAS, qui collaborent sur l’accélérateur de particules du CERN (le Large Hadron Collider, LHC) ont ainsi produit en mai 2015 un article attribué à pas moins de 5184 auteurs

Qu’est-ce qu’un auteur scientifique ?
Cette politique « d’autorat collaboratif » remet en cause la notion « d’autorité » telle qu’elle est conçue jusqu’ici. S. Heard rappelle que l’International Commitee of Medical Journals Editors (ICMJE, 2014) définit la qualité d’auteur pour le domaine médical selon les 4 critères suivants :

« – Contributions substantielles à la conception ou aux méthodes de la recherche ou à l’acquisition, l’analyse ou l’interprétation des données ; ET
– Rédaction préliminaire de l’article ou sa révision critique impliquant une contribution importante au contenu intellectuel ; ET
– Approbation finale de la version à publier ; ET
– Engagement à assumer l’imputabilité pour tous les aspects de la recherche en veillant à ce que les questions liées à l’exactitude ou l’intégrité de toute partie de l’œuvre soient examinées de manière appropriée et résolues. »
Si cette définition peut tout à fait s’étendre à la plupart des autres champs scientifiques, il est cependant fort peu probable que les équipes travaillant sur le LHC puissent remplir toutes ces conditions, ni même qu’elles y aspirent : la pratique fait évoluer, dans certaines disciplines, la notion d’auteur vers quelquechose de plus large, de plus inclusif, de plus collectif.

Les problèmes que ça pourrait poser
Trop d’auteurs tue l’auteur : la responsabilité scientifique est diluée, l’intégrité des résultats est questionnée, la traçabilité de la démarche est complexifiée…  Et quid de la promotion, de la carrière individuelle du chercheur dans tout ça ?
Pour Stephen Heard, il n’y a pas vraiment de risque scientifique dans la mesure où la démarche est connue et assumée par tout un champ disciplinaire : si erreur il y a, elle retombera sur tous les auteurs… Et pour la carrière, les physiciens ont trouvé une autre solution : ils ont choisi l’ordre alphabétique. D’autres biais sont réels et plus questionnables : par exemple le positionnement systématique comme auteur du directeur de laboratoire sur toutes les publications produites par le labo, dans certaines disciplines.
[Petite parenthèse : l’ordre des auteurs dans la signature de l’article, c’est important pour la bibliographie du chercheur, mais aussi pour l’attribution de financements]
J’ajoute un autre problème potentiel : le signalement des articles dans les archives ouvertes – vous imaginez le temps pour saisir toutes les affiliations de tous les auteurs pour déposer l’article dans HAL ?😉

Open Contributorship Badges, une piste pour y voir plus clair
Le billet n’en parle pas, mais des initiatives émergent pour l’attribution plus détaillée du rôle de chacun dans la production de l’article : un projet conjoint d’Harvard et du Wellcome Trust a créé une taxonomie pour identifier le niveau de contribution des auteurs, elle se décline sous forme de badges apparaissant à la fin ou à côté de l’article. Vous pouvez en voir un exemple sur une revue de BioMedCentral ou sur une revue de Ubiquity Press.


décembre 2016
L M M J V S D
« Oct    
 1234
567891011
12131415161718
19202122232425
262728293031  

Archives

Licence

Licence Creative Commons
Ce(tte) œuvre est mise à disposition selon les termes de la Licence Creative Commons Attribution 3.0 France.