Archive for the 'Guest stars' Category

RA21 : que va mon EZproxy devenir ?

Cette fois c’est Nicolas Doux, responsable de la BU Médecine-Pharmacie de l’Université de Poitiers, qui a bien voulu répondre à mon invitation, et nous fait un point sur le futur système d’authentification pour l’accès aux ressources électroniques soutenu par les éditeurs, RA21. Merci à lui de nous aider à y voir plus clair !

Longleat-maze

Les bibliothèques universitaires ont développé une offre de documentation électronique de plus en plus étendue et diversifiée. Nos usagers attendent de cette offre un accès rapide et simple qui n’est plus limité par un lieu et ses horaires d’ouverture, ni par le matériel ou la connexion internet utilisée. Shibboleth, OpenAthens, EZproxy… les bibliothèques utilisent différents protocoles pour donner accès à leurs ressources électroniques. RA21 (Ressources Access for 21st Century) se propose de les remplacer. Ca ne concerne pas seulement les revues électroniques mais aussi les eBooks, les bases de données et plus largement toutes les ressources électroniques.

RA21 est une initiative conjointe portée par :

  • STM (Scientific, Technical and Medical Publishers) l’association internationale des éditeurs scientifiques et techniques
  • NISO (National Information Standards Organization) basée aux Etats Unis

Plusieurs éditeurs participent au projet, et non des moindres : Elsevier, Springer Nature, Wiley, ACS, IEEE, Wolters Kluwer, Taylor and Francis. On y trouve également de nombreux prestataires des bibliothèques : Proquest[1], OCLC, Ebsco, OpenAthens, LibLynx. Ainsi que de nombreux établissement universitaires : University of Rotterdam, Bath Spa University, University of Illinois, Carnegie Mellon University, University of Bath, Coastal Carolina University.


[1] Ex Libris est une filiale de Proquest.

Qu’est-ce que RA21 aurait de mieux que mon EZproxy ?

Selon Todd Carpenter, directeur exécutif du NISO, le système actuel est devenu insuffisant dans le contexte du développement des accès à l’internet par les matériels mobiles comme les smartphones. Dès qu’un utilisateur quitte le réseau de son université, par exemple pour passer en 4G sur son portable, les plateformes d’éditeurs ne pourraient plus identifier les droits d’accès. L’utilisateur peut trouver une référence dans de nombreux environnements numériques qui ne feraient pas le lien avec les accès que lui confèrent l’établissement abonné auquel il est appartient. Todd Carpenter insiste sur les limites des accès distants mis en place dans les établissements avec des des logiciels de type reversed proxy, comme EZproxy. En clair, hors du réseau universitaire, Google Scholar, Pubmed, une boîte mail, etc… mettraient l’usager dans un cul de sac pour localiser l’accès au texte intégral. Todd Carpenter souligne que dans ce cas c’est la bibliothèque qui ne remplit pas sa mission.

Nicolas Morin voit en RA21 une solution à la dispersion géographique de l’université française et à la complexité de ses réseaux informatiques : « à Paris par exemple ou pour les chercheurs qui se déplacent beaucoup ou n’ont pas de bureau sur le Campus. (…) Les universités, grandes écoles, qui divorcent, fusionnent, s’allient dans des COMUE, des établissements publics, le CNRS partout, les licences nationales, les contrats communs avec les hôpitaux, etc. Dans ce contexte, il est quasiment impossible (…) de gérer correctement les accès auxquels elle a droit sur la seule base des adresses IP ».

Le projet RA21 ajoute ensuite : « another big concern for the librarian community is that users who are unable to access content via their institutions’ systems often turn to other channels instead. ». Cette assertion évoque le monstre dans le placard, ces « autres canaux », Sci-Hub et LibGen pour ne pas les nommer, avec lesquels ont été illégalement copiées 78%[1] des publications sur les serveurs des éditeurs scientifiques, pour ensuite les diffuser illégalement. Éditeurs scientifiques dont STM défend les légitimes intérêts. Rappelons que, malgré un accès légal aux ressources – hors campus ou sur le campus – certains utilisateurs préfèrent utiliser Sci-Hub pour accéder aux documents plutôt que les abonnements de leurs institutions. Academia et ResearchGate sont aussi visés par la documentation du projet.

Un dernier argument est avancé en faveur de RA21 : il mettrait tous les établissements à égalité, certains n’ayant pas eu le soutien politique ou les moyens de déployer leurs plateformes de service. Et pour ceux l’ayant fait, ce serait l’occasion de faire des économies d’échelle, si ce n’est en coûts directs au moins en déchargeant les services informatiques de la gestion des applications déployées localement, comme EZproxy.

billet1

[1] Substantiellement plus pour les éditeurs participants à RA21 : Elsevier 96.9% ; Springer Nature 89.7% ; Wiley-Blackwell 94.7% ; Taylor & Francis 92.6% ; Wolters Kluwer 79.4% ; American Chemical Society 98.8%.

Au fait, comment fonctionne EZproxy ?

Avec le système actuel, l’éditeur ouvre la consultation à ses collections en se basant sur la reconnaissance de l’IP du réseau d’un abonné. Une adresse IP est un numéro d’identification qui est attribué de façon permanente ou provisoire à chaque périphérique relié à un réseau informatique qui utilise l’Internet Protocol ; enregistrées et routables sur Internet, les IP sont publiques.

En complément, la bibliothèque donne l’accès à ses ressources à l’extérieur de son réseau avec un VPN, en identifiant ces usagers à partir d’une base de données personnelles, un LDAP (Lightweight Directory Access Protocol). Les bibliothèques ont pour la plupart déployé EZproxy, un serveur mandataire qui sert d’intermédiaire entre l’usager et un fournisseur de ressources numériques. Ces établissements gèrent l’identification de l’usager à partir de leur CAS (Central Authentication Service) qui utilise les données du LDAP. Nicolas Morin rappelle qu’en France, la situation est caractérisée par un déploiement extensif de ce système, de préférence aux autre solutions, comme Shibboleth par exemple. Nicolas Morin recommande aux bibliothèques un effort supplémentaire en travaillant avec les partenaires internes (juridiques, techniques) de l’institution pour bien délimiter ces transferts d’information à ce qui est nécessaire et juste ce qui est nécessaire.

Le problème avec cette méthode c’est qu’on ne peut pas utiliser l’URL normale de l’éditeur comme, au hasard, « https://www.sciencedirect.com ». Il faut y intégrer un élément qui renvoie au proxy de l’établissement abonné, comme « https://www-sciencedirect-com.ressources.univ-poitiers.fr/ ». Convenons que c’est contre-intuitif pour un usager lambda, obligé de passer sur le site de son établissement pour récupérer les URL « proxyfiées » de ses abonnements. Selon le contexte, la proportion d’accès hors campus peut devenir très importante.

Dans cette configuration, l’éditeur ne collecte pas toutes les informations : « to the vendor of the electronic resource, the patron appears to be on campus rather than at a remote location. » L’établissement abonné contrôle à la fois l’identité des utilisateurs, l’identification et les données d’utilisation, puisque les applications sont installées sur ses serveurs. Jusqu’à présent, si l’éditeur fournissait des statistiques d’utilisation de ses collections, il ne pouvait les croiser avec les données personnelles d’utilisateurs, tout au plus un statut (étudiants, enseignant-chercheur, lecteur extérieur…).

Et comment fonctionne RA21 ?

Avec RA21, STM et NISO veulent donc proposer une façon simple, sécurisée et universelle d’identifier l’accès (légal) à la documentation électronique. Elle serait commune à toutes les institutions abonnées.

RA21 est conçu comme une un système d’identification fédéré basé sur SAML (Security assertion markup language), un standard informatique définissant un protocole pour échanger des informations liées à la sécurité. Jusque-là rien de révolutionnaire, car Shibboleth et OpenAthens ont déjà construit leur infrastructure sur SAML. Moins conçu pour identifier les différents accès à un document (open access ou paywalled), RA21 est construit pour échanger des informations liées à la sécurité, essentiellement un identifiant personnel et un indicateur d’affiliation à un établissement autorisé. « Essentially SAML is a structure for describing how information is exchanged about the rights that allow someone to access something. » In fine, le protocole sert à vérifier les droits d’accès donc à protéger les éditeurs contre les accès illégaux, ceux qui n’ont pas fait l’objet d’une licence négociée et rémunérée par les établissements d’enseignement supérieur et de recherche.

RA21 a lancé plusieurs programmes pilotes dont deux destinés aux établissements d’enseignement supérieur :

  • Privacy Preserving Persistent WAYF (P3W) basé sur SAML, c’est-à-dire l’application qui contrôle l’identité des utilisateurs ;
  • WAYF Cloud, une plateforme pour faciliter l’échanges des données d’identification entre portails d’éditeurs, que vous pouvez tester en ligne ; lesquelles données sont, dans la configuration actuelle, générées et stockées localement par le LDAP de l’établissement.

Tel que l’analyse Aaron Tay, en plus des identifiants personnels, RA21 enregistrera dès la première connexion le deviceID… l’identifiant du matériel sur lequel l’utilisateur accède aux plateformes de l’éditeurs : PC, portable, tablette, smartphone… A sa première connexion, il sera demandé à l’utilisateur de choisir son établissement avant de saisir identifiant et mot de passe, comme avec Shibboleth ou OpenAthens. Dès la connexion suivante, RA21 gardera en mémoire l’association entre l’identifiant de l’utilisateur et celui de sa (ses) machine(s) pour offrir une identification plus rapide qui se passera de la déclaration de son établissement.

La différence paraît ténue avec Shibboleth et OpenAthens. A la deuxième connexion avec un appareil, la différence évidente pour l’usager serait la disparition du choix de son établissement. Nicolas Morin décrit l’utilisation d’un cookie qui s’installerait dans le navigateur, pour garder en mémoire les établissements dont l’utilisateur aura utilisé les abonnements.

Dans cette configuration, ce sera RA21 qui non seulement gérera l’identité des utilisateurs mais en plus, autorisera – ou non – l’accès. De cette manière, toutes les données d’activité transiteront par leurs applications, P3W et WAYF Cloud. Un éditeur aurait donc un accès complet à l’activité de ses abonnés : le moment, le lieu, des éléments de profils… ? Pourrait-il les relier aux historiques de consultation de ses collections numériques ou de tous autres services ? Le comité d’organisation du RA21 affirme que toutes les garanties seront mises en place dans les configurations du service : non seulement les éditeurs n’auraient pas d’intérêt commercial à le faire (sic), mais le protocole SAML anonymiserait chaque usager avec un pseudonyme. Néanmoins, NISO reconnaît explicitement que RA21 procurera aux éditeurs des avantages pour l’accès aux données générées par les utilisateurs via l’approche de la connexion unique. Au final, RA21 renvoie à l’établissement abonné la responsabilité de protéger la confidentialité des identités et plus largement de gérer cet aspect auprès de ses publics. Ce sera donc aux bibliothèques de choisir quelle informations seront exportées du LDAP vers WAYF Cloud, évitant les données trop personnelles mais devant fournir celles qui permettront à P3W/SAML d’identifier l’établissement et, par voie de conséquence, ses droits d’accès. La conformité du RA21 au RGPD européen mériterait une analyse approfondie. Des voix se sont élevées dans notre communauté professionnelle pour avertir qu’un problème de sécurité pour les éditeurs pourrait devenir un problème de données personnelles pour nos publics, en privant les utilisateurs de tout contrôle.

Et en quoi RA21 va-t-il modifier le fonctionnement de ma bibliothèque ?

RA21 a explicitement confirmé que son objectif est bien d’abandonner les accès basés sur l’IP. Le déploiement de RA21 réécrira les serveurs proxy des éditeurs et de différents prestataires (Proquest, OCLC, Ebsco) pour les transformer en SAML bridges : au lieu de diriger une requête d’accès directement à l’éditeur, le protocole redirigera la requête vers les serveurs de P3W (Privacy Preserving Persistent WAYF) qui utiliseront une URL WAYFless pour accéder au document. Les URL WAYFless  remplaceront les URL proxyfiées. Jusqu’à maintenant, c’est l’établissement abonné qui gérait cette URL avec des applications locales ; avec EZpaarse, il collectait une base de logs constituant l’historique des consultations. Ces logs permettent de produire des statistiques d’utilisation affinées par profils d’usagers anonymisés. Pour la même finalité, le projet RA21 propose un service Granular Usage Statistics à ses clients. Lors d’un webinaire UKSG, Lisa Hinchliffe interpellait les participants sur la manière dont RA21 traiterait les walk-in users (visiteurs non-inscrits en bibliothèque) pour l’accès aux ressources électroniques dans les locaux de la bibliothèque, car ils ne peuvent généralement pas s’authentifier avec des systèmes locaux. Il faudra également s’interroger sur les lecteurs extérieurs (ni étudiants, ni personnels de l’université mais inscrits en BU). Pour l’instant on ne sait pas si RA21 pourra gérer des accès restreints aux locaux de l’université – comme les licences d’éditeurs l’autorisent généralement pour les walk-in users et les lecteurs extérieurs – ni comment on générera leur compte.

RA21 est un protocole qui n’a été conçu que pour gérer les droits d’accès à la documentation électronique. Il n’intègre aucune des autres fonctionnalités avec lesquelles les bibliothèques pourront exercer toute la diversité de leurs missions. De prime abord, RA21 a donc une fonction unique et identique à la fonction de base d’outils de services courants : résolveurs de liens, extensions Browker Browser autrement appelés Access Brokers (Lean Library, Kopernio, Anywhere Access, Libkey Nomad, CASA Campus Activated Subscriber Access). Comparé à eux, RA21 a un avantage : si une installation locale est nécessaire avec nos outils actuels – dans le navigateur avec un « browker browser » ou dans chaque application avec un résolveur – RA21 s’en dispense. Cependant, dans un résolveur comme dans un browker browser, la bibliothèque peut implémenter d’autres services. Le résolveur peut, par exemple, à partir d’une référence de document, renvoyer vers les collections imprimées, le prêt entre bibliothèques, un accès green open access, des libguides, la médiation d’un bibliothécaire/documentaliste… ce que Lisa Hinchliffe appelle l’implémentation d’une assistance contextuelle et adaptative. Avec la mise en production de RA21, elle redoute une régression des bibliothèques, là où nous avons axé nos efforts depuis plusieurs années : le user-centered discovery and delivery. Elle rappelle aussi, si c’était nécessaire, combien pour nos usagers l’activité en ligne reste encore liée à une activité IRL en investissant les espaces physiques et dans l’interaction avec ses pairs et les professionnels de la documentation. RA21 a le potentiel pour réduire notablement le champs d’action des bibliothèques, peut-être même est-il construit sur une conception très restrictive de nos missions.

On doit aussi se demander quel sera le périmètre des contenus pour lesquels RA21 gérera les accès. Lisa Hinchliffe rappelle, si c’était nécessaire, que la bibliothèque a vocation à donner accès à tous les contenus, qu’ils soient propriétaires ou sous des licences ouvertes. Dans nos établissements, de nombreuses collections numériques manquent déjà de métadonnées adéquates pour une découvrabilité optimale : bibliothèques numériques, dépôts institutionnels, données de la recherche, presses locales… C’est une question stratégique que ces ressources soient intégrées à tous les services de découvertes, RA21 inclus. Le plan S européen, le plan français pour la science ouverte, veulent rendre obligatoire l’accès ouvert pour les publications et pour les données issues de recherches financées sur projets, en déposant les documents sur des plateformes publiques ; BASE – Bielefeld Academic Search Engine – en recense 7000 dans le monde. RA21 propose une réponse à cette préoccupation et elle mérite qu’on s’y attarde. Son système d’accès fédéré lui paraît pertinent à deux titres pour le green open access :

  • P3W et WAYF Cloud pourrait être implémentés sur les plateformes pour gérer les droits d’accès, en améliorant la sécurité et la fiabilité des systèmes locaux ;
  • Ils fourniraient aussi des outils de mesure des usages car les bibliothèques n’auraient plus ? aucun moyen de les mesurer (sic). 

Il fallait effectivement s’attarder sur ces propositions et l’appréciation qu’elles ont de nos services. Leur mise en œuvre rendrait nos ressources en green open access techniquement dépendante du RA21 ; on pourrait se demander si leurs données d’utilisation seraient partagées avec d’autres acteurs, comme les éditeurs.

Roger C. Schonfeld[2] expose néanmoins d’autres possibilité d’intégration, au niveau du service rendu à l’utilisateur. Si une plateforme fournit l’accès à la version preprint d’un article, RA21 pourrait être paramétré pour permettre à certains utilisateurs qui n’ont pas accès à la version éditeur – et donc payante – de se voir proposer l’accès à une version alternative gratuite, comme le preprint. Il cite en exemple les efforts d’Elsevier pour connecter ses plateformes avec les dépôts institutionnels. Il reconnaît néanmoins que cela pourrait permettre aux éditeurs de réduire la visibilité de cette offre alternative, bien qu’aucune partie ne l’ai jamais explicitement exprimé.

Outre l’implémentation des ressources open access des bibliothèques, la question se pose de savoir quels éditeurs se déploieront sous le protocole RA21. Sans trop s’avancer, ce sera le cas des éditeurs à l’initiative du projet : Elsevier, Springer Nature, Wiley, ACS, IEEE, Wolters Kluwer, Taylor and Francis. Dans un marché oligopolistique, ces éditeurs ont une position dominante en diffusant la moitié des publications scientifiques. Cependant, JournalSeek, la base de données anglophone de journaux académiques et scientifiques, référence 39226 journaux publiés par 6617 éditeurs à ce jour. Lisa Hinchliffe craint que les plus petits éditeurs n’aient pas les moyens – humains, techniques financiers – d’adapter leurs plateformes à RA21. Ils pourraient être tentés de passer des contrats avec de plus gros acteurs pour qu’ils diffusent leurs contenus ou a minima passer des accords techniques qui mettraient les uns dans la dépendance de quelques autres. Cela ne ferait qu’accentuer la concentration du secteur de l’édition scientifique. Il n’est d’ailleurs pas exclu que l’on passe par une phase hybride, avec des accès alternativement proxyfiés ou par URL WAYFless, dans une période de transition plus ou moins longue, à moins qu’elle ne se pérennise. La question est d’autant plus sensible que RA21 est et restera une application propriétaire. Quand il est demandé si le code de ses applications sera diffusé en open source, RA21 répond qu’il ne veut pas exclure les fournisseurs de gestionnaires d’accès (Proquest, OCLC, Ebsco, OpenAthens, LibLynx) participant au projet, la plupart d’entre eux « gagnant leur vie » en commercialisant des outils et des solutions. RA21 sera donc bien une solution propriétaire que des fournisseurs du marché intégreront à leurs offres de service commerciales. A ce stade, il n’est pas inintéressant de se demander comment est financé le développement du standard et des applications de RA21. Le site officiel est muet sur le sujet. On ne trouve un élément de réponse que dans une seule source, le support d’un webinaire de l’UKSG : « Initial funding (is) provided by participating publishers. » Comme le dit l’adage, « celui qui paie les violons choisit la musique ». Pour les bibliothèques qui cherchent à maximiser les consultations de leurs abonnements, RA21 est une bonne nouvelle. Par contre, les perspectives sont plus incertaines pour celles cherchant à maîtriser leurs abonnements et à consolider des positions dans les négociations tarifaires avec les éditeurs.

Il est temps d’ouvrir le placard pour découvrir le sort que réserve RA21 aux monstres troublant les nuits des éditeurs. La documentation officielle du projet répète à l’envi que les serveurs proxy sont le maillon faible dans la chaîne de sécurité avec laquelle on protège les ayants-droits des publications scientifiques. Sci-Hub et LibGen copient illégalement les publications sur les sites des éditeurs puis stockent les fichiers pour y donner accès gratuitement, à toute la communauté. Pour accéder aux fichiers, Sci-Hub utilise les éléments d’identification des usagers d’un établissement abonné, en passant par les serveurs proxy de l’établissement abonné. RA21 substitue un nouveau protocole d’accès à celui que détourne Sci-Hub, en éliminant les adresses IP qui par nature sont visibles et frauduleusement reproductibles. Jill O’Neill, directrice des contenus chez NISO, rappelle que les établissements ont été « courtoisement » avertis qu’il est de leur responsabilité de ce que des brèches de sécurité ne résultent pas de compte utilisateurs « compromis » si cela doit porter atteinte aux intérêts des éditeurs ou autres fournisseurs de contenus. En effet, il ne reste dans RA21 qu’un maillon de la chaîne, l’identifiant de l’usager, sur lequel vont se focaliser les efforts de sécurisation. Avec la plateforme unique W3F, les éditeurs auraient accès, même sans données personnelles, à une vision globale des flux, grâce à laquelle ils pourraient identifier les flux suspects pour les relier aux établissements qui auront fourni les identifiants personnels. RA21 affirme avoir l’avantage d’améliorer la capacité des bibliothèques à formuler des protocoles de sécurité plus précis et sécurisés pour empêcher les accès frauduleux. Les éditeurs pourront signaler à un établissement si ces comptes présentent des indices d’usages frauduleux, le rappelant à ses engagements contractuels. Lisa Hinchliffe craint que les bibliothèques ne soient obligées de consacrer de plus en plus de temps de leur personnel à la formation et au dépannage des comptes basés sur l’identité. Dans la nouvelle chaîne de l’information scientifique, les établissements universitaires auraient pour fonction de veiller à la fiabilité des LDAP, ses bases de comptes personnels, probablement avec les moyens économisés sur l’administration et la maintenance d’un EZproxy. Avec RA21, les plus grands éditeurs scientifiques espèrent donc couper les vivres aux intermédiaires qui piratent leurs catalogues. RA21 est un Sci-Hub killer. Peut-être est-ce sa fonction principale et au diable toutes les conséquences sur les établissements abonnés. Dans toute guerre, même commerciale, il faut des dommages collatéraux pour que le tableau soit complet.


[2] Responsable des projets liés aux bibliothèques d’Ithaka S+R, une organisation à but non lucratif ayant pour objectif d’aider la communauté universitaire à utiliser les technologies numériques.

En conclusion

RA21 annonce une révolution qui faciliterait l’expérience des usagers mais au final, la technologie utilisée n’est pas fondamentalement innovante. Elle réutilise SAML, un protocole de sécurité déjà intégré aux solutions préexistantes : Shibboleth, OpenAthens. Le fonctionnement et les interfaces devraient être très similaires. Par contre elle substitue à ces solutions consortiales, développées par les universités, une plateforme centralisée sur un modèle de technologie propriétaire. Le contrôle des accès échappera en grande partie aux abonnés, réduisant leurs compétences à la gestion des bases d’identifiants de leurs usagers, sous contrôle des éditeurs. Les bibliothèques peuvent se demander comment vont s’intégrer tous leurs services dans cette nouvelle chaîne de diffusion de l’IST. Les principaux prestataires d’outils de découvertes participant au projet, il serait logique qu’ils intègrent cette nouvelle technologie aux outils de découvertes, résolveurs de liens… voir même aux SGBM qui remplacent nos SIGB. Outre les changements induits dans nos services aux usagers, cela pose la question de la charge des coûts. Dans quelle mesure seraient-ils reportés sur les tarifs d’abonnements que nous supportons comme des charges récurrentes ? Le développement de RA21 mérite toute l’attention des acteurs de la vie universitaire et de leurs tutelles. En Amérique du Nord, l’Association of Research Libraries (ARL) a déjà pris position contre le projet, jugé trop déséquilibré en faveur des éditeurs.

De toute façon RA21 paraît déjà dépassé alors qu’un consortium d’éditeurs développe une autre solution, Get Full Text Research (GetFTR). Son développement sera piloté par un consortium d’éditeurs sans leur syndicat, ni le Niso ou  les intermédiaires de service (ExLibris, OCLC, Ebsco…). GetFTR a les mêmes objectifs que RA21 et entend dépasser les limites qu’il prête à ce dernier. Les éditeurs visent-ils à contrôler toute la chaîne de diffusion de leurs publications et l’ensemble de son environnement numérique ?

Qu’est-ce que le KM ? (1)

Un billet en 2 parties, pour enfin comprendre ce qui se cache derrière le terme mystérieux de « knowledge management », par Julien Sempéré (@jusempere), chef de projet Learning Centre de l’Université Paris-Saclay, et accessoirement secrétaire du comité permanent sur le KM de l’IFLA. Merci Julien d’avoir honoré cette commande !

martin-adams-S3D_6eTWRyA-unsplashEcrire un billet dans un blog populaire pour expliciter une méthode, voilà une vraie démarche de Knowledge Management (KM), ou gestion des connaissances (GC). En effet, pour qu’un groupe, un service ou une institution développe ses connaissances, encore faut-il persuader du bien-fondé de la démarche. Ce billet ne prétend pas présenter le KM des origines à nos jours, mais expliquer pourquoi cette approche est à encourager dans le contexte actuel de forte transformation de l’enseignement supérieur et de la recherche. Réel remède à tous nos maux de « gestion du changement » et de « mutualisation », ou simple placebo, avoir un esprit façonné au KM ne peut, dans tous les cas, pas faire de mal.

Le KM : pourquoi les bibliothécaires ?

Théorisé et mis en pratique dans l’industrie en particulier au Japon (Nonaka et Takeuchi), la GC consiste à développer une culture au sein de toute organisation pour gérer la connaissance qu’elle détient, sa transmission et sa transformation. Le KM part du constat que toute organisation possède un capital de connaissances en particulier non écrites ou tacites. Chaque personne au sein de l’organisation détient une part de ce capital et, si rien n’est fait pour capter ce capital, c’est un risque pour l’organisation de perte de culture et de savoir-faire entraînant un risque économique. A titre d’exemple, comment capter la connaissance d’un créateur de mode au sein d’une maison de haute-couture ? Si son départ est une perte irréparable, cependant, ses dessins, ses créations et ses disciples sont autant de manières de transmettre sa connaissance.

Au début des années 2000, cette gestion des connaissances s’est traduite par le développement de services ou postes de knowledge manager au sein des entreprises et a été récemment intégrée à une norme ISO 9001-2015. Théorisée de manières différentes, y compris en français (Prax), elle insiste sur des dynamiques identiques importantes :

  • Comment l’individu transfère sa connaissance personnelle à d’autres personnes qui travaillent à son contact ?
  • Comment un groupe transmet à son tour sa connaissance à d’autres groupes au sein de l’organisation ou en dehors de celle-ci ?
  • Comme l’individu acquiert de nouvelles connaissances d’autres groupes ou individus afin d’être en capacité d’innover ?

Dans le même temps, les bibliothèques se sont intéressées au KM. En effet, les bibliothèques de banques centrales en ont utilisé les méthodes au titre de la transparency, la capacité à gérer la validité et la confidentialité d’une information qui doit être consolidée, validée et diffusée de manière très ciblée au sein d’une institution. Plus généralement, les bibliothèques y ont pris part du fait de leur capacité à indexer, classer et mettre à disposition de la connaissance. C’est ainsi qu’au début des années 2000, un special interest group en KM s’est développé au sein de l’IFLA donnant naissance à une section Konwledge Management en 2011. Ce groupe était dès l’origine constitué de collègues issus de cabinets de conseil, de bibliothèques universitaires, d’institutions centrales (parlements, banques centrales, agence pour l’environnement) du fait des origines mêmes de la discipline. Cette diversité a ouvert ses travaux sur des champs assez divers : compréhension des attentes des publics, transformation de la connaissance, accompagnement du changement, validité de la connaissance, etc.

Ainsi, les travaux se sont intéressés à la transmission de la connaissance en interne, au sein de la bibliothèque ou le rôle qu’elle peut tenir au sein de son institution pour instaurer une culture du KM. Ils se sont également penchés sur la capacité des bibliothèques à échanger de la connaissance vers et depuis les publics. La littérature sur le sujet est essentiellement disponible en langue anglaise bien que le fait de professionnels issus de toutes les aires géographiques. L’ensemble des cas d’usages peut se retrouver librement sur la bibliothèque de l’IFLA : http://library.ifla.org.

Jean-Yves Prax. Le guide du Knowledge Management. Concepts et pratiques du management de la connaissance. Paris, Dunod, 2002.

Ikujiro Nonaka, Hirotaka Takeuch. La connaissance créatrice : la dynamique de l’entreprise apprenante. Bruxelles, De Boeck, 1997.

[Photo by Martin Adams on Unsplash]

Vous prendrez bien un petit Barcamp avant de passer à la conférence ?

Marlene’s corner poursuit les collaborations en accueillant un nouvel invité : Romain Féret, chargé de mission Open Access et données de la recherche au SCD de l’université de Lille, qui a bien voulu nous raconter son expérience du Barcamp berlinois organisé en marge de l’Open science conference 2019. Merci à lui.

Je suis allé à la conférence Science Ouverte de Berlin mi-mars pour y présenter un poster sur la démarche d’accompagnement de projets ANR et H2020 mise en place au SCD de l’Université de Lille (voir le poster). La conférence était précédée par un barcamp le lundi : petit retour sur ce qui s’y est dit.

Le Barcamp, c’est quoi ?

Pour les non-initiés, un Barcamp c’est un groupe de participants qui se retrouvent pour échanger sur des sujets choisis collectivement, en lien avec une thématique définie au préalable. Ensuite, on secoue et on voit ce qui se passe. Comme le principe de base est la participation, chacun est responsable de l’intérêt de la journée.

Le Barcamp déroulé et ambiance générale

Nous étions un peu plus de 70 participants à se retrouver dans les bureaux de Wikimedia Allemagne. On démarre la journée par une petite présentation brise-glace. Chacun se présente avec 3 hashtags qui lui correspondent et en profite pour donner son nom et son affiliation institutionnelle. Pour terminer la partie introductive, Claudia Göbel, de l’European citizen science association, fait une présentation sur les sciences participatives. Le Barcamp est divisé en 5 temps de 45 minutes, avec 4 sessions en parallèle, soit un total de 20 sessions. Celles et ceux qui le souhaitent proposent des thèmes, qui sont retenus ou non en fonction de l’intérêt des autres participants. La personne qui a proposé le thème anime les échanges. L’ambiance générale est à la fois studieuse et conviviale. Les échanges se font dans un cadre assez sécurisant. La Friendly space policy m’a semblé respectée. Par ailleurs, l’esprit est constructif : personne ne monopolise la parole, bonne écoute, esprit très horizontal même avec des participants qui ont parfois une certaine notoriété. Cela n’empêche pas un peu de controverse, mais c’est de bon aloi et dans l’esprit du jeu.

Petit compte-rendu des ateliers suivis

J’ai suivi 4 sessions au cours de la journée et j’en ai animé une. Voici un résumé de ce que j’ai retenu des sessions suivies. Il y a un compte-rendu pour chacune des sessions mais il est parfois (très) incomplet.

Participatory research challenges (lien pad)

Session animée par Claudia Göbel sur les sciences participatives. L’échange s’engage sur les freins à lever pour que les sciences participatives se développent. Une des difficultés du côté des chercheurs est que la dimension participative doit être pensée dès la conception de la recherche. Comme cela est rarement le cas, cet aspect de la recherche est souvent vu comme du travail supplémentaire en cours de recherche et la dimension participative n’existe, au mieux, qu’au moment de la dissémination des résultats. Certains participants posent aussi la question de l’indépendance des chercheurs vis-à-vis des communautés qu’ils étudient.

Du côté des participants, citoyens ou acteurs de la société civile, la différence de temporalités avec les chercheurs peut freiner leur engagement dans ce type de processus. Pour les chercheurs, la publication des résultats dans des articles de revues est souvent un préalable à d’autres formes de restitution, tandis que les citoyens et acteurs de la société civile ont des besoins de retour plus immédiats. Le manque de réciprocité de certains chercheurs vis-à-vis des participants à leurs recherches est souligné plusieurs fois. Par exemple, les participants ne sont pas toujours informés de la publication des résultats, ou ils n’ont pas accès aux publications.

Brainstorming on open science activities (lien pad)

Session animée par Helen Brinken (@helenebrinken), du projet Foster, pour échanger sur les activités de soutien à la recherche et la manière d’interagir avec les chercheurs. Parmi les idées : faire identifier un problème aux chercheurs puis les aider à le résoudre ; adopter d’abord une posture d’écoute avant de chercher à les convaincre ; engager les chercheurs dans une relation (« engagement process »). Les pratiques à éviter : dire aux chercheurs ce qu’ils doivent faire, faire des listes de listes, culpabiliser les personnes ayant des pratiques que l’on ne juge pas assez ouvertes.

L’échange s’est poursuivi avec un tour de salle sur les motivations qui ont poussé les uns et les autres à travailler ou à s’engager sur les questions de libre accès. Deux catégories de motivation se dégagent. D’un côté, pour les chercheurs présents cela a souvent démarré par des discussions avec des collègues et la prise de conscience du fonctionnement de l’écosystème éditorial et des inégalités de modalités d’accès à l’information scientifique. D’un autre côté, les personnes en charge de la documentation qui sont venues aux questions de science ouverte dans le cadre de leur parcours professionnel, avec des motivations souvent plus pratiques.

Open science as a library service (lien pad)

Session animée par Christina Riesenweber (@c_riesen) qui prendra prochainement la direction d’une bibliothèque dans laquelle elle aura pour mission de développer les services en lien avec les services à la recherche. Les échanges ont porté sur les services avec lesquels interagir dans une université, les compétences à acquérir pour les personnels de bibliothèque et sur différents exemples de bibliothèques « modèles » en matière de services à la recherche (Edimbourg, Utrecht, Helsinki).

Including open science in project management activities (lien pad)

La session que j’ai animée portait sur l’aide que les services de soutien à la recherche peuvent apporter aux chercheurs pour intégrer une dimension science ouverte à leur projet dès la phase de montage. Cela permet de s’assurer que ces activités soient prises en compte dans l’ensemble de la gestion du projet. Les échanges ont été intéressants, avec notamment le retour d’expérience d’Ivo Grigorov (@OAforClimate) qui est responsable du service de montage de projet de son institution et qui est engagé dans une démarche assez similaire à la nôtre dans le cadre d' »Open Science Clinique », porté au sein du projet Foster (voir le poster présenté à la conférence).

Le constat de départ est que la phase de soumission d’un projet de recherche est le meilleur moment pour mettre en place une démarche science ouverte. Il est par exemple préférable d’expliciter les modalités de partage des données entre les partenaires d’un projet dès son montage. Quand ce n’est pas le cas, cela peut être un sujet de conflit. Si la dimension science ouverte d’un projet est positivement évaluée par l’agence de financement, cela peut aussi être une incitation à la mettre en oeuvre en cours de projet. Yan Wang et Esther Plomp, toutes deux data stewards à Delft, ont commencé à travailler sur ce type de services depuis que les agences de financement néerlandaises ont inséré un paragraphe dédié à la gestion des données dans les trames des dossiers de demande de financement.

Researchers engagement in Open Science (lien pad)

Session animée par quatre des data stewards de l’Université technologique de Delft : Heather Andrews, Nicolas Dintzner, Esther Plomp (@PhDToothFAIRy) et Yan Wang (@yan_wang). La session a principalement porté sur la démarche d’accompagnement à la gestion des données mise en place à l’Université de Delft et la manière dont le travail des data stewards s’articule avec les autres services de la bibliothèque. 

Les data stewards sont répartis dans chacune des facultés de l’université. La bibliothèque coordonne le dispositif, financé par l’université. Les huit data stewards se réunissent une fois par semaine pour coordonner leur travail. Même si les défis rencontrés selon les disciplines ne sont pas les mêmes, cela leur permet de partager leur expertise sur les questions transversales. Les data stewards ne travaillent que sur les données de recherche, et renvoient vers leurs collègues de la bibliothèque sur les questions relevant des autres aspects de la science ouverte. La prise de conscience des enjeux autour des données de recherche par la communauté scientifique de l’Université de Delft entraîne un accroissement de la charge de travail des data stewards, qui ne sont pas assez nombreux pour accompagner l’ensemble des chercheurs. L’importance de travailler de manière coordonnée avec les autres services de l’université a aussi été soulignée.

De l’intérêt de suivre le Barcamp avant d’assister à la conférence

Au-delà de son intérêt intrinsèque, participer au Barcamp a été une bonne manière de préparer la conférence. C’est un moment privilégié pour identifier des interlocuteurs et échanger avec des personnes que l’on croisera au cours des deux jours suivants. C’est aussi l’opportunité de se mettre en position plus active, en particulier lorsqu’on va à un évènement où on connait très peu de collègues. Le Beercamp qui a suivi était aussi une bonne occasion de poursuivre les échanges.

Les plus du Barcamp

La prise de note collaborative, avec un référencement des pads des différentes sessions qui sont accessibles à partir du métapad. Les échanges ont été plus ou moins bien retranscrits mais c’est un bon outil pour garder une trace d’une session tout en s’impliquant pleinement dans les échanges. Par ailleurs, les collègues de Delft ont mis en ligne un article de blog qui rend compte de la quasi totalité des sessions proposées.

L’Open Science radio (@OpenSciRadio) : Konrad Förstner (@konradfoerstner) et Bernd Rupp ont interviewé l’ensemble des animateurs de session au fur et à mesure de l’avancement de la journée. Les podcasts ont été mis en ligne presque immédiatement et sont disponibles sur leur site web. Ils ont récidivé pendant la conférence les deux jours suivants, avec l’aide de Matthias Fromm (@matthiasfromm) et Christina Riesenweber au montage. Un format intéressant pour communiquer sur l’évènement et pour donner envie d’aller creuser le contenu des sessions à partir d’un média plus attrayant que les prises de note rédigées.

Charleston conference 2017 « What’s past is prologue »

Marlene’s corner ouvre ses colonnes à l’international : Marc Martinez (@tunguska69), directeur du SCD de Lyon 3, a gentiment accepté de nous faire un retour sur l’édition 2017 de la Charleston Conference, l’une des plus importantes manifestations professionnelles aux Etats-Unis.

flag_of_south_carolina

 

And you may ask yourself, well how did I get there? [1]

La 37e édition de la Charleston Conference – Issues in book and serial acquisition a eu lieu dans la capitale de la Caroline du Sud aux États-Unis du 8 au 10 novembre 2017 sous le mot d’ordre : What’s past is prologue. Sous ce titre énigmatique s’est déroulé un événement professionnel d’une richesse insoupçonnée de l’autre côté de l’Atlantique, organisé par Casalini libri, la revue Against the grain et la Charleston company  Il était dès lors tentant et intéressant d’aller voir in vivo comment se présentaient les tendances de fond pour les bibliothèques et leur écosystème outre-Atlantique.

Size matters

La première surprise est… de taille : celle de la conférence. Même compte tenu de la différence de taille des pays et d’effectifs des corps de professionnels des bibliothèques et de la documentation, je m’attendais à une conférence du volume de celle que tient LIBER annuellement, avec une jauge autour de 400 à 600 présents. Loin de là : 1 800 personnes au total étaient présentes sur les trois sites de la conférence dans downtown Charleston. L’Attendee roster, qui recense les participants, est un document d’une bonne centaine de pages à lui seul. C’est, pour donner un ordre de grandeur, plus de quatre fois le volume d’un congrès ADBU et on se rapproche, en termes de fréquentation, de la conférence mondiale de l’IFLA[2]. C’est grand, c’est XXL même et on est un peu perdu au début dans le dédale d’interventions simultanées, d’événements périphériques et associés, de lieux divers dans la ville mais on finit par s’y retrouver : l’organisation est sans failles et l’accueil (bénévole en grande partie) efficace et souriant, toujours prêt à sortir d’embarras le collègue français peu au fait de l’environnement local.

We’re in this together [3]

La seconde différence d’importance est plus discrète à se manifester mais n’en est pas moins frappante et colore l’ambiance et les débats de la conférence. Sur les 1790 participants, 934 seulement sont bibliothécaires ou professionnels de la documentation ; les 856 autres sont des fournisseurs, qui représentent donc près de la moitié du public (47,8%). Je dis bien qu’ils font partie du public, car ici pas de dichotomie marquée bibliothécaires / fournisseurs, ni de stands bien alignés permettant de séparer secteurs public et marchand : la conférence s’adresse autant aux fournisseurs qu’aux collègues. Des fournisseurs au demeurant très variés : à côté des bataillons serrés envoyés par les Elsevier, Springer, Sage et autres Gale, les sociétés savantes, les éditeurs, les fabricants de matériel et développeurs de logiciels se pressent dans les allées, les salles et autour des buffets et cafetières.

Peu ou pas de stands donc et peu de démonstrations de produits ou services, si ce n’est quelques déjeuners stratégiques organisés par les grands groupes à destination d’un public choisi de décideurs de l’IST nord-américain. La conférence est l’occasion pour ces deux publics que nous avons l’habitude en France de considérer assez strictement disparates de se mêler de manière informelle et aisée.

Même savant mélange à la tribune où bibliothécaires, universitaires et acteurs privés cohabitent souvent sans inconvénient visible.

How to disappear completely [4]

Parmi les bibliothécaires, douze pays étaient représentés par 63 collègues, en périphérie de l’écrasante majorité de participants US. La répartition géographique fait une place prépondérante au voisin canadien et relègue les participants du reste du monde (y compris européens) au statut d’épiphénomène statistique (moins de 30 personnes).

Parmi les locaux de l’étape, on retrouve évidemment les grandes bibliothèques universitaires du pays mais aussi une bonne partie du réseau de collègues travaillant dans des colleges de plus petite taille et renommée, voire des documentalistes travaillant dans certaines grosses high schools (l’équivalent approximatif de nos lycées) – une représentation professionnelle plus large donc que celle fréquentant ce type de manifestation sous nos latitudes.

To the point

Durant les trois journées de la conférence, les interventions, tables rondes et débats ont roulé sur des sujets subtilement différents de ceux auxquels on est exposé en Europe. Dédiée à l’origine aux problématiques d’acquisition et de gestion des collections d’ouvrages et de revues, aujourd’hui étendues au management stratégique des collections et ressources, la Charleston conference a vu ses thèmes évoluer vers des préoccupations plus larges : l’évolution des bibliothèques universitaires et de recherche  au 21e siècle ; les technologies de l’édition scientifique ; les questions d’éthique des publications ; le rôle croissant de l’intelligence artificielle dans les écosystèmes documentaires font partie des sujets abordés lors de cette édition. Les questions de ressources humaines et financières sont présentes mais à un degré moindre qu’en France, du fait d’un système de recrutement et d’un cadre d’emploi reposant sur des principes sensiblement différents et d’une situation financière globalement plus favorable – même si les problématiques de contrôle des coûts de la documentation électronique sont aussi réelles qu’en Europe.

Quand l’open access et les différentes facettes de la science ouverte constituent de plus en plus la trame de fond des conférences professionnelles généralistes françaises ou européennes, le programme de la Charleston conference met en valeur les  : d’un côté Elsevier / Bepress intervenant deux fois (une pour désamorcer les craintes nées du rachat de Bepress par Elsevier l’été précédent, la seconde en duo avec une bibliothécaire de l’Illinois pour vanter l’intégration de Bepress sur le site web de l’université) ; à l’autre extrémité de l’échelle de taille d’entreprises, les présentations de sociétés comme Yewno ou Atypon, là encore de concert avec universitaires et bibliothécaires.

Une place particulière est accordée aux questions juridiques, qu’il s’agisse de copyright, du régime de propriété des données ou des conditions juridiques dans lesquelles les bibliothèques nord-américaines rendent leurs services à leurs usagers. Une session plénière en matinée, intitulée The long arm of the law y est consacrée, avec entre autres un compendium des litiges et affaires intéressant les bibliothèques portés devant les tribunaux. Une enseignante de droit et un avocat spécialiste de la propriété intellectuelle animent la matinée, modérée par une collègue du Center for research libraries. L’intervention (chantée par moments !) de l’avocat William Hannay sinon le moment-clef. En dehors des remises de prix et des ouvertures ou clôtures de sessions, la conférence ne compte que six interventions en formation plénière, parfois de durée réduite. Le véritable show monté par Bill Hannay a été l’intervention la plus suivie, celle qui a entraîné les réactions les plus vives de la salle et a produit en bouquet final un chœur improvisé (et souvent faux on doit l’avouer) de presque 500 bibliothécaires chantant – sous la houlette d’un avocat d’affaires – les aventures d’un fichier musical numérique sous DRM !

Famous last words

Au total, un éclairage partiel, plus un instantané qu’un panorama, sur les tendances professionnelles et l’évolution de nos structures et métiers telles que les voient les collègues nord-américains et leurs fournisseurs et partenaires privés. Il paraîtrait utile que la Charleston conference figure de manière plus visible dans les agendas des collègues impliqués dans les actions et la veille internationales : c’est à mon sens, pour les bibliothèques universitaires et de recherche au moins, un des endroits où prendre le pouls de nos métiers et où sont délinéés  leurs devenirs.

[1] Motto d’une des présentations

[2] Pour référence, la fréquentation des dernières conférences mondiales IFLA a été : 2017 (Wroclaw, Pologne) : 3000 ; 2016 (Columbus, États-Unis) : 3200 ; 2015 (Cape Town, Afrique du Sud) : 2100 ; 2014 (Lyon, France) : 2600 ; 2013 Singapour : 2100.

[3] We’re in this together – NIN

[4] How to disappear completely – Radiohead

Libguides, pourquoi s’en passer ?

Marlene’s corner accueille aujourd’hui un contributeur de choix en la personne de Julien Sicot (@jsicot), IGE au SCD de Rennes 2. Il nous présente Libguides, une solution hébergée de création de guides thématiques, qui nous montre que non, la bibliothèque numérique ne se résume pas à fournir à l’usager d’insipides listes de signets, et que oui, nous disposons désormais de véritables outils d’aide à la médiation numérique, en somme.

À la frontière entre Content Management System (ex : WordPress) et Learning Management System (ex : Moodle), Libguides est une application full web développée par la société SpringShare, spécifiquement pour les bibliothèques académiques, afin de concevoir et diffuser en ligne des guides thématiques en direction de leur public. Ce produit dispose d’une large communauté d’utilisateurs : près de 1200 bibliothèques (parmi lesquelles Cornell University Libraries, et MIT Libraries), réparties dans 25 pays, pour un total de 18 000 contributeurs et 82 000 guides publiés. Basée sur un système d’abonnement annuel, cette solution « clés en mains » et peu onéreuse, propose de nombreuses options de personnalisation, permettant de l’intégrer au système d’information de l’établissement.

Libguides s’appuie sur un système d’édition décentralisé souple et flexible, qui facilite la mise à jour, le partage et la réutilisation des contenus. Il permet de fédérer un véritable réseau de rédacteurs, ce qui en fait une solution de choix pour des projets multi-établissements. L’outil dispose, en effet, d’une bonne gestion multi utilisateurs (plusieurs rôles peuvent être définis : administrateur, auteur, contributeur, etc.) et d’un workflow simple de publication (guide non publié, publié, privé, etc.). Le système d’édition est le véritable point fort : il s’avère convivial et intuitif et s’adapte parfaitement à des utilisateurs “occasionnels”. Il est basé sur un éditeur WYSIWYG associé à un système d’onglets et de boîtes à la Netvibes. L’actualisation des contenus est facilitée par deux modules : un vérificateur de liens morts et un bookmarklet (similaire à delicious) qui permet de poster, depuis son navigateur et à n’importe quel moment, du contenu dans un de ses guides.

Autre qualité, Libguides est construit comme une immense base de connaissances : chaque contenu, texte ou lien créé dans un guide est potentiellement réutilisable dans un autre ; il est ainsi possible de cloner tout ou partie d’un guide pour en créer ou en alimenter un nouveau. Ce dispositif peut s’étendre à l’ensemble des bibliothèques abonnées… Imaginez un peu le potentiel d’un tel outil si plusieurs établissements francophones souscrivaient à Libguides !

Libguides offre en outre une forte expérience utilisateur : les guides sont imbriqués et reliés les uns aux autres, permettant à l’usager une multitude de points d’accès aux ressources. Ainsi, il peut, dès la page d’accueil, accéder aux guides par liste alphabétique, par sujets, par nuage de tags, par questions/réponses, par rédacteur, par guides récents ou populaires, ou bien plus simplement taper sa requête dans le moteur de recherche dédié. De plus, à partir de chaque guide, il est possible de rebondir sur des guides connexes, des questions liées, un thème, un auteur, un tag. De nombreux services et diverses interactions sont également possibles au niveau des guides : s’abonner aux flux des dernières modifications, créer des alertes par courriel, laisser un commentaire, noter des ressources, soumettre des liens, répondre à un sondage…

Libguides tire également pleinement profit des potentialités offertes par le web 2.0 : RSS, tags, intégration de Delicious (partage de signets), dissémination des contenus grâce à l’intégration de Twitter (micro-blogging), ou à l’aide de widgets, imbrication de contenu multimédia (tutoriels animés de type screencast, vidéos Youtube ou présentations Slideshare), widgets de recherche (Google, Google Scholar, etc.). Il est également possible de renseigner les paramètres d’un reverse proxy afin de garantir un accès authentifié aux ressources électroniques.

D’autre part, LibGuides permet de créer des profils pour les rédacteurs/formateurs (photo, domaines de spécialisation, coordonnées, widget de chat, liens vers les guides créés) ce qui apporte une dimension plus  « humaine » au contenu, l’utilisateur pouvant facilement identifier des personnes ressources et les contacter par chat en cas de problème. Libguides peut également être couplé à un service de références en ligne de type questions/réponses appelé LibAnswers, ce dernier offrant des fonctionnalités similaires à QuestionPoint d’OCLC.

Pour finir, Libguides est la solution qui a été adoptée – à la suite de la réalisation d’un comparatif des solutions existantes (Library à la Carte, SubjectsPlus et Libguides, donc) – dans le cadre du projet Form@doct, que je présenterai lors des journées Formist les 3 et 4 juin prochains à l’Enssib.


mai 2020
L M M J V S D
 123
45678910
11121314151617
18192021222324
25262728293031

Archives

Licence

Licence Creative Commons
Ce(tte) œuvre est mise à disposition selon les termes de la Licence Creative Commons Attribution 3.0 France.