Dans ce post sur le web 2.0 appliqué aux sciences humaines numériques (« digital humanities »), sont mises en avant plusieurs fonctionnalités 2.0 susceptibles de servir aux multiples projets de ces disciplines : il s’agit en fait d’utiliser les outils disponibles et de plus en plus populaires (type del.icio.us par ex) dans un contexte de recherche, plutôt que de créer de nouveaux outils spécifiques à tel ou tel projet (qui impliquent un nouvel apprentissage, du temps de travail supplémentaire, etc). La comparaison est faite entre The reading experience database, un projet universitaire anglo-saxon sur la littérature, qui se base sur le recueil de données sur les livres et LibraryThing, le système de catalogage de livres à la portée de tous (OK, c’est pas du super catalogage, même moi, j’ai remarqué, mais bon, l’idée est là) : au lieu de demander à x chercheurs de remplir des questionnaires fastidieux (à remplir et à dépouiller), ce serait plus simple d’utiliser (ou de leur faire utiliser) LT, un système existant dont les données sont facilement réexploitables (puisque c’est du 2.0). Le problème c’est que pour l’instant les API, les moulinettes qui permettent de développer des applications à partir de corpus de données numériques, ne courrent pas les rues, particulièrement pour les ressources du domaine public (contrairement à certaines initiatives privées, Google Maps ou Amazon Web Services, par exemple). Mais sans doute n’est-ce qu’une question d’adaptation technique des ressources existantes à la vague 2.0 ?
Archives
Tags
#hyperlibmooc #teamcharentaises aaron swartz agences AHAgate APC archives ouvertes articles arxiv bidouilles biens communs big deal business models chiffres Chimie chorus comité éditorial crise des périos crowdfunding data management diffusion doaj données double dipping démission dépôt Désabonnement Elsevier embargo epi-revues Europe financement Finch formation gestion des données de recherche Gold google scholar hybride hybrides hybrid model JSTOR larry lessig libre accès modèle économique mooc OA offsetting open access open science openwashing OSTP plan S poldoc politiques preprints pression prospective pétition recherche retour sur les pratiques revues OA réseaux sociaux réseaux sociaux académiques sci-hub science sciencedirect share signalement SPARC Europe text mining thèses training transparence usages veilleCatégories
Archives Ouvertes Blog Business Choses en 2.0 Confs & journées d'études Copyright and wrong crise des périos Curiosités Doc élec e-book e-valuation e-volution Expériences amusantes Formation Initiatives à suivre I went to the market Meta-blogging Moteurs de recherche Numérisation Open Access OpenScience Open source Outils cools Profession Ressources intéressantes Rien d'autre à faire RSS, yes ! Saines lectures Services innovants Tendances
Licence

Ce(tte) œuvre est mise à disposition selon les termes de la Licence Creative Commons Attribution 3.0 France.
Je ne crois pas qu’il s’agit simplement d’un problème technique. Évidemment, il n’est pas simple de modéliser un Web service et une API surtout avec des données de ce type. Pour autant, OAI existe, il s’agit bien d’un Web service qu’on peut exploiter avec des APIS. Le problème se pose largement à deux autres endroits :
– Il n’y a pas encore de demandes de la part des chercheurs qui n’y voient pas forcément l’intérêt, surtout vu le nombre de ressources en ligne. Il faudrait que nous fassions des tests pour leur prouver de l’intérêt (j’avoue, c’est prévu, mais j’ai pas encore eu le temps 😉 )
– Il y a aussi des gros problèmes « politiques ». Les institutions, leurs directions et les chercheurs ne sont pas prêt à voir leurs données affichées sur un autre site sans que cela leur rapporte en terme d’images. Mais les mentalités changent, il ne faut pas désespérer 🙂