Dans ce post sur le web 2.0 appliqué aux sciences humaines numériques (« digital humanities »), sont mises en avant plusieurs fonctionnalités 2.0 susceptibles de servir aux multiples projets de ces disciplines : il s’agit en fait d’utiliser les outils disponibles et de plus en plus populaires (type del.icio.us par ex) dans un contexte de recherche, plutôt que de créer de nouveaux outils spécifiques à tel ou tel projet (qui impliquent un nouvel apprentissage, du temps de travail supplémentaire, etc). La comparaison est faite entre The reading experience database, un projet universitaire anglo-saxon sur la littérature, qui se base sur le recueil de données sur les livres et LibraryThing, le système de catalogage de livres à la portée de tous (OK, c’est pas du super catalogage, même moi, j’ai remarqué, mais bon, l’idée est là) : au lieu de demander à x chercheurs de remplir des questionnaires fastidieux (à remplir et à dépouiller), ce serait plus simple d’utiliser (ou de leur faire utiliser) LT, un système existant dont les données sont facilement réexploitables (puisque c’est du 2.0). Le problème c’est que pour l’instant les API, les moulinettes qui permettent de développer des applications à partir de corpus de données numériques, ne courrent pas les rues, particulièrement pour les ressources du domaine public (contrairement à certaines initiatives privées, Google Maps ou Amazon Web Services, par exemple). Mais sans doute n’est-ce qu’une question d’adaptation technique des ressources existantes à la vague 2.0 ?
Archives
Tags
#hyperlibmooc
#teamcharentaises
aaron swartz
agences
AHAgate
APC
archives ouvertes
articles
arxiv
bidouilles
biens communs
big deal
business models
chiffres
Chimie
chorus
comité éditorial
crise des périos
crowdfunding
data management
diffusion
doaj
double dipping
démission
dépôt
Désabonnement
Elsevier
embargo
epi-revues
Europe
financement
Finch
formation
gestion des données de recherche
Gold
google scholar
hybride
hybrides
hybrid model
JSTOR
larry lessig
libre accès
manuels
modèle économique
mooc
mégarevues
OA
offsetting
open access
openwashing
OSTP
plan S
poldoc
politiques
preprints
pression
prospective
pétition
recherche
retour sur les pratiques
revues OA
réseaux sociaux
réseaux sociaux académiques
sci-hub
science
sciencedirect
share
signalement
SPARC Europe
text mining
thèses
training
transparence
usages
veille
Catégories
Archives Ouvertes Blog Business Choses en 2.0 Confs & journées d'études Copyright and wrong crise des périos Curiosités Doc élec e-book e-valuation e-volution Expériences amusantes Formation Initiatives à suivre I went to the market Meta-blogging Moteurs de recherche Numérisation Open Access OpenScience Open source Outils cools Profession Ressources intéressantes Rien d'autre à faire RSS, yes ! Saines lectures Services innovants Tendances
Licence

Ce(tte) œuvre est mise à disposition selon les termes de la Licence Creative Commons Attribution 3.0 France.
Je ne crois pas qu’il s’agit simplement d’un problème technique. Évidemment, il n’est pas simple de modéliser un Web service et une API surtout avec des données de ce type. Pour autant, OAI existe, il s’agit bien d’un Web service qu’on peut exploiter avec des APIS. Le problème se pose largement à deux autres endroits :
– Il n’y a pas encore de demandes de la part des chercheurs qui n’y voient pas forcément l’intérêt, surtout vu le nombre de ressources en ligne. Il faudrait que nous fassions des tests pour leur prouver de l’intérêt (j’avoue, c’est prévu, mais j’ai pas encore eu le temps 😉 )
– Il y a aussi des gros problèmes « politiques ». Les institutions, leurs directions et les chercheurs ne sont pas prêt à voir leurs données affichées sur un autre site sans que cela leur rapporte en terme d’images. Mais les mentalités changent, il ne faut pas désespérer 🙂