OWNI http://owni.fr News, Augmented Tue, 17 Sep 2013 12:04:49 +0000 http://wordpress.org/?v=2.9.2 fr hourly 1 Le livre numérique cherche ses bibliothèques http://owni.fr/2012/01/03/le-pret-numerique-cherche-sa-place-sur-letagere/ http://owni.fr/2012/01/03/le-pret-numerique-cherche-sa-place-sur-letagere/#comments Tue, 03 Jan 2012 16:47:34 +0000 Bibliobsession http://owni.fr/?p=92288

En 2012 il reste une idée reçue gênante : un livre emprunté dans une bibliothèque est soi-disant un livre qui n’est pas acheté. Que l’on ajoute numérique et l’idée reçue est toujours là, empoisonnant les relations entre éditeurs et bibliothécaires.

Dans l’article “Les bibliothèques pourront-elles être le freemium de l’édition?”, je soulignais l’importance de réinsérer les bibliothèques dans la chaîne de valeur de l’édition, de manière explicite, partant de l’idée qu’il faut nous rendre nécessaires dans un monde d’abondance des données et que les emprunteurs de livres dans les bibliothèques sont aussi acheteurs. C’est ce qu’a commencé à faire la New York Public Library avec Librarybin :

“Un bouton “acheter” a été mis en place dans l’application de prêt, pour rediriger vers le site de l’éditeur. Le programme LibraryBin par Overdrive propose aux usagers que chaque achat de fichier permette de soutenir (sous forme de don financier) les bibliothèques partenaires du programme.”

Bien sûr, cela soulève de nombreuses questions sur le rôle des bibliothèques. Parmi ces questions, celle de leur place dans l’économie de marché. Eric Hellman du blog Go to Hellman publie un retour d’expérience de la Douglas County Library sur l’ajout d’un bouton d’achat pointant vers Amazon ET un libraire local faisant de la vente en ligne de livres. Attention on parle ici de livres et non pas de livres numériques. En onze jours, plus de 700 clics ont été enregistrés, dont 389 pour Amazon et 262 pour le libraire local. En extrapolant ces chiffres au pays, plus de 6 000 livres par jour seraient achetés soit plus de 2,1 millions de livres par an ! S’il semble un peu facile d’extrapoler ainsi, ces chiffres sont confirmés par une étude menée aux États-Unis relayée par cet article de INA global :

Une étude publiée en octobre 2011 par le Library Journal met en évidence la valeur que représentent les bibliothèques pour le monde de l’édition. L’étude rassemble des données et des enquêtes collectées auprès des usagers des bibliothèques dans tout le pays. Elle affirme que les bibliothèques peuvent jouer un rôle prépondérant pour doper les ventes de livres, en adoptant une posture de partenaire – et non de menace – vis-à-vis des éditeurs.

“Nos données établissent que 50 % de l’ensemble des usagers des bibliothèques affirment acheter des livres écrits par un auteur qu’ils ont connu par le biais de la bibliothèque, déclare Rebecca Miller, rédactrice en chef du Library Journal. Voilà de quoi briser le mythe selon lequel quand une bibliothèque acquiert un livre, l’éditeur perd de potentielles ventes pour le futur ».

Bien sûr il s’agit des États-Unis, d’un contexte différent. On se demandera volontiers de ce côté-ci de l’Atlantique si c’est le rôle des bibliothèques de rendre ce lien économique explicite en ajoutant des boutons menant vers la vente de livres. Et pour cause, pour le livre imprimé, en France il existe depuis 2003 une loi encadrant le droit de prêt qui socialise le service d’emprunt des bibliothèques en compensant son impact sur le marché. J’avais noté la proximité de ce système avec les propositions de la licence globale. Pour le livre imprimé, pas besoin d’aller plus loin, me semble-t-il, dans un contexte français où bon nombre d’élus et de professionnels sont attachés (pour le meilleur comme pour le pire) à une frontière étanche entre le marchand et le non-marchand.

Soumission aux libres forces du marché

Pour le livre numérique en revanche, la situation est différente. Pourquoi ? Parce que les bibliothèques ne sont pas perçues et reconnues comme nécessaires pour accéder à des livres numériques aujourd’hui alors qu’elles représentaient avant Internet une alternative historiquement soutenue à ce titre par les pouvoirs publics pour le livre imprimé. Faute d’un soutien politique qui reconnaitrait l’intérêt général auquel peuvent répondre les bibliothèques dans l’accès au livre numérique, nous risquons d’être soumis aux libres forces du marché qui décideront de proposer une fenêtre d’accès à des contenus par les bibliothèques si les acteurs économiques y ont intérêt… ou pas.

En réalité, le marché français va certainement se dessiner par ce qui va se passer aux États-Unis dans les prochains mois (année ?). Si le prêt numérique s’impose véritablement et si les éditeurs (les big six) d’abord réticents suivent, alors on peut légitimement penser que ces offres finiront par arriver en Europe. Le succès des liseuses et notamment de celles d’Amazon plaide en ce sens et le précédent d’Apple a montré que les réticences françaises sont bien souvent des manières d’instaurer un rapport de force de nature à influencer la découpe des parts du gâteau de la distribution/diffusion numérique avec des acteurs qui disposent d’un écosystème touchant le client final. Que ferons-nous alors face à des offres très puissantes arrivant dans la poche du lecteur ?

L’exemple américain en repoussoir

Si notre objectif est de diffuser largement et massivement le livre numérique, faudra-t-il ici aussi non seulement se plier au prêt numérique (donc à des DRM chronodégradables à grande échelle) et en plus accepter qu’un tiers comme Amazon se positionne à ses conditions entre les éditeurs et les bibliothèques ? Dans l’état actuel, voici ce que des milliers de bibliothèques américaines ont accepté, et le diable est dans les détails. Récit de l’emprunt d’un livre numérique chez Amazon, c’est édifiant. Extrait traduit par Marlène:

Ma première expérience d’emprunt d’un ebook pour Kindle à la bibliothèque m’a laissé comme un mauvais goût dans la bouche. Ca ne donnait pas l’impression d’emprunter un livre à la bibliothèque. J’ai plutôt eu l’impression qu’un commercial m’avait proposé un ebook avec une “offre d’essai gratuite et sans engagement” et me harcelait pour l’acheter à la fin de la période d’essai.

Quand l’ebook est rendu, il ne s’évapore pas purement et simplement. Le titre, la couverture, etc, restent visibles sur mon Kindle, exactement comme si l’ebook était toujours disponible, sauf que derrière la couverture il n’y a rien d’autre qu’une notice qui signale que l’ebook a été rendu à la bibliothèque – et un juste bouton, qui ne nous propose pas de renouveler [le prêt]. La seule possibilité est d’acheter l’ebook chez Amazon. [...]

Autant je milite contre le contrôle des fichiers à l’unité et ces satanés DRM, provoquant ce genre de détestable expérience, autant je crois qu’un contrôle d’accès par l’abonnement avec des usages illimités dans une base globale est un modèle acceptable. Modèle que l’on pratique depuis des années dans les bibliothèques, sur lequel on peut construire, comme je l’avais esquissé dans cet article. Pour la musique, c’est d’ailleurs le modèle le plus intéressant en l’absence d’une licence légale publique. Avec le prêt numérique sauce Amazon on part de très loin : contrôle par fichier, monstrueuse notion d’exemplaire numérique, opacité de la gestion des données personnelles, dépendance…

L’appétit d’Amazon et les craintes de cannibalisation des éditeurs nous orientent pourtant vers ces solutions de “prêt numérique” qui font craindre que la conception parfaitement libérale de l’action publique s’exporte très vite des États-Unis où les bibliothécaires sont littéralement pris en étau :

L’American Library Association (ALA), association américaine représentant les bibliothèques, a condamné la décision de Penguin : selon elle, l’opposition entre les éditeurs et Amazon “rend les bibliothèques esclaves d’un conflit portant sur des modèles économiques” et ce sont les usagers des bibliothèques qui en pâtissent.

Une offre propre aux bibliothèques mais peu visible

La vraie question est : quelle marge de négociation entre des bibliothèques publiques et des géants comme Amazon ou Overdrive alors même qu’on peine en France à négocier avec des éditeurs et des fournisseurs de contenus numériques ?

Faut-il  donc plutôt promouvoir des offres propres aux bibliothèques comme c’est déjà le cas, au risque d’avoir une visibilité très faible dans un marché qui sera dominé par des écosystèmes propriétaires couplant catalogues de contenus et objets nomades ? J’insiste sur ce point. On peut légitimement penser que dans quelques années, ne pas être dans l’App Store ou dans le catalogue d’Amazon ou celui de Google sera équivalent à une disparition de la surface lisible du web pour les éditeurs comme pour les bibliothécaires et le service de prêt ou de médiation qu’ils prétendent fournir.

Quelles alternatives alors ? Vous remarquerez que j’exclus de fait les libraires qui n’ont ni la volonté ni les moyens de développer des offres adaptées aux besoins d’usages collectifs dans les bibliothèques. Des initiatives existent ça et là, en Espagne, aux Etats-Unis, au Québec en France aussi ! Peut-être même que l’évolution des liseuses vers des tablettes plus ouvertes que les écosystèmes verrouillés qu’on propose aujourd’hui”hui permettront à des offres/catalogues innovants de coexister dans des écosystèmes liés aux objets nomades, après tout Apple n’a pas censuré la présence d’un Spotify dans l’App Store… C’est une voie à ne pas négliger me semble-t-il.

Les éditeurs français endormis

Peut-être les éditeurs français vont-ils finir par se réveiller et prendre véritablement en main une diffusion numérique de leurs catalogues à des prix bas dans des conditions respectueuses des droits des lecteurs en faisant évoluer leurs modèles économiques. Ils seraient bien inspirés de positionner de telles offres à grande échelle vers le grand public via des bibliothèques dans des conditions meilleures qu’aujourd’hui (Numilog, t’es moche aujourd’hui, mais tu peux évoluer !) plutôt que de se livrer, tels la presse il n’y a pas si longtemps aux griffes de l’aval de la chaîne… Au final nous avons tous à perdre d’une domination trop forte d’Amazon, mais j’ai bien peur qu’il ne soit déjà trop tard.

Il faut bien en avoir conscience, pour le livre numérique, l’alternative est au prix d’une marginalisation forcée, dans un marché qui se concentre sans acteurs publics, dans un contexte où les bibliothèques ne sont pas forcément nécessaires.

Difficile période de transition dans laquelle une stabilité existe : celle du besoin d’une médiation active, au risque de la découpler cette médiation du document primaire. L’avenir sera-t-il au local, à la recommandation, à l’expérience communautaire en ligne et in situ ? Je le crois.


Billet initialement publié sur Bibliobsession sous le titre “Livre numérique : 2012 une année charnière ?”

Photos et illustrations via Flickr : Pedrik [ccbyncsa] ; titom.ch [ccbyncsa] ; ownipics [ccbyncsa] ; Mike Licht [ccby]

]]>
http://owni.fr/2012/01/03/le-pret-numerique-cherche-sa-place-sur-letagere/feed/ 16
Presse en ligne : faire payer le contribuable… et les bibliothèques http://owni.fr/2010/09/22/presse-en-ligne-faire-payer-le-contribuable-et-les-bibliotheques/ http://owni.fr/2010/09/22/presse-en-ligne-faire-payer-le-contribuable-et-les-bibliotheques/#comments Wed, 22 Sep 2010 14:40:12 +0000 Bibliobsession http://owni.fr/?p=28869 C’est un truisme de dire que la presse va mal. Matthieu de Vivie (cité par Narvic) a écrit une thèse sur la question du financement de la presse. Il en arrive à la conclusion suivante :

“il ne semble pas aujourd’hui envisageable qu’une diffusion sur internet, à elle seule, soit en mesure de financer la production d’information de grandes rédactions de plusieurs centaines de journalistes, telles que celles du Monde ou du Figaro. Si la version papier de ces médias fait défaut, leur survie apparait bien menacée.”

Et d’évoquer deux pistes, pas très efficaces, pour le secteur :

  • La diversification à partir de gros sites (rachat de petits sites par des plus gros comme le figaro.fr)
  • Des sites “de niche” à l’audience plus restreinte et aux sources de revenus diversifiées (vente de services, abonnement, publicité, etc.)

Pourtant, il y a une source de financement qui n’est jamais évoquée : cette source, c’est vous et moi c’est le contribuable !

D’abord ce n’est pas nouveau mais ça mérite d’être souligné : tout simplement au moyen des subventions. Vous trouverez sur le site du Ministère de la Culture une synthèse de toutes les aides à la Presse. Je ne développe pas ici, à ce sujet je vous renvoie à l’enquête édifiante menée par Owni.fr :

Durant les huit premières années de son existence, le fonds d’aide à la modernisation de la presse quotidienne et assimilée d’information politique et générale (FDM) a distribué ses substantielles subventions sans qu’une évaluation précise n’ait été mise en place pour contrôler la pertinence et l’efficacité de ces investissements. C’est en substance ce que conclut le Rapport de la commission de contrôle du fonds d’aide à la modernisation de la presse quotidienne. Ce rapport, évaluant 65 des 260 projets financés entre 2004 et 2007, pose en effet de nombreuses questions sur ces subventions, dont nous avons publié le détail le 9 août dernier.

Subventions pas très efficaces quand on voit la santé économique du secteur… Mais la Presse peut aussi compter sur les contribuables via les bibliothèques, qui sont des services publics comme chacun sait. De puissants agrégateurs comme Europresse proposent la presse et ses archives en intégralité, sous forme de base de données accessible aux gens qui s’y déplacent (en général) j’y reviendrai.

Bibliothécaires, vous allez me dire que ça fait longtemps que ça existe ce genre d’offre pour les bibliothèques. Oui, mais le contexte vient de changer radicalement et vous allez voir que l’ensemble n’augure rien de bon pour l’information sur le web…

Tout est parti de l’annonce de Murdoch :

« Qu’il soit possible de faire payer pour des contenus sur Internet est une évidence, vu l’expérience du Wall Street Journal » a indiqué Rupert Murdoch lors de la dernière présentation des résultats trimestriels de son groupe News Corp”

De fait, ce point de vue est désormais une stratégie progressivement appliquée par les quotidiens français. N’avez-vous pas remarqué qu’il est de plus en plus rare de trouver un article gratuit en intégralité sur le site de Libération ?

Lemonde.fr en accès libre c’est fini, comme l’explique cet article de Rue89 daté de mars 2010 :

Le Monde fait un des plus grands paris de son histoire. Le quotidien du soir a annoncé la fin de l’accès gratuit aux articles du journal papier, et une offre payante complexe pour ceux qui voudraient continuer à les lire sur le site du journal et sur iPhone (et demain sur iPad). Un modèle de plus dans l’éventail des offres payantes dans la presse, et aucune certitude sur l’appétit des internautes pour payer… A partir de lundi, et de manière progressive, les articles publiés dans Le Monde ne seront plus disponibles pour les lecteurs gratuits du site LeMonde.fr. A la place, ils auront le flux classique de dépêches, la production de l’équipe du site, mais aussi vingt contenus originaux produits par la rédaction du quotidien pour le Web. La nuance est de taille et sera examinée à la loupe, les articles du quotidien étant malgré tout le principal produit d’appel de la marque Le Monde.

Nous sommes entrés dans une ère où l’accès libre à l’information de la presse d’actualité sera de plus en plus rare. Concrètement ? J’ai longuement évoqué l’Ipad dans mon récent billet. C’est assurément un moyen d’habituer les gens à accéder de manière payante à l’information. Apple a réussit à vendre l’idée aux patrons de presse (ou l’inverse mais bon qui de la poule ou de l’oeuf…) que les gens allaient massivement s’abonner à des applications permettant l’accès à des journaux-pdf. Rien ne dit que cette stratégie va fonctionner, rien ne dit que les gens ne préfèreront pas payer pour des interfaces plutôt que pour de l’information. D’ailleurs, les gens ont-ils jamais payé pour autre chose que pour un support (le papier) et non pas pour l’information elle-même ? Quoi qu’il en soit, pour l’Ipad, il est encore trop tôt pour tirer la moindre conclusion.

Qu’on ne s’y trompe pas, la démarche de la presse pour le grand public sur l’Ipad est le début d’une stratégie plus globale qui entraîne TOUTES les bibliothèques et non plus seulement celles des universités dans une voie financièrement très risquée pour les budgets publics et pour le rôle des bibliothèques !

Europresse, l’accès des bibliothèques à la presse

Cette stratégie, c’est celle de l’enfermement dans des modèles payants qui monétisent ce qui relevait il n’y a pas si longtemps du web en accès libre financé par la publicité. Ce modèle ne fonctionne pas, il est en train de changer et les bibliothèques sont partie prenantes. Autrement dit, il va falloir payer, encore plus qu’avant. Pas convaincu ? Pour mieux comprendre, prenons un exemple bien concret. Europresse vous connaissez ? Surement si vous êtes bibliothécaires, pas forcément. Petit rappel : Europresse est une base de donnée vendue en particulier aux bibliothèques. Elle permet un accès au texte intégral aux contenus de journaux et de magazines francophones. C’est une base assez gigantesque :

Europresse.com pour Bibliothèques est une base de presse qui donne un accès numérique à environ 2 500 sources d’information. Europresse.com est riche de plus de 80 millions d’articles en archives et près de 100 000 nouveaux documents vient enrichir la base quotidiennement. Europresse.com pour Bibliothèques permet d’offrir aux usagers des bibliothèques publiques, universitaires ainsi qu’aux lycées, un accès simple et rapide à la presse française et internationale.

Alors Europresse c’était déjà pas donné et le “Nouveau europresse” sous couvert de changement de modèle de tarification sera encore plus cher, même si des négociations sont en cours avec le consortium Couperin, les bibliothèques essayant tant bien que mal de se regrouper pour peser sur ce marché où elles sont par nature en position de faiblesse.

Des contrats d’exclusivité qui bloquent les bibliothèques

La nouveauté c’est que Le Monde.fr a signé un contrat d’exclusivité avec Europresse. La conséquence est directe et violente : soit vous payez Europresse pour proposer le Monde et ses archives dans votre bibliothèques, soit vous refusez de payer et vous privez vos usagers d’une source incontournable qui n’est plus accessible librement sur internet.

Questions :

  • Comment expliquez-vous au collégien du coin qui veut faire un exposé qu’on a pas Le Monde à la bibliothèque parce que c’est trop cher ?
  • Comment les bibliothèques vont-elles prendre en charge ces coûts croissants de fourniture d’information ?
  • Sur quels autres services va-t-on prendre ces ressources financières ?

Mais plus fort encore : Europresse justifie son changement de modèle par l’augmentation de son offre en nombre de sources agrégées. Désormais, vous en avez pour votre argent chers contribuables avec plus de 3000 sources fiables dont un millier de blogs et des sites web !

Des blogs ? des sites web ? Mais lesquels ? Ben il suffit d’aller voir sur le petit moteur de recherche et de filtrer par langue (français) et par type de source : blogue. On obtient… 7 résultats !

La question n’est pas tant celle du volume, qui va certainement augmenter que celle de la démarche. En réalité la source “libération blogues” recouvre tous les blogs crée sur la plateforme, de même que les blogs du Monde diplomatique. Il s’agit ici de revendre du contenu crée non pas par des journalistes, mais par des blogueurs volontaires qui ont accepté les conditions générales d’utilisation de la plateforme (vous savez ces choses en petits caractères que personne ne lit). Je ne suis pas certain, par exemple qu’Hervé Le Crosnier qui anime un blog sur la plateforme du Monde Diplomatique soit ravi de voir ses articles “revendu” aux bibliothèques sans contrepartie !

Si l’on creuse encore un peu dans les sources, on s’aperçoit qu’il y a aussi une catégorie “twitter”. On n’y trouve non pas une liste de comptes, mais une fiche descriptive relative à twitter :

“Une sélection de tweets en anglais dans les domaines de la culture, de l’économie des finances et de la consommation”. Mais qu’est-ce que ça peut bien vouloir dire ?

Dans les sites web on trouve 91 sources en français dont rue89 et Marianne ainsi que tous les blogs de libé… En plus, c’est vous dire si l’offre est ciblée, on a droit à une belle sélection de sites internet d’actualité locale … au Québec !

Europresse joue donc sur deux tableaux : d’un côté des exclusivités incontournables et des sources gratuites “sélectionnées” (et puis sur quels critères ? ah bon c’est pas le bibliothécaire qui sélectionne ? ) qui assurent un volume justifiant des prix élevés ! Il s’agit de  revendre aux bibliothèques les contenus payants exclusifs de la presse agrémentés de contenus qui sont librement accessibles sur le web tout ça avec une valeur ajoutée technique à examiner…

Et si demain cette stratégie de la part de la presse s’étendait au web et à d’autres plateformes des infomédiaires comme Wikio ou Paperblog par exemple ? Et si demain les bibliothèques étaient un des rouages essentiels de la stratégie de balkanisation du web à laquelle on assiste ?

Je ne peux ici me retenir de vous proposer, oui vous Bibliothécaires, un rapide rappel historique. Tout ça ne vous rappelle rien ? Si vous êtes abonnés à Electre vous savez que cette entreprise revend elle aussi à prix d’or, une matière première (des informations bibliographiques) faiblement augmentée d’une “valeur ajoutée” (résumés mal foutus, premières de couv’). Matière première obtenue gratuitement après des éditeurs et qui est aussi disponible librement auprès d’autres fournisseurs : la Bibliothèque Nationale de France.

Les conséquences de la stratégie de repli défensif de la presse et plus largement des fournisseurs de contenus me semblent à moyen terme assez catastrophiques pour les bibliothèques :

  • Nous sommes en quelque sorte piégés dans nos propres missions par les fournisseurs de contenus qui s’adressent à nous en jouant sur le volume d’information que nous offrons à nos publics et négocient des exclusivité que nous n’avons pas le choix d’accepter sous peine de ne pas remplir nos missions de manière satisfaisante;
  • Malgré le formidable travail d’un consortium comme Couperin, nous ne pesons pas lourd face à ce qui est une stratégie de sauvetage de tout un secteur, celui de la presse et des contenus numériques dans un contexte de crise économique;
  • Nous sommes embarqués contre nous-mêmes dans une voie inverse à celle du libre accès à l’information et à la circulation de la culture;
  • Nous devenons des lieux d’accès à un web payant (payé par le contribuable), au risque de n’avoir à l’avenir que cette seule valeur ajoutée d’autant plus que nous persistons à proposer du contenu payant dans de beaux systèmes informatiques sécurisés et à filtrer l’accès au web gratuit

Un peu d’optimisme ? Pas aujourd’hui, non.

Article initialement publié sur Bibliosession

Illustration FlickR CC : campra

]]>
http://owni.fr/2010/09/22/presse-en-ligne-faire-payer-le-contribuable-et-les-bibliotheques/feed/ 2
Les enjeux d’une bibliothèque sur le web http://owni.fr/2010/06/10/les-enjeux-d%e2%80%99une-bibliotheque-sur-le-web/ http://owni.fr/2010/06/10/les-enjeux-d%e2%80%99une-bibliotheque-sur-le-web/#comments Thu, 10 Jun 2010 08:45:20 +0000 Christian Fauré http://owni.fr/?p=18113 La plupart des débats sur le rôle et la présence des bibliothèques sur web s’est jusqu’à présent concentré fortement sur les enjeux de numérisation des fonds et sur son corolaire de diffusion des œuvres numériques. Autre thème, mais dans une moindre mesure (surtout à l’échelle du grand public) : la mise en ligne des catalogues et la disponibilité des métadonnées des institutions qui les gèrent. Ces questions sont importantes, mais j’aimerais en proposer une troisième, qui s’appuie sur l’exposition des métadonnées, et constitue à mes yeux la clé de voute pour une stratégie des bibliothèques sur le web.

1. Avoir des ressources facilement identifiables et consultables sur le web

Chacun aura remarqué qu’il n’est pas facile de faire un lien vers l’URL d’un livre qui pointe vers les catalogues en ligne que proposent les bibliothèques. Moi-même, quand je parle d’œuvres ou d’auteurs, je privilégie un lien vers la page associée chez Amazon ou Wikipedia, c’est tellement plus rapide. Mais, à part amener du trafic à ces sites, ce geste de faire un lien n’est pas valorisé en lui-même. Une bibliothèque doit donc commencer par augmenter la visibilité de ses ressources pour ensuite pouvoir donner de la valeur à mon lien.

L’exposition des métadonnées passe par la mise à disposition d’URLs pérennes pour l’ensemble des ressources signifiantes. Ces URLs doivent donc être pérennes (je vous renvoie chez figoblog pour la littérature et les réflexions associées), mais aussi  facilement identifiable (voire inférençable : par exemple, je peux déduire l’URL d’un auteur à partir de celle d’un autre), ainsi que déréfençables (cf. Qu’est-ce qu’une URI déréférençable ?). Point d’autre salut dans cette démarche que d’embrasser les standards du web sémantique et d’emboîter le pas à l’initiative Linked Data.

2. Exploiter la vie de ces ressources sur le web

On n’envoie plus un satellite dans l’espace pour pouvoir dire « je sais le faire », mais pour exécuter une mission bien précise qui repose sur la collecte et la récupération de données. Par analogie, c’est cet objectif qui manque souvent aux stratégies d’ouverture et d’exposition des données. Je suis le premier à dire qu’il faut mettre à disposition les données sur le web, tout comme je suis le premier à dire qu’il faut du très haut débit. Mais si ces initiatives sont nécessaires, elles n’en sont pas pour autant suffisantes, car elles ne sont que les prémices d’une politique, il manque encore quelque chose. C’est notamment la raison pour laquelle je terminais mon texte dans « Pour en finir avec la mécroissance » en écrivant :

« Pire peut-être, ces politiques se limitent à favoriser l’accès à Internet et à offrir des débits de connexion toujours plus important, mais pour quoi faire ? » p. 278.

Je crois qu’il faut partir de là : accéder à des contenus ou des données sur le web, d’accord, mais « pour quoi faire ? » Je balaye ici d’un revers de main toute la rhétorique qui consiste à dire : « ouvrez vos données et vous verrez ce sera formidable ». Oui, je crois effectivement que ce sera formidable, mais ce discours ne favorise pas la prise de décision pour celui qui doit faire l’effort : il faut donc trouver d’autres motivations.

La logique et la stratégie de l’accès orientent trop souvent les débats autour d’une stratégie de diffusion. C’est très bien de diffuser, surtout quand il s’agit de ressources culturelles comme celles que gèrent les bibliothèques, mais je pense que ce n’est pas là que les choses se jouent. La plupart des bibliothécaires ne peuvent pas se satisfaire de concevoir le web comme un simple outil de communication et de diffusion. Le métier de bibliothécaire croule tellement sous la charge de travail que représente la politique d’acquisition, de conservation, de gestion des catalogues, d’archivages, plus tous les aspects fonctionnels d’accueil du public, de relation avec les chercheurs etc. que la perspective du web comme nouvel outil de diffusion ne représente à leur yeux qu’une contrainte de plus qui va surtout donner lieu à une énième refonte du système informatique.

Faire tous ces efforts simplement parce que cela semble inéluctable n’est pas la meilleure des motivations qui soit. On revient donc à notre question « pour quoi faire? », car si la réponse est « parce que c’est nécessaire », on peut être sûr que c’est l’inertie qui va s’installer (pourquoi faire des efforts si la situation est tellement inéluctable ?).

Il faut donner une motivation aux bibliothèques : pénétrer dans l’économie générale du web, cela ne doit pas représenter uniquement un surplus de travail et d’effort, même si la diffusion et la valorisation sont des missions essentielles d’une bibliothèque.

Concernant les bibliothèques, ma proposition sera donc la suivante : il faut développer les « orages sémantiques ». Par cette expression on entend l’ensemble des discussions, polémiques, argumentations autour d’une ressource (auteur, oeuvre, thème, etc.). Dans cette perspective, il faut considérer que chaque ressource disponible en ligne est un paratonnerre dont le but est de capter les polémiques et les discussions dont elle fait l’objet.

Avec cette approche, l’activité de catalogage s’étend au-delà du catalogage des œuvres puisqu’il couvre le catalogage des débats sur autour des ressources sur le web. Grâce à ce catalogage des « orages sémantiques », une bibliothèque peut commencer à fournir de nouveaux services, comme par exemple une sorte de « Zeitgeist », un esprit du temps.

Aujourd’hui la Library of Congress archive, plus qu’elle ne catalogue, les messages plubliés sur la plateforme de Twitter. La question qui est posée aux biblitohèques est la suivante : souhaitez-vous être condamnées à négocier avec des acteurs privés le catalogage des orages sémantiques via leur plateforme commerciale, ou souhaitez-vous développer vous-même ces dispositifs ? C’est-à-dire être pro-actif dans la conception de ces dispositifs pour réinventer le catalogage et les services d’une bibliothèque sur le Web. Voulez-vous n’être que des archivistes sous-traitants des plateformes commerciale ou des promoteurs d’une politique économico-culturelle de la contribution ?

Parlant de contribution, je me dois ici de préciser que je ne parle pas de crowdsourcing, de site participatifs ou autres espaces personnalisés de contribution dont pourrait se doter un site web de bibliothèque. Il ne s’agit pas de ici de rajouter des fonctions de tags ou des folksonomies car le squelette de la démarche repose sur l’autorité des métadonnées de la bibliothèque. Le dispositif de captation des orages sémantiques doit reposer sur les acquis des catalogues et des notices d’autorités pour faire la révolution copernicienne du catalogage : elle ne se fait pas en marge de lui ou contre lui mais avec lui, avec ce trésor des métadonnées.

Ne cherchez pas l’outil magique pour faire cela, je crois qu’il n’existe pas, et il reste à faire. Il y a en fait deux dispositifs qui peuvent répondre à cet enjeu des orages sémantiques :

  • Le premier est un dispositif indirect basé sur l’analyse traces, celui dont je parle ici.
  • Le deuxième est un dispositif direct basé sur des outils critiques offrant des fonctionnalités d’annotation et de traçabilité des polémiques (le modèle que j’ai en tête étant les outils de gestion des sources dans les projets de développement informatique). De celui ci je ne parle pas dans cette note.

La démarche indirecte doit se construire à partir de plusieurs briques fonctionnelles :

  • du « web analytic » au travers de l’ensemble des services qui permettent d’analyser des trafics de sites web ;
  • du text-mining pour dégager des métadonnées des sources qui pointent vers les ressources exposées de la bibliothèque ;
  • du data-mining
  • des technologies d’indexation
  • bien sûr, si l’effort a été fait d’avoir les données structurées en RDF, la granularité des informations de consultations et de requêtes n’en sera que plus fine et plus facilement exploitable.

Il s’agit donc bien d’un panaché de technologies pour ne pas avoir en sortie un simple hit parade ou un moteur de recommandation à la Amazon. De plus, les expérimentations de publication des statistiques brutes de consultations ont montré que c’est Mein Kampf ou Le Kamasutra qui vont trôner en haut des classements. Je précise également qu’il ne s’agit pas uniquement d’utiliser des informations de consultations, mais surtout des informations provenant de la source des liens qui pointent vers ce lieu de référence qu’est une bibliothèque (pensez ici à BackRub, l’ancêtre de Google).

Un petit résumé de ce qui change avec cette approche des orages sémantiques :

  • Les bibliothécaires et conservateurs en « back office » ont un feed-back de ce qui se passe sur le web autour des ressources dont ils ont la gestion. Retour appréciable, me semble-t-il, quand on doit gérer l’évolution de son catalogue : les orages sémantiques placent le bibliothécaire au coeur de son temps, des polémiques et de ce qui fait débat ;
  • La bibliothèque peut ajouter des services innovants sur son site web. Par exemple, je n’irai pas spontanément sur la page d’un auteur sur le site web d’une bibliothèque mais plutôt sur Wikipedia à cause de la richesse des informations. Mais si la page en question me donne une « météo culturelle » de cet auteur, alors cela peut changer mes pratiques ;
  • enfin, au delà du Zeitgeist, c’est une extension de la pratique de catalogage qui révolutionne l’activité d’une bibliothèque en la plaçant au cœur de l’économie générale du web.

Je termine par un dernier point car, les bibliothèques, en ces temps budgétaires difficiles, cherchent à augmenter leurs fonds propres, or je serai le premier à acheter une œuvre (papier ou numérique) qui comprenne un appareil critique issu des informations collectées via le dispositif des orages sémantiques géré par une institution publique telle qu’une bibliothèque. Cela changerait à coup sûr les rapports entre les bibliothèques et les éditeurs, ces derniers ayant beaucoup trop tendance à les mépriser. C’est d’ailleurs quelque chose qui m’a frappé en m’intéressant à la chaîne du livre : l’indifférence et le mépris règne entre les acteurs ce milieu tandis que de nouvelles industries arrivent et raflent la mise, le sourire en coin.

J’espère que les bibliothécaires me pardonneront mon ingérence dans leur domaine de compétence.

Billet initialement publié sur le blog de Christian Fauré ; images CC Flickr beelaineo, Reini68, jakebouma

]]>
http://owni.fr/2010/06/10/les-enjeux-d%e2%80%99une-bibliotheque-sur-le-web/feed/ 2
Google livres : par le petit book de la tablette (1/3) http://owni.fr/2010/03/16/google-livres-par-le-petit-book-de-la-tablette-13/ http://owni.fr/2010/03/16/google-livres-par-le-petit-book-de-la-tablette-13/#comments Tue, 16 Mar 2010 15:04:46 +0000 Olivier Ertzscheid http://owni.fr/?p=10168 google2

Photo CC Christopher Chan sur Flickr

[...] N’ayant en guise d’ouvrage que la chronique idoine de ce blog, je me décide à rédiger une nouvelle série de billets pour expurger l’amoncellement de nouvelles au sujet de Google Books.

Le premier de ces billets (que vous êtes en train de lire, bande de petits veinards), sera uniquement consacré au volet “numérisation d’ouvrages du domaine public”, autrement dit le programme “Library partners” de Google Books.

============================
Google Books : l’état c’est moi.
============================

Côté bibliothèques, il manquait encore à la stratégie de Google deux pierres essentielles, tant pour les “relations publiques” et l’image du projet (de plus en plus malmenée), que pour le précédent que cela permettrait de créer : ces deux pierres sont la signature d’un accord avec une bibliothèque nationale (d’où les négociations, dès l’été 2009 et probablement encore un peu avant, avec la BnF), et celle de la signature avec un état en tant que tel. Or voici donc que depuis le 10 Mars 2010, Google a signé avec le ministère de la Culture italien pour la numérisation et la mise en ligne d’un million de volumes, libres de droits (publiés avant 1860).

Coup double et coup de maître, puisque ledit contrat confère à Google un statut de prestataire étatique qui pourrait en inciter plusieurs autres – états – à revoir leur position, et lui donne également accès à non pas une mais bien deux bibliothèques nationales (Rome et Florence). Comme le souligne Le Monde, c’est donc bien d’une victoire politique qu’il s’agit. D’autant que ce nouvel allié politique devrait là encore pouvoir être cité comme témoin dans le procès en cours concernant la numérisation des ouvrages sous droits (et je ne parle même pas des – nouvelles – activités de lobbying ainsi autorisées …)

Modus operandi. Tout comme pour le projet de numérisation de la bibliothèque de Lyon, Google installera un centre de numérisation en Italie. La numérisation du million d’ouvrages – pour l’instant – concernés, devrait prendre deux ans. Sur les aspects concrets de ladite numérisation et les risques toujours actuels de dérive vers un eugénisme documentaire, on sait peu de choses. La dépêche AFP délayée dans Les Échos nous indique que :

- “le moteur de recherche s’engage à fournir aux bibliothèques des copies numériques de ces livres, “leur permettant ainsi de les rendre accessibles aux lecteurs sur d’autres plateformes, y compris d’autres projets européens comme Europeana“.

Rien n’est dit sur le type de copie numérique qui sera ainsi partagée, sur son ouverture à l’indexation par d’autres moteurs, sur l’exclusivité – ou non – d’indexation, bref sur l’ensemble des points qui posent habituellement problème dans les contrats signés entre Google et les bibliothèques.

À noter : la déshérence et le désengagement de l’État italien berlusconien dans le domaine des politiques publiques peut également apparaître comme un facteur non-négligeable à l’explication de cette “première mondiale”. Bon par contre on n’a pas réussi à prouver que la Camorra avait infiltrée Google mais bon entre pieuvres… ;-)

==========================================
Google Books : l’OPAC ultime en ligne de mire ?
==========================================

Quand on s’interroge sur le “pourquoi Google investit-il à perte dans la numérisation d’ouvrages du domaine public”, on dispose de plusieurs niveaux de réponse :

- d’abord – c’est l’argument que je ressasse depuis longtemps – parce que ce projet est tout sauf une danseuse et que Google, après avoir “gagné” la bataille de l’information, a compris – avant d’autres, y compris les états présidant au devenir financier de nos bibliothèques nationales numériques -  qu’il devait se positionner sur la bataille de la connaissance. Comme il a avant d’autres compris que l’essence de la bibliothèque, que les enjeux qui la fondent et lui sont indissolublement liés sont d’abord de nature politique. Et que de la maîtrise de cet échiquier politique dépendrait ensuite la maîtrise de secteurs économiques entiers (dont la “chaîne du livre” en tant que maillon – pas forcément faible – des industries de la connaissance)

- ensuite parce que cet investissement lui donne la légitimité (et la compétence) pour s’installer durablement sur le secteur de la numérisation d’ouvrages sous droits (second volet de Google Books)

- et tout un tas d’autres raisons, dont la constitution de la plus grande archive documentaire de corpus multilingue (ceci expliquant peut-être sa suprématie dans le domaine de la traduction automatique…)

Preuve est désormais faite que numériser des livres peut permettre de ramasser un beau pactole et que ces investissements dès le lancement du projet en 2004, l’étaient dans une perspective claire de monétisation. Dans la cadre de la “plateforme” Google Books, il est plusieurs manières de gagner de l’argent :

- pour les éditeurs… ben c’est tout l’enjeu du procès actuel aux États-Unis et en France… pour gagner de l’argent avec les éditeurs disais-je, il suffit à Google de casser la chaîne de médiation (en évacuant par exemple les libraires), ou tout au moins de s’y positionner comme un routeur incontournable préemptant au passage des droits de douane qu’il est le seul à fixer (c’est précisément le rôle du Google Books Settlement).

- pour gagner de l’argent avec les auteurs, il suffit d’augmenter leur commission, en se payant sur les commissions que ne touchent plus les éditeurs et/ou les libraires (et je maintiens qu’en juin 2010, date de lancement désormais officielle de Google Editions, on verra apparaître un outil de micro-paiement à destination des auteurs, construit sur le modèle pay-per-click des publicités Adsense … les paris sont ouverts ;-)

- pour gagner de l’argent avec les bibliothèques, c’est à peine plus compliqué : soit on leur propose des contrats léonins jouant clairement sur un abus de position dominante, (voir aussi ce qu’il pourrait en être de l’inaliénabilité du domaine public) mais il est probable que ce ne soit pas entièrement satisfaisant (et un peu risqué) sur le long terme. Soit on leur fait payer l’accès à la copie de l’ouvrage par le truchement de licences monopostes (volet bibliothèque du GoogleBooks Settlement). Soit on prévoit de leur proposer, à terme, un accès – payant – à ce qui ressemble chaque jour davantage à un OPAC planétaire de ressources en texte intégral (les OPAC planétaires classiques s’arrêtant aux seules métadonnées).

Il n’est ainsi pas improbable qu’en même temps qu’il lancera Google Editions pour (contre?) les libraires et éditeurs, Google, en s’appuyant sur la masse de documents du domaine public déjà numérisés, en s’appuyant également sur les fonctionnalités de plus en plus “bibliothéconomiques” de l’interface GoogleBookSearch, il n’est pas improbable disais-je que Google propose aux bibliothèques une architecture “full-web” leur permettant – et à leurs utilisateurs – de déporter “dans les nuages” une partie significative des composantes habituellement dévolues aux SIGB (Systèmes informatiques de Gestion de Bibliothèque). Fantasme de mon esprit malade ? Nous verrons bien :-)

google4

Image CC MikeBlogs sur Flickr

=========================================================================
Google Books : des rapports et des lois … mais pas vraiment de rapport à la loi …
=========================================================================

Après le rapport Tessier (exégèse disponible ici), c’est donc la très sérieuse commission des finances du Sénat qui planche sur le rapport Gaillard : “La politique du livre face au numérique“, dont une partie importante est entièrement consacrée à “l’affaire Google“. Pas grand chose à signaler dans ledit rapport, si ce n’est qu’il valide les conclusions du rapport Tessier (= la BnF doit signer avec Google en évitant l’exclusivité d’indexation et en se réservant les droits de mise à disposition immédiate auprès de son public). Le prochain rendez-vous est fixé au 28 avril prochain où la commission de la culture débattra pendant une table-ronde réunissant tous les acteurs de la chaîne du livre des deux points suivants :

– “l’avenir de la filière du livre et l’opportunité de fixer un prix unique au livre numérique,
- la politique de numérisation pour le livre, selon qu’il est libre de droits ou sous droits.

Le rapport Gaillard tient tout entier en une phrase clé : “avec les moyens actuels de la BnF, il faudrait environ 750 millions d’euros et 375 ans pour numériser l’ensemble des ouvrages. Selon M. Bruno Racine, la totalité des fonds de la BnF pourrait être numérisée en 10 ans par Google.Ita missa est. Sauf que … Sauf que l’expression même de “numériser l’ensemble des ouvrages” n’a aucun sens bibliothéconomique, Google pas plus que la BnF ne prétendant vouloir (et surtout pouvoir) numériser l’intégralité des fonds documentaires.

La numérisation est d’abord affaire de choix et de priorités définies selon des critères là encore bibliothéconomiques (rareté, ancienneté, fréquence des emprunts, etc …) et prendre prétexte comptable de l’éternel fantasme de la bibliothèque universelle me semble un raisonnement spécieux qui masque les réels enjeux politiques d’un tel projet.

Dernier point intéressant dans le rapport Gaillard, le tableau de la répartition des fonds du grand emprunt entre les différents organismes publics bénéficiaires.

A noter que, nonobstant la procédure toujours en cours (le procès Google Books donc), certaines universités (et pas des moins prestigieuses) déjà parties prenantes lors du lancement de Google Books,  n’hésitent pas à apporter publiquement leur soutien à la version “amendée” dudit Google Books Settlement. C’est le cas de Stanford, qui vient donc de resigner avec Google.

A noter encore, et toujours concernant les issues possible du procès en cours, vous avez la possibilité de vous coller un bon mal de crâne prendre la mesure des différents scénarios possibles, en consultant le schéma (pdf) disponible sous ce lien et produit par la très active et lobbyiste Library Copyright Alliance.

Et Europeana dans tout ça ?? Et bien, à parcourir le rapport sur les prochaines étapes de déploiement de ce projet, on est saisi de constater à quel point l’enlisement le dispute à l’atermoiement. Un saisissement que deux paramètres permettent d’éclairer : dans l’urgence et la vitesse à laquelle bougent les choses sur la question de la numérisation patrimoniale (grâce à l’effet de ricochet et/ou d’aspiration de la numérisation commerciale), l’échelon européen ne semble pas être le bon pour articuler un projet “à l’échelle” de Google. L’autre paramètre est naturellement financier, une majorité de bibliothèques européennes, du côté de l’Europe de l’Est notamment, s’interrogeant sur l’opportunité de passer du temps à alimenter un portail sans aucune visibilité là où des partenariats avec Google leurs permettraient d’économiser de la logistique, du temps, et surtout de l’argent. À n’en pas douter, la récente signature du partenariat avec le ministère de la Culture italien ne va pas contribuer à mobiliser les acteurs européens dans le sens du développement d’Europeana. Bref, ce qui était et qui demeure un beau projet souffre d’un énorme problème de positionnement, résultant lui-même d’un tout aussi important problème de calendrier et d’une implication parfaitement insuffisante (et insuffisamment répartie) entre ses différents acteurs supposés (soit, en théorie, l’ensemble des bibliothèques nationales européennes).

=============================================
Google Books ou le périmètre des biens communs.
=============================================

Comme l’illustre magnifiquement Asaf Hanuka, le monstre Google continue d’effrayer. Google est méchant. Google s’expose à une liste de plus en plus impressionnante (et documentée) de critiques. Les premiers cris d’effroi passés, il serait dommage de perdre de vue que la principale dangerosité du projet Google Books ne lui est pas intrinsèque. Bien au contraire, elle tient, en ce domaine comme en d’autres, au fait que les avancées de la firme nous obligent (et nos “états” avant nous …) en permanence à repenser la nature et le périmètre de ce qui doit être, devenir ou demeurer un ensemble de biens communs de la connaissance. Ce n’est qu’au prix d’une définition claire et politiquement argumentée desdits biens communs qu’un balisage efficace (efficient ?) de la frontière entre ce qui relève de la sphère publique et de la sphère privée pourra être établi sur la question de la numérisation en particulier, et sur la question de l’accès à l’information en général.

================================
Google Books : “A path to insanity”.
================================

Dans l’un de ses derniers essais (repéré sur Techcrunch), intitulé : “For the Love of Culture : Google, copyright and our future“, Lawrence Lessig se livre à la meilleure analyse – selon moi … – des dangers que représente Google Books non pas en tant que dispositif, mais en tant que processus d’aliénation de l’accès à la culture, en tant que processus d’industrialisation de la copie** (comme en écho aux lectures industrielles théorisées par Alain Giffard, ces deux-là – Lessig et Giffard – ayant depuis longtemps parfaitement cerné la réelle nature du problème de GoogleBooks). Le texte est un argumentaire absolument limpide et remarquable qu’il conviendrait de citer en entier. Quelques extraits pour vous mettre en bouche :

C’est ici le problème de la granularité documentaire que pose Lessig. Là où les bibliothèques se posent (parfois un peu trop …) la question de savoir quels types d’unités de connaissance peuvent “faire collection”, l’approche de Google Books transforme chaque opération intellectuelle d’indexation, d’extraction, de citation ou même de simple “lecture” en une “copie”, rendant toute tentative de collection aussi vaine que la lecture du Livre de sable de Borges. Résultat ?

Au-delà même des aspects législatifs et réglementaires qui complexifient et rendent monétisables les différentes traçabilités de ces copies (via, par exemple, les DRM “embarqués” dans icelles), la notion même de copie (telle que mise en œuvre par GoogleBooks et telle que combattue par Lessig), la notion même de copie est dangereuse parce qu’elle brise et révoque l’idée même de toute possibilité de continuité documentaire. Or sans continuité documentaire, toute agrégation, toute collection devient impossible. Sans continuité documentaire, toute culture cède la place à d’éphémères et innombrables acculturations temporaires.

La copie devient ainsi une fin en soi, éternellement “légiférable” et “monétisable” parce qu’éternellement reproductible et déconnectée de la totalité, de la complétude initiale qui lui permet d’exister en tant que telle. La copie devient une fin en soi, en même temps qu’elle cesse d’être l’instrument ou le support d’une pratique de recherche, de lecture, d’étude ou de partage. Elle s’industrialise**.

google3

Image CC ahhyeah sur Flickr

Lessig conclut son essai de la manière suivante :
The deal constructs a world in which control can be exercised at the level of a page, and maybe even a quote. It is a world in which every bit, every published word, could be licensed. It is the opposite of the old slogan about nuclear power: every bit gets metered, because metering is so cheap. We begin to sell access to knowledge the way we sell access to a movie theater, or a candy store, or a baseball stadium. We create not digital libraries, but digital bookstores: a Barnes & Noble without the Starbucks.” (…) “In real libraries, in real space, access is not metered at the level of the page (or the image on the page). Access is metered at the level of books (or magazines, or CDs, or DVDs). You get to browse through the whole of the library, for free. You get to check out the books you want to read, for free. The real-space library is a den protected from the metering of the market. It is of course created within a market; but like kids in a playroom, we let the life inside the library ignore the market outside.

We are about to change that past, radically. And the premise for that change is an accidental feature of the architecture of copyright law: that it regulates copies. In the physical world, this architecture means that the law regulates a small set of the possible uses of a copyrighted work. In the digital world, this architecture means that the law regulates everything. For every single use of creative work in digital space makes a copy. Thus–the lawyer insists–every single use must in some sense be licensed. Even the scanning of a book for the purpose of generating an index–the action at the core of the Google book case–triggers the law of copyright, because that scanning, again, produces a copy.

I have no clear view. I only know that the two extremes that are before us would, each of them, if operating alone, be awful for our culture. The one extreme, pushed by copyright abolitionists, that forces free access on every form of culture, would shrink the range and the diversity of culture. I am against abolitionism. And I see no reason to support the other extreme either–pushed by the content industry–that seeks to license every single use of culture, in whatever context. That extreme would radically shrink access to our past. (…) But this is too important a matter to be left to private enterprises and private deals. Private deals and outdated law are what got us into this mess. Whether or not a sensible public policy is possible, it is urgently needed.
Il y a effectivement urgence. Et cette urgence n’est pas comptable, elle ne se chiffre pas en nombre de millions de volumes numérisables à l’instant “t” ou en millions d’euros nécessaires à une numérisation exhaustive. Google ne fait que laisser se déployer son écosystème informationnel, il ne fait que laisser tourner à plein régime toute la force d’inertie générée par une tyrannie de l’accès à l’information érigée et maquillée en paradigme de l’organisation des connaissances. Mais la faute n’incombe pas à Google. Il n’appartient pas à Google de circonscrire son rayon d’action. Seule compte pour lui la possibilité de l’étendre, ce dont on ne saurait le blâmer tant nous profitons – pour l’instant – des effets de bord de ces incessantes extensions.

C’est aux états et aux théoriciens qu’il appartient de circonscrire le rayon d’action de ces écosystèmes aussi économiquement dérégulés qu’ils sont informationnellement cohérents. Et l’un des meilleurs et des plus sûrs moyens pour y parvenir est de délimiter un régime mondial des biens communs (ce qui n’est pas tout à fait la même chose que de parler de l’accès comme “d’un bien public mondial”). Des biens communs dont le centre de gravité est pour l’instant partout, ou tout du moins à chaque endroit dans ou pour lequel se pose la question d’une appropriation possiblement pérenne ; mais des biens communs dont la circonférence n’est pour l’instant… nulle part.

**sur la notion d’une industrialisation ad libitum de la copie, Ted Nelson au travers du concept de Versioning avait été une fois de plus, parfaitement visionnaire. Dans ses travaux, le versioning désigne : “l’ensemble des manières de gérer, indépendamment de tout niveau d’échelle, les procédures permettant de rattacher différentes versions d’un même document à un (des) auteur(s), tout en permettant à chacun de s’approprier tout ou partie des documents produits par d’autres ou par eux-mêmes, et en assurant un suivi des différentes modifications apportées.“) Soit le dispositif technique auquel Lessig réfléchit sans le nommer, permettant d’éviter toutes les “insanities” subséquentes à une gestion de la copie dont la finalité serait uniquement de marchandiser l’accès à tout fragment (= à toute copie) généré(e) ou inscrit(e) dans un parcours de lecture ou de navigation. Bon là j’ai pas trop le temps de creuser, mais pour les masochistes souhaitant approfondir la notion de versioning, une (petite) partie de ma thèse lui est consacrée (pp. 203 à 205).

Billet initialement publié sur Affordance.info

]]>
http://owni.fr/2010/03/16/google-livres-par-le-petit-book-de-la-tablette-13/feed/ 2
Google Book : le grand bal des chimères http://owni.fr/2009/11/26/reglement-google-book-acte-ii-le-grand-bal-des-chimeres/ http://owni.fr/2009/11/26/reglement-google-book-acte-ii-le-grand-bal-des-chimeres/#comments Thu, 26 Nov 2009 01:49:23 +0000 Admin http://owni.fr/?p=5735

Depuis le commencement, l’Affaire Google Book Search pose cette question : la force parviendra-telle à revêtir les habits du droit ?

Google a écrasé tous ses concurrents dans la course à la numérisation, grâce à sa puissance technologique et financière.

Mais il ne sera pas le maître tant qu’il n’aura pas obtenu l’onction du droit.

Un nouvel accord de règlement négocié entre Google et les parties au procès américain est intervenu le 13 novembre dernier.

Il modifie  en profondeur certains points essentiels, manifestant une réelle volonté de la part de Google de tenir compte des critiques formulées à son encontre.

Mais malgré tout, la question primitive revient toujours : celle de la légitimité du “coup de force” originel de Google.

Et derrière elle, celle de la possibilité pour une puissance privée de mettre en place de nouvelles règles que seule une loi serait en mesure de faire advenir.

Cet espoir est la chimère juridique de Google, mais il y en a bien d’autres dans cette affaire et ne sommes-nous pas tous en train de nous laisser entraîner dans un grand bal des chimères ?

(The Vampire. Chimere. Par jrover. CC-BY. Source : Flickr)

D’abord remonter un peu le fil du temps…

Le 18 septembre dernier, le Department of Justice américain adressait au juge Denis Chin en charge du procès Google Book Search un Statement of interest qui désapprouvait en profondeur l‘accord de règlement négocié en novembre 2008 entre le moteur de recherche et les auteurs et éditeurs américains, notamment sur la base de la violation des lois anti-trust. Cette intervention avait été précédée début septembre par des objections déposées par les gouvernements français et allemand au nom de la défense du droit d’auteur (et nous verrons que ces interventions ont eu un impact décisif sur le nouveau règlement). Face à cette charge, le juge avait décidé d’accepter à la demande des parties d’ajourner le jugement pour leur permettre de soumettre une nouvelle version de leur accord. Le suspens fut haletant puisque la date limite fut d’abord fixée au 6 novembre, puis au 9, puis au vendredi 13 (sic!) et c’est seulement à minuit (Midnight Madness ! comme dit James Grimmelman), à la dernière minute, que la nouvelle mouture du texte a été révélée, avec cet art consommé du story telling dont les américains ont le secret !

A six heures du matin le vendredi (avec le décalage horaire), je pêchais dans le flux grâce à Twitter (et @kcrews – excellente source sur la question)  un poisson informationnel bizarre qui s’avéra bien être la nouvelle version de la chimère… heu… du règlement. Depuis, le déluge des commentaires s’est abattu et j’essaie de ne pas me noyer… c’est déjà beaucoup…

Maintenant tâcher de comprendre et de se repérer…

Plus facile à dire qu’à faire… le texte du nouveau règlement est ici (368 pages absolument indigestes). On trouve là un document dit Amended Settlement Redline, qui permet de repérer exactement toutes les modifications (guère plus praticable). Pour commencer à appréhender l’étendue des changements, on peut se reporter utilement à cette synthèse en 3 pages ou à cette FAQ en deux pages (attention, ce sont des documents relativement objectifs, mais proposés par Google et ils sont en anglais – nous préparons avec Marlene une traduction en français).

Pour une première approche “en douceur”, j’ai un faible pour la synthèse sous forme de mots-clés réalisée par Michèle Battisti sur le site de l’ADBS. Si vous n’avez qu’une seule chose à lire et que vous voulez une présentation objective et d’une grande clarté,  allez là-bas.

On pourra également lire (en anglais, mais très instructif) le troisième volet du Guide for The Perplexed, publié par les trois principales associations de bibliothécaires américains, qui permet de cerner plus en détail la nature des changements.

Et ensuite, se faire une opinion…

Pour cela, il n’y a pas de secret : il faut se plonger dans les commentaires américains. Il est d’ailleurs fascinant de voir, quelques jours à peine après l’intervention du nouveau règlement, à quel point ce texte si complexe a déjà été fouillé, décortiqué, “déplié” par les analystes américains – juristes (James Grimmelman, Kenneth Crews, Pamela Samuelson), bibliothécaires (Karen Koyle, Peter Hirtle) , association de défense des libertés (EFF, ACLU). Depuis que je suis l’affaire Google book Search, j’ai pris conscience de la qualité et de la richesse du débat public aux Etats-Unis et il n’est pas abusif de dire que ce nouveau règlement est aussi quelque part un peu le fruit de cet esprit critique qui a su depuis des mois mettre à nu les failles et les risques inhérents à la précédente version du Règlement.

Rien de tel n’existe hélas vraiment en France et j’ai eu bien de la peine à trouver quelque chose de consistant écrit dans la langue de Molière à me mettre sous la dent…

J’ai essayé de rassembler un panorama de ces analyses et réactions américaines sous la forme d’un arbre de perles Pearltrees (excellent moyen de dompter l’infobésité). Vous pourrez y accéder en cliquant sur la perle ci-dessous, qui vous permettra de consulter des liens organisés de manière thématique (je continuerai à alimenter cet arbre au fil des évolutions).

Règlement GBS V2//

Pour se repérer dans le dédale de commentaires que génère le nouveau Règlement, un arbre de perles sur Pearltress

Vous constaterez que les débats outre atlantique font toujours rage et que le nouveau règlement, malgré de significatives concessions réalisées par Google, est loin d’avoir apaisé toutes les critiques… Il pouvait difficilement en être autrement…

LISEZ LA SUITE DE CE BILET SUR LE BLOG S.I.Lex

]]>
http://owni.fr/2009/11/26/reglement-google-book-acte-ii-le-grand-bal-des-chimeres/feed/ 3