Avertir le modérateur

12/10/2015

Autorité n’est pas notoriété. La lisibilité n’est pas soluble dans la visibilité. Eloge de la redocumentarisation, Soyons pragmatiques, n'ayons l'air de rien, LES LOIS DU CÔTÉ POSITIF DE LA REDOCUMENTARISATION.

Soyons pragmatiques, n'ayons l'air de rien

A l'heure de l'économie de l'attention, à l'heure où de plus en plus d'étudiants sont "équipés" de micro-ordinateurs, se pose de plus en plus la question d'autoriser ou d'interdire l'usage desdits micro-ordinateurs pendant les cours à l'université.

Enseignant principalement en IUT j'ai la chance d'effectuer la plupart de mes cours avec des promotions assez peu nombreuses (60 étudiants au maximum). Promotions dans lesquelles les étudiants qui ouvrent leurs portables est de plus en plus grande. D'où débat avec les collègues : que faire ??

  • Interdire tout le temps ? Débile quand on prétend en même temps promouvoir une littératie numérique.
  • Autoriser tout le temps et sans condition ? Ingérable.
  • N'autoriser que pour certains cours ? Pas cohérent.
  • Mettre en place une charte ? Beurk. Je garde encore le souvenir nauséeux des chartes des salles informatiques qui vous décourageaient de toute tentative d'approche d'ordinateurs par ailleurs en nombre notablement insuffisant et tournant à la vitesse d'une idée dans les circonvolutions cérébrales de Frédéric Lefebvre (c'est à dire très lentement). Et puis de toute façon, les étudiants ne lisent pas les chartes.
  • Laisser chaque enseignant décider ? Pas cohérent.
  • Couper l'accès Wifi ? Je suis pas fan de la castration chimique. Et puis la couverture Wifi sur les campus est quand même l'un des principaux acquis sociaux de la communauté étudiante (et accessoirement enseignante lors de conférences parfois ... euh ... ronflantes)

Résultat des discussions, pas grand-chose mais des débats intéressants.

De mon côté, je suis plutôt adepte d'une ouverture maximale aux NTAD (nouvelles technologies de l'attention et de la distraction) : blog du cours, présence sur les réseaux sociaux, etc ...

A ma connaissance toujours, peu d'universitaires se sont publiquement exprimés sur ces questions de "pratique", avec deux exceptions notables  :

  • André Gunthert : plutôt ni pour ni contre
  • Jean-Michel Salaün : assez clairement contre (de nombreux liens dans son billet et à l'appui de sa réflexion, notamment les toujours éclairantes synthèses d'Hubert Guillaud sur InternetActu)

Voilà donc le contrat que j'ai décidé de passer avec mes étudiants :

L'utilisation d'un micro-ordinateur pendant mes cours est autorisée aux conditions suivantes :

  • m'envoyer, à la fin du cours, un mail contenant (en fichier attaché) la prise de note du cours.
  • accepter, si la prise de note est jugée correcte, qu'elle soit (anonymisée puis) versée sur le blog du cours pour pouvoir être ainsi utile à d'autres (éventuellement absents ce jour-là ou momentanément distraits - car comme le rappelait Lao-Tseu-Point-Com, "point n'est besoin d'être connecté pour être distrait")
  • accepter que l'utilisation du portable pour le prochain cours soit soumise à une autorisation préalable en fonction du résultat de la prise de note transmise lors du cours précédent. 

Les avantages de ce contrat :

  • je pense que le nombre d'étudiants bossant "sur ordi" va considérablement se réduire :-)
  • pour celles et ceux qui joueront le jeu cela permettra d'enrichir le blog du cours et aussi de les sensibiliser "pratiquement" à une certaine idée du "collectif" / "partage" / "travail collaboratif". Accessoirement, cela peut aussi permettre de valoriser le travail de certains.
  • me permettre de "mesurer" les points du cours qui passent bien et ceux qui passent ... à la trappe

Les inconvénients :

  • ben ... ça va me faire un peu de boulot en plus. Mais bon, on n'en est plus à ça près. Et pour une fois que ce sera pas du boulot administratif en plus ;-)

Les limites :

  • le contrat ne vaut pour pour un nombre d'étudiants présent qui reste raisonnable. Si j'ai un cours en amphi demain avec 200 étudiants et qu'il y a 90 portables ouverts ... A ce niveau-là il faudrait envisager une prise de note mais "réservée" sur un wiki commun (par exemple).

Et vous, quelles sont vos solutions ??

P.S. : le titre de ce billet est évidemment un clin d'oeil.

Vous aimerez peut-être:

Eloge de la redocumentarisation

Titre alternatif de ce billet : Tout ce que vous avez toujours voulu savoir sur la redocumentarisation sans jamais avoir osé le demander.

PROLOGUE. La redocumentarisation n'est pas un joli mot. Non. La redocumentarisation est l'un des piliers de la théorie du document défendue par le collectif Roger T. Pédauque. Le grand gourou père fondateur de la redocumentarisation s'appelle Jean-Michel Salaün. Il existe un cours de redocumentarisation. La redocumentarisation est me semble être un vrai changement de paradigme dans l'organisation et l'accès à l'information.

Il existe une définition longue de la redocumentarisation :

"Documentariser, c'est traiter un document comme le font traditionnellement les professionnels de la documentation (bibliothécaires, archivistes, documentalistes) : le cataloguer, l'indexer, le résumer, le découper, éventuellement le renforcer, etc. L'objectif de la documentarisation est d'optimiser l'usage du document en permettant un meilleur accès à son contenu et une meilleure mise en contexte. (...)
Le numérique implique aujourd’hui une re-documentarisation. Dans un premier temps, il s'agit de traiter à nouveau des documents traditionnels qui ont été transposés sur un support numérique en utilisant les fonctionnalités de ce dernier. Mais le processus ne se réduit pas à cette simple transposition.
La stabilité des documents, protégée par leur inscription pérenne sur un support est fragilisée, remplacée par celle moins sûre d’une stabilité des structures dans des formats de fichiers qui séparent le contenu de sa mise en forme. Les thésaurus laissent la place au traitement statistique de la langue, aux ontologies, aux « tags » ou aux moteurs. Le document numérique appartient maintenant à un espace régi par les lois des grands nombres : parce qu’il est mis en relation avec un nombre quasi-infini de ses semblables et parce qu’il est potentiellement visible par un nombre non-fini de lecteurs. Dès lors, bien des unités documentaires du Web ne ressemblent plus que de très loin aux documents traditionnels, tout particulièrement dans le Web 2.0, dans la construction du Web sémantique ou tout simplement sur les sites dynamiques. Il s'agit alors d'apporter toutes les métadonnées indispensables à la reconstruction à la volée de documents et toute la traçabilité de son cycle. Les documents traditionnels eux-mêmes, dans leur transposition numérique, acquièrent la plasticité des documents nativement numériques et peuvent profiter des facilités de cette nouvelle dimension." Jean-Michel Salaün

Il existe une définition courte de la  redocumentarisation :

"Redocumentariser, c’est documentariser à nouveau un document ou une collection en permettant à un bénéficiaire de réarticuler les contenus sémiotiques selon son interprétation et ses usages à la fois selon la dimension interne (extraction de morceaux musicaux - ou ici identitaires -  pour les ré-agencer avec d’autres, ou annotations en marge d’un livre - d’un profil -  suggérant des parcours de lecture différents…) ou externe (organisation d’une collection, d’une archive, d’un catalogue privé croisant les ressources de différents éditeurs selon une nouvelle logique d’association)." Manuel Zacklad

Il flotte dans l'air comme un parfum de redocumentarisation. Vous (oui, vous) avez probablement déjà éprouvé un sentiment diffus de redocumentarisation, vous (oui oui, vous) avez déjà fait l'expérience de la redocumentarisation : en insérant ou en encapsulant un widget ou un film sur votre blog, en tagguant, en indexant des photos, des documents, en travaillant à plusieurs sur un même document en ligne. Vous êtes d'ailleurs (oui ...) presque tous déjà redocumentarisés (vu que primo, l'homme est un document comme les autres, et que deuxio, le premier terrain documentaire c'est moi enfin vous enfin nous quoi).

La science de l'information a, au fil du temps, construit ses lois. Des lois bibliothéconomiques (célèbres lois de Ranganathan), des lois bibliométriques et scientométriques (lois de Shannon, de Zipf, de Bradford, de Pareto, de Lotka ...).

Ce billet se propose de présenter les lois possibles de la redocumentarisation.

LES LOIS DU CÔTÉ POSITIF DE LA REDOCUMENTARISATION.

***Le postulat de Broudoux.

  • Dans le cadre de la redocumentarisation, les processus d'autoritativité dépassent la question de l'autorité (auctoritas) et servent de cadre de référence aux pratiques discursives et documentaires.

(l'autoritativé : "désigne le fait de devenir auteur sans autorité préalable et est une notion convoquée pour traduire des conduites émergentes d'auto-édition et de publication sur le WWW" Evelyne Broudoux)

***La loi d'Ertzscheid :-)

Déjà exposée ici mais, après réflexion, de manière finalement inexacte et confuse. Donc je recommence.

  • L'empreinte autoritative (EA) d'un document est proportionnelle à l'ampleur de ses réagencements documentaires (RD).
  • L'autoritativité (a) d'un document est inversement proportionnelle à l'ampleur de ses réagencements documentaires (RD).
  • Il n'existe pas de lien de causalité directe entre l'augmentation de l'empreinte autoritative  (EA) d'un document et la diminution (ou la remise en cause) de son autorité (A). 

Exemple : un document, une page wikipédia ou un site largement partagé et taggué dans des sites de signets collaboratifs (delicious) dispose d'une empreinte autoritative (EA) très forte. Cette empreinte autoritative (EA) peut permettre de compenser une absence d'autorité (= ce n'est pas un universitaire qui a rédigé cette page), mais elle peut également l'enrichir ou la compenser entièrement.

1er corrélat de la loi d'Ertzscheid : Si le document émane de quelqu'un disposant d'une autorité reconnue, l'empreinte autoritative forte viendra "en appui", viendra conforter cette autorité initiale.

2nd corrélat de la loi d'Ertzscheid : Si le document s'inscrit dans le cadre d'une autoritativité faible (= il n'est pas rédigé par quelqu'un disposant d'une autorité académique ou institutionnelle reconnue ou repérable), l'accroissement de son empreinte autoritative va faire proportionnellement décroître son autoritativité initiale.

Exception : il existe une exception à cette loi, ou plus exactement - la loi ne souffrant pas l'exception - il existe un détournement de cette loi : c'est le phénomène de phagocytose documentaire, qui correspond à une industrialisation de la redocumentarisation (cf infra).

Addendum : les usages déviants de la redocumentarisation (ou TRD - tentatives de redocumentarisation déviantes) sont légion et notamment illustrés par les guerres d'édition Wikipédiennes. Mais on peut également considérer le Google Bombing comme une TRD. Ainsi que la redocumentarisation "à charge" ou ad hominem, dont Frédéric Lefebvre est à lui tout seul l'alpha et l'oméga.

***Le principe d'Enikao

  • Pour l'usager, la valeur (sociale et documentaire) de la redocumentarisation est d'autant plus forte que les contenus redocumentarisés tendent vers l'infini (dissémination et réagencements maximaux) et que le temps d'usage (recherche, exploitation, reproduction ou convocation immédiate) desdits contenus est fini.

Nota-Bene : première formulation de la loi dite d'EniKao.

***L'axiome de Cardon.

  • Axiome de Cardon : la redocumentarisation marque, à l'échelle du document, la force des coopérations faibles.

Rappel : "la force des coopérations faibles" (également connue sous le nom d'axiome de Cardon) désigne "les coopérations qui créent une dynamique de bien commun à partir de logiques d’intérêt personnel." (Internet Actu 1 et 2)

LES LOIS DU CÔTÉ OBSCUR DE LA REDOCUMENTARISATION

***Le principe d'Orriggi (dit également principe kakonomique)

  • La redocumentarisation se nourrit de kakonomie(s) et de la force des coopérations faibles

Rappel : "La kakonomie c'est l'étrange mais très largement partagée préférence pour des échanges médiocres tant que personne ne trouve à s'en plaindre." (pour plus d'infos sur la kakonomie)

***Théorème de Casilli. Il existe des pratiques pulsionnelles (et parfois compulsives) de la redocumentarisation. Leur enjeu est alors d'affirmer ou de marquer la cohésion avec "son" groupe (= Bonding) ou de chercher à établir des passerelles avec d'autres groupes (= Bridging). Voir Bonding or bridging (diapo 14).

***Loi de Senett

  • "la complexité des moyens de communication dépasse notre capacité à en faire bon usage et, notamment, à établir une véritable coopération." (Source)

Corrélat de la loi de Senett : mais bon on va quand même essayer :-)

***Axiome de Wolton

  • A la différence de la radio et de la télévision qui sont des objets d'étude honorables, Internet est une utopie techniciste nauséabonde et dangereuse. La redocumentarisation pue.
  • "Il ne suffit pas que les messages et les informations circulent vite pour que les Hommes se comprennent mieux. Transmission et interaction ne sont pas synonymes de communication." (in Informer n'est pas communiquer.) Mais transmission et interaction sont bien le coeur de  la redocumentarisation.

***Pareto, Bradford, Lotka, Zipf et les autres.

Les lois scientométriques semblent également et empiriquement s'appliquer à la redocumentarisation, tout au moins dans l'acception suivante :

"(...) la forme des distributions que l'on observe dans le domaine de la scientométrie ou de la bibliométrie et mise en évidence par les lois empiriques de Bradford, Lotka, Zipf (et Pareto en économie), exprime toujours un état de concentration forte d'un côté et d'une large dispersion de l'autre, c'est-à-dire une asymétrie (skewness en anglais). Elles décrivent toutes une distribution profondément asymétrique comme étant une propriété essentielle du champ social en général et du champ scientifique en particulier (Bradford, Lotka, Price)." Xavier Polanco, Aux sources de la scientométrie.

 Cette asymétrie a été remise au goût du jour par la théorie de la longue traîne.

CE QU'IL FAUT AUSSI SAVOIR SUR LA REDOCUMENTARISATION

***Les 4 modalités de la redocumentarisation, c'est à dire les 4 manières dont peuvent être réarticulés les contenus sémiotiques (déjà décrites dans ce billet) :

  1. la réciprocité : échange de liens, backlinks, trackbacks, etc ...
  2. la propulsion : dissémination de contenus par le biais de bouton-poussoirs et autres "like", "share" ou "recommend"
  3. le parasitage : il s'agit ici d'une réciprocité subie. Un exemple dans ce billet qui illustre la manière dont les sites sociaux (Facebook, Twitter) influent sur l'organisation de la hiérarchie de liens des moteurs (Google & Bing).
  4. le phagocytage (ou phagocytose) : déjà évoquée plus haut (exemple détaillé ici)

***Homme ou machine ? La redocumentarisation peut être humaine (interactions homme-document et/ou interactions homme-homme documentées) ou machinique (cf le plug-in de la redocumentarisation). Elle est, de facto, le plus souvent hybride, mêlant dans une logique documentaire des interactions humaines et machiniques.

***Topos ou logos ? La redocumentarisation ne concerne pas que les hommes (qui sont des documents comme les autres), les documents (ou fragments de documents) et les méthodes documentaires (folksonomies notamment). Elle concerne également le monde physique, les objets et les lieux (d'où la constitution de folksotopies).

***Texte ou image ? La redocumentarisation des images semble - pour l'instant - disposer de modalités plus restreintes que celle du texte. On trouvera ainsi principalement une redocumentarisation à visée cosmétique et moralisante, ou bien l'ensemble des technologies de l'artefact qui contraignent à repenser la valeur de preuve habituellement attachée au fait documentaire.

***Tools or trends ? La redocumentarisation est médiée par des techniques (fonctionalités) et par des outils (environnements logiciels ou écosystèmes de site - facebook par exemple). Elle dispose également d'un certain nombre de méta-outils.

***Manifeste de la redocumentarisation. La recherche autour de la redocumentarisation doit s'efforcer de développer ce type de méta-outils. Il y a une ingénierie de la redocumentarisation déjà existante (algorithmes des moteurs de recherche - PageRank notamment, fonctions de suggestion des moteurs de recherche, ingénieries de la recommandation qui la plupart du temps utilisent les principes de la redocumentarisation) ; il faut développer une rétro-ingénierie  ("reverse engineering") de la redocumentarisation, dont la communauté scientifique et les citoyens pourront s'emparer pour s'assurer d'une traçabilité contrôlée sur des processus de redocumentarisation relevant de la sphère privée ou touchant à des intérêts communs, pour pouvoir rétablir - ou infirmer - la valeur de preuve des documents concernés, le degré d'autorité (ou d'autoritativité) des personnes impliquées. Pour pouvoir donner un sens, redonner du sens à des faits documentaires, pour cesser de se contenter de l'observation d'effets documentaires sur-documentarisés mais assez mal ou improprement documentés. A ce titre, le journalisme de données (data-journalism) que représente - avec d'autres - le site OWNI, fait figure de pionnier. Cette rétro-ingénierie est d'autant plus nécessaire que les phénomènes abrupts de surdocumentarisation, risquent de se multiplier à l'avenir (Wikileaks n'en est que l'un des exemples).

***L'amateur, l'entrepreneur, l'industrie et l'état.

  • Amateur. La redocumentarisation relève, pour partie, de pratiques amateurs, d'un "bricolage" parfois inconscient, d'un artisanat souvent communautaire. C'est la cas de la grande majorité des pratiques d'exposition de soi (et de ses documents ou statuts ou amis), et des interactions documentaires de premier niveau c'est à dire limitées à un cercle interpersonnel très réduit et/ou à un corpus restreint de documents (ou de fragments de documents ou de personnes - exemple déjà évoqué de Frédéric Lefebvre) et ce sans logique conservatoire (= sans avoir besoin  d'inscrire cette redocumentarisation dans la durée).
  • L'entrepreneur et l'état. Elle peut également relever d'une logique institutionnelle (redocumentarisation d'état) ou entrepreunariale (opérations de redocumentarisation liées à la communication de crise, au positionnement dans les moteurs de recherche, à l'e-reputation, etc.)
  • L'industrie. Elle relève enfin de pratiques industrielles. Cette infographie sur le fonctionnement des fermes de contenu pourrait à elle seule faire office de cours sur les industries lourdes de la redocumentarisation. Le content-spinning (ou réécriture de contenu automatique ou semi-automatique) en est la chaîne de montage autour de laquelle s'affairent parfois plusieurs milliers d'OS (ouvriers spécialisés) en redocumentarisation peu qualifiée. 

***Les 5 lois de la redocumentarisation (tribute to Ranganathan)

  1. Tout est document.
  2. Tout fait document.
  3. Tout document est en transformation (et en renégociation) permanente.
  4. Tout document est fait pour pouvoir être redocumentarisé.
  5. La redocumentarisation est entropique et peut à son tour être l'objet d'une redocumentarisation.

Post-scriptum : mes plus plates excuses aux victimes de ce name dropping scientifique :-)

Post-scriptum redocumentarisé : à l'exception de la loi de Senett et de l'axiome de Wolton, les autres éléments d'analyse présentés dans ce billet sont tout à fait sérieux :

D’un numérique l’autre : des moteurs, des libraires, et des usages.

Je l'avais promis l'autre jour à la suite du billet sur le lancement de 1001libraires.com. Voici donc le texte rédigé pour les "Cahiers du SLF", numéro thématique (hélas épuisé) portant sur "Le livre à l'ère du numérique". <Update> François Bon remet aussi à la une sa contribution de l'époque. J'avais déjà dit tout le bien que j'en pensais, elle comprend notamment, ce qui reste pour moi une des meilleurs définitions du net (celle de la "valise de manuscrit"). Donc, profitez-en ;-) </Update>

Rappel, nous sommes alors en Novembre 2006. Il y a plus de 5 ans. Si je devais aujourd'hui changer le titre de cet article, je choisirai l'une des deux "formules" qu'il contient :

  • Du service du livre au livre-service, ou ...
  • Pour une économie des autorités.

En gras et en rouge, mes commentaires "d'actualité" sur la manière dont ce texte a bien et parfois mal vieilli. On y va.

Olivier Ertzscheid.
D’un numérique l’autre : des moteurs, des libraires, et des usages.


1. Chronique d’une numérisation annoncée.

Une équation et quelques inconnues de taille
L’ensemble des textes disponibles sur la planète sera numérisé. Il ne s’agit plus de savoir si le livre sera numérique ou non. Il le sera nécessairement. Pour autant, il paraît aussi certain que le livre ne sera pas « que » numérique. Les inconnues de cette équation concernent ceux qui numériseront, le public qui sera concerné et les « nouvelles » marchandisations qui prendront place en amont et en aval de cette chaîne. Soit la part du numérique dans les pratiques et les modalités d’appropriation du livre. Avec, pour les libraires vis à vis de leur public-lecteur, le devoir de continuer d’offrir le meilleur choix possible à ces contenus.

Avec l’arrivée des moteurs de recherche – Google notamment – dans le domaine de la numérisation et de la marchandisation des biens culturels, c’est  toute la chaîne de sélection, d’édition et de diffusion du livre qui doit faire face à un bouleversement inédit sur deux plans : la massification des accès et des usages d’une part, et l’élargissement du spectre des pratiques de consommation d’autre part. La lecture sur support numérique et autres dispositifs technologiques l’autorisant comme les encres ou les papiers électroniques, n’en sont que quelques exemples.

Google Grand Numérisateur ?
6,14 milliards de dollars de chiffre d’affaire en 2005. 6500 salariés dans le monde. Et plus de 3 visites sur 4 en provenance directe de ce moteur. Quel que soit votre site, votre chiffre d’affaire, votre secteur d’activité sur Internet, plus de trois visiteurs sur quatre vous seront envoyés par Google. Quand une telle société, côtée en bourse, dotée d’un gigantesque public captif, disposant d’une offre de service multiforme et d’un modèle d’affaire orienté presqu’entièrement vers les revenus de la publicité en ligne, quand une telle société en vient à s’intéresser à la mise en ligne et au commerce des livres, c’est l’ensemble d’un secteur économique qui se trouve durablement et radicalement impacté.

De la guerre de l’information à celle de la connaissance.
Le marché est conséquent . La dynamique des accès est déjà clairement à l’avantage des moteurs. Mais les pratiques sont encore émergentes. Il s’agit donc, en devançant les secondes et en s’appuyant sur les premiers d’entrer sur ce marché, pour le verrouiller de l’intérieur et remporter la plus grosse part des gains. Car les « moteurs de recherche » ne le sont plus qu’à la marge. Leur véritable activité, la seule génératrice de chiffre d’affaire, est celle de la monétisation publicitaire de l’ensemble du bouquet de services qu’ils offrent : de la découverte ou de la création du besoin jusqu’à sa transformation en acte d’achat, l’ensemble du circuit de consommation est ainsi réalisé en cercle fermé.  La bataille de l’information étant gagnée à leur entier bénéfice – la crise de la presse en ligne en témoigne – les moteurs entrent dans une autre guerre commerciale dont le livre n’est que l’un des premiers retranchements, celle de la connaissance.

Trésors du catalogue
Le point commun à l’ensemble des acteurs concernés par l’irruption des moteurs sur ce secteur est le catalogue. Catalogue des libraires, des éditeurs, des bibliothèques et désormais donc, des moteurs. Car finalement assez loin de la numérisation massive annoncée, c’est bien la constitution d’un catalogue « universel » pensé non plus comme un outil de repérage et de classement mais comme une « palmarès consumériste » (prime au plus accédé) qui est la partie immergée de l’iceberg de la numérisation. Pour Google, offrir le catalogue le plus large possible est d’abord l’occasion de conforter une position déjà outrageusement dominante de guichet unique d’accès à l’information, puis à la connaissance.


2. Google books : genèse d’une trilogie.
La première étape fût celle du programme dit « bibliothèque », dans lequel Google se propose de numériser gratuitement les ouvrages dans le domaine public de quelques prestigieuses bibliothèques. Le texte intégral étant dès lors disponible dans l’interface Google Books.
La seconde est  celle de Google Books lui-même et son programme de numérisation d’œuvres. Nous y reviendrons en détail ci-après.
La troisième est celle baptisée Google Scholar qui met à disposition (en texte intégral ou non) des ouvrages et des articles scientifiques, parfois numérisés par Google lui-même, parfois « récupérés » dans des entrepôts existants (archives ouvertes). Sur ce point, et à l’inverse de la stratégie – d’apparence – calamiteuse à l’origine des procès avec les éditeurs (voir plus loin), le moteur a ainsi passé un accord avec le projet MUSE qui rassemble 270 revues éditées par près de 40 éditeurs.

Les enseignements à tirer de ce tryptique sont clairs : Google développe sa stratégie commerciale à destination de ces trois piliers de la culture que sont les bibliothèques (1), les éditeurs scientifiques et les éditeurs « généralistes ». Les lignes de fracture sont elles aussi limpides : les « grands » n’ont d’autre choix que celui d’une opposition frontale et juridique pour préserver l’avantage acquis sur les « petits », qui voient là une occasion inespérée de redistribuer les cartes de la visibilité des fonds concernés et d’attirer ainsi une nouvelle manne financière. Sur ces deux lignes, Google est gagnant à chaque fois : aucun procès n’a pour l’instant abouti et il est peu probable qu’ils aboutissent un jour étant donné d’une part la ligne de défense (« fair use ») mise en avant par Google (voir plus bas) et d’autre part l’effet d’échelle induit par une présence sous forme de lien sponsorisé dans l’interface Google Books. Aucune société ne refuserait une publicité gratuite sur la première chaîne privée française avant la grand messe du 20 heures. Google le sait. Les éditeurs et les libraires (petits ou grands), le savent également.

Retour sur Google Books
Revenons donc  brièvement sur le cœur du débat : Google Books et la numérisation d’ouvrages encore sous droits. Initialement et bien maladroitement nommé « Google Print » ce service concerne l’ensemble de la politique de numérisation de Google. D’après les chiffres cités par Lawrence Lessig, Google Books mettrait à disposition 18 millions d’ouvrages dont :
-    16% sont dans le domaine public avec un accès de type feuilletage au texte intégral
-    9% sont sous presse et couverts par le copyright avec un accès selon les desideratas des auteurs/éditeurs.
-    75% sont encore sous copyright « théorique » (1923 pour les USA) mais ne sont plus imprimés, avec cette fois un affichage d’extraits (snippet view) autour du mot-clé recherché (2).

L’ensemble du service est – faussement – garanti sans possibilité d’enregistrement, de sauvegarde ou même d’impression pour l’usager.  Les deux premières catégories (25 % de l’ensemble) ne posent aucun problème. Pour les 75 % restant, l’argument officiel des éditeurs anglo-saxons est celui d’une infraction massive aux règles du copyright. Ces derniers réclamant une règle de type « opt-in » (si vous voulez copier l’œuvre de quelqu’un vous devez obtenir sa permission), à laquelle Google oppose l’usage équitable (« fair-use ») des œuvres sous droits, s’autorisant ainsi avec les livres ce qu’il fait depuis ses débuts avec l’ensemble du web : une indexation/numérisation sur le mode de l’opt-out (nous prenons tout, et à vous de nous demander à « sortir » de notre base). Tant qu’il ne sera pas possible d’établir clairement que Google tire un quelconque « profit » de son affaire sans en reverser une partie aux auteurs, la règle anglo-saxonne du fair-use l’emportera.
Mais la vraie motivation des éditeurs n’est pas celle de l’irrespect des règles du copyright : pour proposer au public des vues d’extraits sur des œuvres protégées, Google a auparavant numérisé l’ensemble du texte, dont il pourrait disposer à son gré lorsqu’il décidera de se faire marchand. En d’autres termes, Google constitue inexorablement la plus grand base d’ouvrages numérisés de la planète. LE catalogue. Et à l’inverse du programme « bibliothèque », il ne reverse pas de copie numérique aux éditeurs comme il le fait avec les bibliothèques et leurs ouvrages du domaine public.

3. QUELLES LOGIQUES POUR QUELS ESPACES ET QUELLES INITIATIVES?

Des logiques d’équilibre.
Des grossistes (FNAC, Amazon et dans une moindre mesure les chaînes Leclerc), des moteurs, des éditeurs et des libraires. Chacun de ces acteurs dispose d’un avantage sinon concurrentiel du moins substanciel sur les autres.
Celui des moteurs concerne l’accès. Un accès non pas « pour la consultation » mais « pour le repérage. » L’avènement des dispositifs de lecture sur écran capables de rivaliser avec le confort d’une lecture papier étant encore relativement lointain pour le livre (le cas étant différent pour la presse quotidienne, se prêtant davantage à une lecture numérique, de nombreux effets d’annonce ayant d’ailleurs eu lieu récemment, celui du journal « Les Echos » étant le premier en date).
Celui des grossistes concerne l’effet dit de « la longue traîne » (3) : étant les seuls à pouvoir disposer d’un tel fond de catalogue exploitable, ils maîtrisent ainsi une certaine temporalité éditoriale.
Et celui des libraires ? Ils ont pour eux l’avantage du terrain et la connaissance du public. Leur dimension de conseil est évidemment tout autre que les systèmes dits « de recommandation » en vigueur chez les marchands en ligne (de type « ceux qui ont aimé ont aussi aimé »), systèmes dont il est par ailleurs établi qu’ils ne sont  rien d’autre des publicités déguisées. Le conseil contre le marketing. La préhension de l’objet livre contre l’appréhension de l’achat impulsif électronique. Une temporalité libérée intégrant les variabilités dimensionnelles du choix de la lecture et de la possession de l’objet livre.

Des forces d’opposition.
Les effets collatéraux de la bataille enclenchée ne furent pas long à faire écho  aux procédures déjà engagées outre atlantique par les très puissantes AAP (procès Septembre 2005) et Author’s Guild (octobre 2005). Sans en reprendre l’entière chronologie, rappelons que le SNE et le service juridique de Gallimard ont annoncé fin Janvier 2006 leur intention de poursuivre Google en justice suite à des numérisations « sans autorisation ». Plus récemment (Juin 2006) ce fut autour d’Hachette et de la Martinière de monter au créneau au nom cette fois d’une dévalorisation de l’image donnée des livres sous la forme de « bouts de papiers déchirés ». A l’inverse, quelques « petits » éditeurs adoptent des positions strictement opposées. Après les éditions de l’Eclat, ce sont les éditions Kargo qui plaident pour un partenariat « constructif » avec Google au nom d’un accroissement bien légitime de leur « visibilité ».
Pour autant les arguments mis en avant par Alexandre Laumonier (4) attestent d’une logique à courte vue qui sans autre ambition risquerait de se retourner contre ses promoteurs : ainsi le fait que les liens commerciaux n’existent pas « pour l’ instant » ou encore que Google « ne prenne pas de commission sur la vente d’un ouvrage » sont des logiques nécessairement caduques, et ce dans un futur très proche. Le modèle économique de Google est celui d’une agence média. Plus de 80% de ses revenus sont directement issus de son offre publicitaire (liens sponsorisés). Dans une économie numérique au sein de laquelle le web s’affirme comme un média de masse, la « monétisation » de l’ensemble des services offerts est inéluctable. Le lancement du tout récent Google Checkout, équivalent du site de paiement sécurisé PayPal, confirme qu’un droit d’entrée sera tôt ou tard prélevé par Google. Le seule question est : à quelle hauteur ?


Des usages en rupture
Les usagers lecteurs à l’heure du numérique ont à leur disposition les outils leur permettant d’assumer leur envie du moindre coût. Un site comparatif comme http://isbn.nu permet de choisir un livre à des coûts variant de 8 à 20 dollars pour des délais de livraisons allant de moins de 3 jours à plus de 8 semaines. La loi Lang repose en paix. Et la loi du prix unique du livre numérique ne la ressuscitera pas (cf le débat sur les clauses d'extra-territorialité de ladite loi).

Sous un autre angle, la résistance du livre à des modes de consommation « fractalisés » fait également figure d’inconnue. L’exemple emblématique étant ici celui de la musique en ligne : en un morceau, on retrouve un album ; en un album, un artiste. Consommer un morceau suffit à assimiler la production d’un « artiste ».  Peut-on consommer des livres « au chapitre », comme l’on consomme de la musique au « single » ? Bien entendu s’ils sont formatés pour.

Rupture des usages enfin du côté des libraires eux-mêmes qui se demandent légitimement dans quelle mesure les outils de recherche, constitués en autant de base de données ou d’entrepôts littéraires, peuvent prendre le relais, voire supplanter les acteurs actuellement dépositaires des seuls indicateurs reconnus pour le choix et la diffusion des textes : car les moteurs scannent, les moteurs vendent, les moteurs bradent, les moteurs font (ou feront) lire, mais jamais, à aucun moment, les moteurs ne lisent. (sauf à parler de lectures industrielles) A aucun moment ils ne sont ces primo-lecteurs, ces découvreurs, ces connaisseurs que sont les libraires et les éditeurs. Voilà pour le déjà lu déjà vendu. Mais qu’adviendra-t-il  des productions dont les ventes se situent en dessous de 5000 exemplaires, et pour lesquelles les librairies indépendantes sont décisives ?

Du service du livre au « livre-service »
Livropolis qui propose exclusivement et sur abonnement de la lecture en ligne sans téléchargement. Lekti-ecriture, « libre association de près de 40 éditeurs indépendants francophones », s’affirme comme une pluralité d’« espaces de l'édition indépendante réunis afin d'assurer une meilleure visibilité de leur catalogue auprès du grand public. »
Les « webcasts littéraires » de la SNCF (5) en partenariat avec l’éditeur Nouveau Monde proposant des extraits d’œuvres et quelques textes intégraux en téléchargement.
Pas un mois, pas une semaine ne passe depuis ce début d’année sans que de nouvelle lignes de mouvement ne viennent se dessiner en ouvrant de nouvelles marges de négociation ou de nouvelles lignes de rupture. Ajoutons à cela les quelques électrons libres tels les éditions Lulu.com et leur modèle d’impression à la demande qui pourraient très rapidement constituer un avantage stratégique pour les forces en présence, permettant aux libraires d’atténuer l’effet « fond de catalogue », et aux moteurs les réticences concernant la lecture « tout en ligne ».
A ces expérimentations, à ces modèles « alternatifs », s’ajoutent deux tendances de fond en terme de consommation de l’information que les libraires se doivent d’intégrer à leur effort de prospective sur les usages à venir. La première est celle de la personnalisation et de la géolocalisation. Déjà en vigueur dans l’offre de Google permettant à ses partenaires (éditeurs ou libraires) d’afficher un lien commercial vers leur boutique en fonction du lieu géographique depuis lequel aura été saisie la requête. A l’image de ce qu’il fît d’abord avec les pizzerias, Google propose désormais de « trouver les libraires près de chez vous ».
La seconde est celle de l’informatique nomade ou ambiante (« everyware ») qui annonce l’explosion d’un Internet Mobile et de modes de consultation/consommation à l’avenant. Sur 1001libraires, la géolocalisation "métier" (=trouver une librairie près de chez soi) est intégrée, même si elle contribue surtout à mettre en lumière les zones désertiques ... En revanche la géolocalisation côté usager n'est pas du tout pensée (alors que les services de "chek-in du type de Foursquare sont, eux, plébiscités)
En ces deux domaines, des initiatives et des partenariats négociés sont encore possible sans qu’ils n’équivalent à autant d’assujettissements


4. UN MARCHE DE DUPE : LES RAISONS DE LA COLERE.

Les usagers de ces services sont pour l’instant aux prises avec un persistant mirage de service entretenant une totale illusion qualitative.
 
Gratuité ?
La gratuité d’un accès morcelé, la gratuité « vendue » à la publicité ciblée, est une baudruche, un leurre. A l’échelle des biens culturels, le modèle de la gratuité financée par la publicité n’a pas jusqu’à lors fait la preuve des vertus universalistes dont il se pare pourtant volontiers … Le mélange des genres et des marchés (de la presse et de l’armement s’il faut prendre un exemple parmi d’autres) donne assez peu de résultats probants.

Facilité de l’acte d’achat ?
Acheter n’est pas louer. Les vidéos « vendues » par Google sur son service éponyme ne sont visualisables qu’en ligne, une fois connecté au service Google. Impossible également de les graver ou même de les télécharger. Cet « achat » est donc dénué de toute appropriation. Il n’est qu’une location déguisée. Ce modèle pourrait être transposé au livre. Bingo :-) Ce modèle EST aujourd'hui transposé au livre. Cf les services "cloud" du Google et des autres où l'on n'achète qu'une consultation.

Numériser n’est pas organiser.
Le catalogue peut certes s’accomoder de nombre de marchandisations, mais il ne saurait être entièrement dépourvu d’un accès pensé et raisonné. Ce qui est pourtant le cas du service offert par Google, ou le seul critère de hiérarchisation est celui du nombre de clics. Plus un ouvrage est « accédé » au sein même du service, et plus il a de chances d’apparaître dans les premiers résultats. Soit une logique marketée de tête de gondole. La primauté non négociable d’une logique de classement purement comptable. Ajoutons que plus de 8 usagers sur 10 ne vont jamais au delà de la première page de résultats du moteur, ce qui revient à reléguer en un nouvel enfer l’immense majorité des ouvrages proposés.

Indexer n’est pas choisir et numériser n’est pas éditer.
Au lancement du service Google Books, les chiffres annoncés sur le nombre de pages effectivement numérisées furent aussi fantaisistes que désarmants. La numérisation elle-même (certes rapide) est  souvent bien loin de toute charte professionnelle (décalages, ombres, texte illisible du fait de la reliure …) La consultation est chaotique et clairement de moindre qualité que l’ensemble des autres projets de bibliothèque numérique (dont Gallica de la BNF n’est qu’un exemple parmi d’autres).

Autorité n’est pas notoriété. La lisibilité n’est pas soluble dans la visibilité.
Les moteurs de recherche par nature, et les grossistes du livre du fait de leur modèle économique, ne se soucient que de notoriété. Sites les plus accédés, ouvrages les plus vendus, auteurs les plus vendeurs. Le débat au cœur de  la numérisation des livres est celui de nos autorités. Libraires et éditeurs sont les garants d’une économie des autorités en face d’une avalanche de services ayant pour seule ambition et pour seul modèle économique celui de la notoriété. Economie des autoritativités serait plus juste.

5. Librairie et numérique : un métier, son centre et sa périphérie.

Les métiers, tous les métiers du livre, de l’enseignant au bibliothécaire, du libraire à l’éditeur, viennent, chacun à leur tour, se mirer dans ces miroirs déformants que sont les moteurs de recherche et leur alchimie numérique marchande. Le peu de recul que dont nous bénéficions en cette terra numerica montre qu’à chaque fois la compétence humaine est remise au centre du circuit de sélection, de diffusion et d’appropriation des contenus « culturels » : la formation à distance ne saurait se passer d’enseignement « en présentiel » ; la bibliothèque numérique n’est rien sans un plan de classement « raisonné ». De même, l’édition numérique devra savoir externaliser des services sans se priver de sa substance, de son cœur de métier. La librairie numérique indépendante à son tour, doit redéfinir le centre et la périphérie de son métier. A ce titre, le lancement de 1001libraires est un échec, parce qu'une reproduction de l'identique. Ce modèle (et le mode de raisonnement qui le sous-tend) ne tiendra qu'un temps (très court).

Le web est devenu un média de masse, tant du point de vue de sa portée que du temps qui lui est  accordé (6). Cette nouvelle massification des usages alliée à de nouveaux modes de consommation des biens culturels est assurément un rude coup porté au secteur de l’édition et de la librairie indépendante. Mais Google, dans l’histoire séculaire du livre et de la lecture est pour l’instant un épiphénomène.
Si la marchandisation de l’ensemble des biens et produits culturels selon un axe de consommation chaque jour plus technophile est inéluctable, elle ne condamne rien d’autre que des modes de pensée qui seraient à l’image des modes de consommation qu’ils critiquent : univoques, manichéens, monolithiques. Si les éditeurs et libraires n’ont plus guère le temps de l’analyse, ils ont encore celui de l’initiative. (rappel : nous sommes en 2006, aux balbutiements - à prise rapide - des services autour du livre numérique. 5 ans plus tard, ce temps de l'initiative est passablement distendu) Les moteurs leurs en laissent l’espace avec la possibilité offerte de promouvoir à une échelle inédite le formidable capital métier qui est celui de la librairie indépendante. Il est dommage qu'ils ne prennent cette initiative qu'en 2011, alors que presque toutes les cartes sont déjà distribuées. Et il est dommage que l'initiative ne soit que la transposition (maladroite) de leur métier dans le numérique.
Ce que propose Google aux grandes centrales de distribution et aux grossistes du livres c’est une concurrence acharnée avec à l’horizon, seulement deux perspectives : le partenariat sans conditions ou une disparition programmée.
Ce qu’offre Google aux libraires et aux éditeurs indépendants, c’est l’occasion de repenser le centre et la périphérie de leur métier.  Une offre qui, dans la temporalité numérique, ne se présente plus comme une chance mais comme un ultimatum.

Comment ?

Notamment …

En valorisant la fonction sociale et culturelle de la librairie indépendante. « Sure, books are still for sale, but the real "value" of a bookstore is now lies not in its merchandise, but in the intellectual or cultural community it fosters: in that respect, some bookstores are thus akin to the subscription libraries of the past.” (7) A l'analyse du lancement du site 1001libraires.com, la communauté "métier" est très très maigre, aussi bien en terme de librairies adhérentes qu'en terme - c'est là le plus important - de masse critique des avis et/ou conseils portés par ladite communauté métier, mais aussi en terme de communauté de lecteurs. Cette impasse communautaire dans laquelle s'engage 1001libraires me semble, aujourd'hui, être le principal problème du site.

En se positionnant fortement sur les nouveaux modes de lecture et d’appropriation des livres, au-delà de simples enjeux que posent les nouveaux dispositifs techniques de lecture : « Donner accès », « donner extrait » « faire catalogue » n’est pas « lire » et pas davantage « faire lire » ou « donner envie de lire ». Là encore, échec de 1001libraires, aucun nouveau mode de lecture, aucune nouvelle modalité d'appropriation n'est mise en avant.

En s’inscrivant davantage dans des communautés d’intérêt et de pratiques. Faire communauté pour aller à la rencontre de ce public-lecteur qui ne demande pas mieux que de tirer profit et parti du numérique comme un allié pour mieux retourner vers le livre. Pour « mieux » y retourner car c’est bien de qualité qu’il s’agit. La bataille du quantitatif à déjà eu lieu. Elle se continue entre quelques acteurs seulement. La bataille qui reste à gagner est celle du qualitatif. Là j'avoue que je m'étais un peu planté. La bataille du quantitatif continue, et là encore le fonds de catalogue (de 1001libraires) apparaît sous-dimensionné au regard des objectifs affichés et des attentes suscitées.

A ces seules conditions, et à bien d’autres sûrement, les libraires pourront garder une main sur la lisibilité (numérisation) et la visibilité (marchandisation) de leurs fonds. Et ce faisant, ne pas prendre le risque d’une dépossession totale ou partielle mais en tout cas non accompagnée des logiques de consultation qui ne se feraient plus que sur le site portail de la compagnie américaine.

S’il est déjà trop tard pour anticiper les soubresauts du numérique, il est encore temps de les penser, de leur donner forme, en accompagnant les usages nouveaux-nés ou restant à naître. A part quelques hérauts (dont on ne mesurera que plus trop tard l'imbécilité de ne pas les avoir nommé au ministère de la culture), à part, disais-je, quelques hérauts si utilement défricheurs et se positionnant comme il se doit, c'est à dire à l'interface de deux mondes, on ne peut qu'être frappé par la litanie de la reconduction des vieux modèles qui n'ont de sens que dans le maintien ou la reconduction d'un monde non essentiellement numérique (cf la loi sur le prix unique du numérique et ses clauses d'extra-territorialité, cf les accords de gré à gré entre maxi-éditeurs et monstro-moteurs qui empêchent d'avancer sur l'écosystème global, cf aussi l'incapacité structurelle des acteurs à penser leur métier de manière disruptive, cf tout un tas de trucs donc)

Pour approfondir …

La lecture de ces quelques sites apportera les compléments d’information et d’actualité indispensables à ces réflexions. Les deux premiers sont consacrés à l’actualité de l’édition numérique et le dernier à celle des moteurs de recherche (notamment). Nombre des exemples cités dans cet article sont extraits de ces sources.
-    La feuille : http://lafeuille.blogspot.com
-    Nouvolivractu : http://nouvolivractu.blogspot.com
-    Affordance : http://www.affordance.info

NOTES

(1) Le service payant de fourniture de la British Library (British Library Direct : http://direct.bl.uk ) vient de passer un accord avec Google pour permettre à celui-ci de mettre en place dans Google Scholar des liens directs vers les neuf millions d’articles numérisés par la British Library.

(2) http://booksearch.blogspot.com/2006/07/from-mail-bag-four...

(3) médiatisée par Chris Anderson dans Wired, la théorie de la longue traîne remplace  l’ancienne règle voulant que 20% des produits représentent  80% du C.A. Amazon réalisant par exemple plus de la moitié de son C.A. sur des produits en fond de son catalogue.

(4) Libération, Mercredi 07 juin 2006. « Les petits éditeurs votent Google ». http://www.liberation.fr/page.php?Article=388105

(5)  30 à 40 minutes téléchargeables, écoutables sur des baladeurs numériques. Le site propose également des titres en version intégrale. http://www.sncf.com/webcast-litteraire/index.htm 

(6) http://www.online-publishers.org/?pg=eyes_rsrch&dt=ppt

(7) http://www.futureofthebook.org/blog/archives/2005/12/the_...

1001libraires.com : qui aime bien, châtie bien

C'est donc fait. Le portail de la librairie indépendante française, baptisé 1001libraires.com, a ouvert ses portes le 4 Avril. Je n'ai pu le tester que hier soir, j'ai "live-tweeté" les réactions à chaud sur Twitter, ce qui m'a valu quelques Tweetclash frontaux avec des gens que j'estime par ailleurs beaucoup, sur le mode "oui c'est facile de dire du mal, mais c'est pas très constructif". J'ai donc renoncé au titre initialement choisi pour ce billet "J'aurai vraiment aimé dire du bien de 1001libraires.com".

Or donc, soyons constructifs :

  • LES POINTS FORTS DE 1001libraires.

+>>>>> D'abord, le site existe. Depuis au moins 10 ans que le projet d'un portail de la librairie indépendante est dans les cartons, et après les quelques atermoiements de son lancement officiel, c'est déjà une satisfaction en soi.

+>>>>> Ensuite, ils sont présents sur Twitter et leur "community manager" (ou celui ou celle qui fait office de) réagit à chaud aux retours des premiers testeurs (même s'il/elle était couché hier soir au moment dudit TweetClash)

+>>>>> La navigation (en mode "je cherche un truc à lire") est assez efficace, les filtres proposés sont cohérents (même si leur ergonomie - usage de l'ascenceur obligatoire) pourrait être revue

+>>>>> Le volet "social" est minimal mais bien intégré (possibilité de "propulser" les livres sur différents réseaux sociaux)

+>>>>> Enfin, une offre numérique y est présente (même si ...)

  • LES POINTS FAIBLES DE 1001libraires.

Commençons par ce qui est aisément améliorable.

->>>>> Le nom de domaine n'a pas été paramétré pour répondre à la requête 1001libraires.com. Il vous faudra donc taper : http://www.1001libraires.com. Selon le point de vue que l'on choisit d'adopter, c'est soit un détail mineur, soit une bêtise assez navrante du point de vue de la conception.

->>>>> Les livres numériques présents n'indiquent pas s'ils contiennent (ou pas) des DRM (et lesquels). Pas davantage que les dispositifs de lecture permettant de les lire (pour l'individu lambda, le format Epub ne veut pas dire grand chose, non plus que sa compatibilité avec l'ensemble de la gamme des liseuses ou tablettes). Or on sait qu'en la matière, la déception peut prendre une tournure assez saignante en terme d'image. D'autant que y'a déjà plein d'exemples plus que probants.

->>>>>> Le "vignettage" des ouvrages. En lieu et place de l'image de couverture, on ne voit pour l'instant essentiellement qu'un vieux .gif tout pourri blanc sur lequel est inscrit 1001libraires.com. Dommage.

Et puis il y a le #bigFail. L'erreur monstrueuse, monumentale, incompréhensible, à rebours de tous les usages avérés sur le net depuis que le e-commerce existe. Le grain de sable l'armoire normande dans les rouages :

  • pour s'inscrire sur 1001libraires.com, pour se créer un compte, il faut déjà être client, c'est à dire déjà avoir acheté des ouvrages.

Vous imaginez Amazon ne vous permettre de vous inscrire sur le site qu'après avoir consommé ??!!

Et puis aussi cet ensemble de petits détails pourtant déterminants qui finiraient de décourager tous ceux qui ne se lèvent pas le matin avec l'envie farouche de défendre la librairie indépendante française (c'est à dire quand même l'essentiel du public visé, les autres faisant l'effort de se déplacer en librairie). En vrac :

  • le panier d'achat est tout en haut de la page, mais la liste de souhait est enfouie dans la zone (bas de page) normalement réservée aux mentions légales.
  • pour ajouter un titre à son panier, impossible de le faire à partir de la liste des résultats suivant une requête : il faut encore (et une fois de trop) cliquer sur le titre du livre
  • la barre de navigation principale qui aligne côte à côte 2 rubriques en majuscules et dans une typo qui rend indifférenciable au premier coup d'oeil la subtile différence entre LES LIBRAIRIES et LES LIBRAIRES

et plein de tout un tas d'autres petits trucs.

  • SUR LES ENJEUX DE LA MONTÉE EN CHARGE.

Mille et un ? 1001libraires.com : au-delà de l'allusion aux 1001 nuits, on compte effectivement en France un bon gros millier de librairies "de premier niveau" qui assurent 60 à 75% du CA des éditeurs (voir les chiffres du CNL). Or ils ne sont pour l'instant que 150 ou 200 libraires à être indiqué comme faisant partie prenante du site (selon Ecrans, seuls 65 librairies sont présentes au lancement). Ce n'est certes qu'un lancement mais ...

1 million ? Au frontispice de 1001libraires.com on peut lire "recherche un livre parmi 1 million de références." Mais il s'agirait plutôt de 60 000 titres (source : Ecrans). Dans le jargon et le métier de libraire, ce n'est pas forcément incompatible (60 000 titres peuvent être présents sous la forme d'1 million de références, certains titres étant heureusement représentés dans plus d'une librairie), pas forcément incompatile donc pour le familier de la gestion d'une librairie, mais plutôt curieux et déstabilisant pour l'internaute lambda.

De nombreuses zones géographique sont sinistrées, faute de libraire présent. Ce n'est pas la faute de 1001libraires mais il eût été plus judicieux d'assurer au moins, avant le lancement, une couverture géographique comprenant au moins une librairie par département. Sur ce type de lancement national en fanfare, et étant donné les attentes immenses du public concerné, les déserts numériques vont faire de nombreux déçus, et il n'est pas certain qu'ils reviennent sur le site plus tard. D'autant que l'enjeu est de taille : tenter de bousculer des usages installés depuis au moins 10 ans (suivez mon regard).

  • SUR LA PHILOSOPHIE DU PROJET.

Trop peu, trop tard, et pas assez. Très clairement, l'accent est mis sur la médiation : "ici pas d'algorithme, des vrais libraires avec des vrais conseils et tout et tout". Soit. La médiation bien sûr. Mais il faut cesser de croire que l'on pourra réinventer une médiation numérique en déclinant, sur ledit support numérique, et même avec talent et/ou avec de gros moyens, les techniques de la médiation "physique" (conseils, coups de coeur, débats, etc). Les usagers du numérique veulent du SERVICE. Ce n'est qu'à partir du SERVICE que l'on peut développer de la médiation numérique.

"Mais il faut partir à point." Or cette logique de service sur 1001libraires ne semble pensée que dans une logique de "retrait" (au sens propre comme au sens figuré), quand elle n'arrive pas tout simplement un peu beaucoup trop tard. Dans un article de 2006 pour la revue professionnelle du SLF, je titrais : "Passer du service du livre au livre-service". (tiens pour le coup je m'aperçois que je n'avais jamais mis en ligne cet article, ce sera chose faite sur ce blog dès demain :-) Les plus optimistes me rétorqueront qu'il n'est "jamais trop tard" ou que "mieux vaut tard que jamais". On me permettra d'en douter : certains retards pourront être rattrapés, au même titre que certains usagers. Mais le numérique est l'illustration parfaite de la morale du lièvre et de la tortue : "Rien ne sert de courir, il faut partir à point." Rien ne sert en effet, aux libraires, de courir contre Amazon, pas davantage aux bibliothécaires contre Google. Mais à force de retarder le départ, à force surtout, de renoncer à expérimenter, il y a nécessairement des changements que l'on n'a plus les moyens de penser. A ce titre le site 1001libraires.com n'est que l'ombre de ce qu'il pourrait être. A chaque clic il est visible que les services numériques ne sont que la périphérie d'affichage du projet, alors qu'ils auraient dû en être la principale motivation. Je crois que les libraires auraient besoin d'encore méditer le message qu'un bibliothécaire essaie de faire passer aux bibliothèques :

"Je pense que nous sommes victimes du tropisme propre à la profession : la constitution de collections dans l’univers numérique. Aujourd’hui, le bibliothécaire est celui qui “donne accès” à des bases comme on achète un livre. Il fournit un accès légitimé par ses soins au risque de confondre la valeur marchande de l’achat au nom de la collectivité avec la vraie valeur d’usage : celle du libre accès, de la circulation et de l’appropriation des contenus par le plus grand nombre. Il me semble que, trop souvent, au nom de l’idée séduisante et rassurante d’une collection, pour “donner accès à” nous acceptons des restrictions d’usages insupportables pour bon nombre d’internautes ! Le résultat est éclatant : partout on constate que ces offres ne “marchent pas” et coûtent très cher."

Ce tropisme de la collection chez les bibliothécaires est le jumeau de celui du conseil chez les libraires.

Message donc aux 1001libraires (et aux autres). Arrêtez de vouloir faire du "conseil". Le conseil, c'était bon il y a 10 ans, quand les gens flippaient à l'idée de donner leur numéro de carte bleue à un géant américain. Plus maintenant. Les gens que vous voulez toucher (c'est à dire ceux que vous ne voyez pas ou plus dans vos librairies) n'en attendent pas. En tout cas pas sous cette forme. Le conseil est soluble dans le numérique. Il y devient propulsion, recommandation.

Mais quand on veut propulser et recommander en numérique, tout en se différenciant des bidonnages d'Amazon, on n'a que deux choix possibles :

  • y avoir gagné une légitimité d'expérience, une légitimité "immersive" (je ne veux dénoncer personne mais celui-ci est un excellent exemple),
  • et/ou pouvoir constituer une communauté, sur la base de laquelle on commencera à voir comment la recommandation opère.

Or un site d'e-commerce (mal pensé) et même doté de fonctions sociales (mal ajustées) n'est pas l'endroit idéal pour constituer une communauté. Un constat d'autant plus problématique que même si on a choisi d'en torpiller les fleurons, les communautés de lecteurs  déjà opératoires (francophones ou internationales) ne manquent pas. Mais ne figurent visiblement pas non plus dans le cahier des charges de 1001libraires.

Comparaison n'est certes pas raison, mais je crois que j'avais vraiment envie que 1001libraires ressemble à ça : http://www.livresquebecois.com. Je m'y suis inscrit dès le lancement. Et je l'utilise régulièrement. Sans que l'on me demande d'abord d'y avoir acheté quoi que ce soit.

Moralité. "On ne lance un caillou qu'aux arbres aux branches alourdies de fruits." Les Mille et une nuits, anonyme, éd. Gallimard, 2005 (ISBN 2-07-011403-1), p. 18.

Lectures complémentaires :

J'aime que tu plussoies : la base de donnée, le biotope et l'écosystème(disclaimer : billet dans lequel il sera question de métaphores écologiques, de Naomi Klein, du Like de Facebook et du bouton "+1 de Google, mais également de la crise documentaire, de l'intentionalité, du pulsionnel, et des huîtres.)

CHAPITRE PREMIER.

Dans les années 40, aux états-unis, Harold Lasswell, théoricien de la communication, lui assignait comme objectif d'être capable de répondre à la question suivante : “Who talks to whom about what, through which channel, and with what effect ?". Les fondamentaux.

Une base de données.

La "base de donnée des intentions" est un concept forgé par l'analyste et blogger américain John Battelle, concept que j'ai moi-même souvent commenté sur ce blog.

Je viens, chez ce même John Battelle, d'en trouver une représentation illustrée :

DBoI

Quelques observations rapides :

  • on pourrait assez facilement étendre les "acteurs" de chaque ligne (ceux mentionnés sur l'image ont l'avantage de représenter les plus évidents et/ou incontournables)
  • seul Google est présent dans 3 des 5 catégories. En réalité il est aussi présent sur la ligne "the purchase" puisqu'il sait ce que nous achetons grâce à Google Checkout.
  • La plupart des services présentés par John Battelle ont recours, sous différentes formes, à des options de géolocalisation : Twitter, Google et Facebook pourraient ainsi également être présents sur la ligne "The Check-in" mais John Battelle a préféré structurer son illustration sur la base du service "premier" sur lequel se positionnent les sites mentionnés.

Un écosystème informationnel.

Ecosysteme

Des biotopes.

Pour donner dans la métaphore écologiste, il est clair que cette "base de donnée des intentions" est l'écosystème informationnel global et "naturel" du web, un écosystème au sein duquel Amazon, Twitter, Facebook, Google et les autres constituent autant de biotopes différents. En changeant de biotope, en nous déplaçant d'un biotope à un autre, nos interactions avec l'écosystème d'ensemble changent, nos besoins ne sont plus les mêmes, nos intentions se modifient également.

"Quand un biotop' rencontre un aut' biotop' ..." Nous évoluons dans cet écosystème et nous interagissons avec lui. Mais les différents biotopes interagissent également entre eux selon 4 modalités principales qui vont de la réciprocité à la prédation.

  1. la réciprocité : échange de liens, backlinks, trackbacks, etc ... La réciprocité est au coeur des biotopes originels du web. Rien n'est possible sans elle.
  2. le parasitage : il s'agit ici d'une réciprocité subie, tel biotope étant "obligé" d'intégrer un composant de tel autre biotope pour assurer sa propre survie ou sa propre domination. Un exemple dans ce billet qui illustre la manière dont les sites sociaux (Facebook, Twitter) influent sur l'organisation de la hiérarchie de liens des moteurs (Google & Bing).
  3. le phagocytage (ou phagocytose) : procède et opère essentiellement sur le mode documentaire (exemple détaillé ici)
  4. la prédation : essentiellement le rachat (au sens économique : telle boîte rachète telle autre) ou l'épuisement (la domination de telle boîte rend caduque des boîtes plus faiblement dimensionnées ou trop spécialisées sur un secteur ou un service)

A noter : la réciprocité et le phagocytage sont entretenus et entretiennent en retour la déconstruction toujours plus avancée de la "page-web" comme unité documentaire (désormais caduque).

A noter aussi : les 3 premières modalités sont de nature principalement documentaires (s'il était besoin de souligner encore une fois l'importance des sciences de l'information pour la compréhension des mécanismes du web ... cf le retour de Roger II)

La question de l'huître et de la perle. Quand on cause écosystème et biotopes, on finit assez vite par causer de biocénose c'est à dire de "l'ensemble des êtres vivants cohabitant dans un espace défini (le biotope)". Donc si je résume : 

  • l'écosystème c'est Internet (web + net) que je choisis de traiter sou l'angle d'un écosystème informationnel
  • les biotopes ce sont les "sites" ou "acteurs" qui prennent place dans cet écosystème et le constituent partiellement
  • la biocénose c'est toi, c'est moi, c'est nous quoi :-) Et plus précisément les utilisateurs qui interagissent avec un biotope et/ou qui sont au sein dudit biotope

Or la page Wikipédia de la biocénose nous rappelle que :

"Le terme de biocénose fut inventé et introduit dans la littérature scientifique par le biologiste allemand Karl August Möbius en 1877, alors qu'il étudiait les huîtres après qu'il eut noté que, chez ces animaux comme chez d'autres, il fallait placer le cadre d'étude au niveau non pas de l'individu, mais de l'ensemble des individus."

Et nous revoilà revenus à notre base de donnée des intentions : les différents acteurs (biotopes) fonctionnent initialement en nous prenant pour des huîtres, c'est à dire à l'échelle de la population connectée au service dans son ensemble. C'est là toute la force (et l'argument marketing) de Facebook mais également de Google. C'est la loi de la statistique des grands nombres, celle de l'algorithmmie à large spectre. Et c'est ce qui conditionne d'abord l'ensemble des opérations documentaires qui ont lieu à l'intérieur du biotope concerné, lui permettant de tenir son rang dans l'écosystème global. Traduction : si Facebook comptait 17 membres et si Google indexait 4000 pages, ben ils ne seraient pas devenus Facebook ou Google. Traduction supplémentaire : si l'algorithmie de Google ou Facebook n'était pas dimensionnée à une échelle qui est celle du parc à huîtres, les interactions documentaires internes ne seraient pas suffisantes pour renouveler la masse du biotope et ils péricliteraient d'eux-mêmes.

Mais les mêmes acteurs (biotopes) ont également besoin de chercher ceux d'entre nous (les huîtres) qui renferment une perle, et quelles perles sont semblables ou dissemblables. C'est le volet "personnalisation" de la base de donnée des intentions. Et c'est de ce volet que dépendent les interactions documentaires de surface, c'est à dire celles qui vont permettre audit biotope d'initier les opérations de parasitage ou de phagocytage décrites plus haut.

Dans la base de donnée des intentions de ces biotopes ainsi constitués, le "Where I am" n'est rien s'il ne peut compter sur un "Where are they ?", le "What I want" n'a de valeur que s'il est corrélé à d'innombrables "What do they want".

CHAPITRE SECOND.

J'aime que tu plussoies.

La qualification des interactions documentaires sur le web est un chantier complexe auquel je m'efforce de m'atteler depuis ma thèse. Le lien (hypertexte) est l'essence du web ; de la nature relationnelle du web. Les systèmes comme le "like" de Facebook sont un contresens manifeste du projet qu'était le web dans l'esprit de ses pères fondateurs. Je me suis déjà largement expliqué sur ce sujet dans ces 2 billets :

Pour autant, dans la lutte pour la monétisation des interactions documentaires (même inessentielles), lutte qui fait rage sur le web, Google ne pouvait pas rester sans réaction face au lancement et à la multiplication du "like de Facebook. Il lance donc, en réponse, le bouton "+1" et officialise la guerre des boutons (de recommandation). Basiquement, rien de plus qu'un énième système que recommandation qui permet de "voter" ou de "plussoyer" n'importe quel type de contenu (news, sites web, produits, etc ...), puis de diffuser et/ou de partager ce vote auprès de ses relations, le tout à partir d'un profil Google  ouvert (Google profile) et pour l'instant sur la base de son carnet d'adresse Gmail. Soit une énième brique dans la poursuite d'un moteur "social" où les votes des individus composant le réseau pourraient se substituer aux liens hypertextes qui constituent le coeur de l'algorithmie de tous les moteurs (PageRank). A ceci près que si en 2004 il semblait encore possible d'imaginer un moteur 100% social, en 2011 la socialisation ayant changé de nature (et d'étendue), les individus sont relégués au rang de "pousse-bouton", et l'activation dudit bouton vaut comme recommandation pour devenir à son tour, l'un des innombrables paramètres qui composent les algorithmes des moteurs.

Socialisez-moi. Même si cela alimente continuellement la rumeur et les débats entre analystes, experts et autres gourous, force est de constater l'incapacité quasi-structurelle de Google de négocier un virage social efficace (l'échec des nombreux services "sociaux" initiés par la firme, de Google Wave à Orkut en attestent). En revanche nul ne consteste la capacité du même Google à capitaliser (au sens propre et au sens figuré) sur les interactions sociales de sites tiers. Il lui fallait donc se doter, a minima, de son propre système de recommandation interne. Avec à la clé un pari de taille : Facebook compte aujourd'hui 500 millions de membres, mais les utilisateurs de Google sont largement aussi nombreux. Ce nouveau bouton-poussoir poursuit donc un double objectif :

  • améliorer qualitativement la prise en compte d'une ingénierie de la recommandation pour affiner le niveau de personnalisation proposé dans les requêtes
  • permettre de constituer rétroactivement, une communauté sociale active autour des - très largement sous-utilisés - profils Google (rappelons que ne verront les "+1" de leurs copains que les utilisateurs ayant déjà créé un profil Google), communauté devant permettre, sinon de rivaliser avec Facebook, du moins de relativiser l'effet communautaire du même Facebook

La différence principale entre le "Like" de Facebook et le "+1" de Google est ainsi résumée par Matt Cutts :

  • " "+1" n'est pas un bouton "j'aime" ! Lorsqu'un internaute clique sur le bouton +1, son appréciation ne va pas directement être envoyée sur le profil de tous ses contacts. Dans le cas de Google, les "+1" n'apparaissent que lorsqu'un autre internaute effectue une recherche."

Différence effectivement importante même si elle est encore à nuancer (si invasifs qu'ils soient, les "Like" de Facebook ne sont pas systématiquement envoyées à tous nos amis).

En revanche, éternel point commun avec Facebook : le business de la recommandation (toujours dans la bouche du même Matt Cutts) :

  • "Nous avons aussi intégré "+1" aux publicités : il est clair que les annonceurs peuvent prétendre à des clics plus pertinents. C'est un outil très puissant !"

Autre point commun (nonobstant ce que prétend Matt Cutts plus haut) :

  • les "+1" sont publics. On va donc bientôt voir apparaître des compteurs de "+1" à côté des résultats de recherche, comme on a vu fleurir des compteurs de "like" un peu partout sur le web. Chouette :-(

Comme cela est très bien résumé sur Presse-Citron :

"Ce qui est plus intéressant c’est qu’en plus de recevoir le lien en « feed » direct, vos amis lorsqu’ils feront une recherche et obtiendront le site que vous avez « plussé » (futur verbe dans le dictionnaire?), verront directement votre recommandation intégrée à Google
 A terme donc les résultats de recherche Google seront réorganisés pour les utilisateur utilisant +1 pour favoriser les liens les plus « plussés » dans leur réseaux social ! Reste la question de « quel réseau social » ? C’est peu être la la faiblesse de ce nouvel outil… Pour utiliser Google +1 il faut posséder un « profil ouvert » Google. Or la plupart d’entre nous a déjà largement assez de profils divers et variés comme ça et je ne suis pas sûr que les gens soient prêt à re-remplir une sorte de profil « Facebook 2 » parce qu’ils veulent utiliser +1."

Moralités. 

... Hors la recommandation située, point de salut = > Quand j'étais petit (enfin pas très grand), j'étais allé au Futuroscope de Poitiers avec mes parents. Et on m'avait vendu une "première expérience mondiale de cinéma personnalisé dans laquelle le public décide de l'histoire". Mes yeux d'adolescent en frémissaient d'impatience. Tout ça pour me retrouver dans une salle de cinéma parfaitement banale, avec un boitier à 2 boutons (rouge et vert) entre les mains et en train de regarder un film digne des meilleurs montages documentaires du CRDP dans années 80 où la "première expérience mondiale de cinéma personnalisé" se résuma à appuyer tous ensemble et toutes les 10 minutes sur le bouton rouge ou vert pour savoir si l'homme au parapluie allait sortir dans le jardin (bouton rouge) ou rentrer dans sa cuisine (bouton vert). Si je vous raconte tout ça c'est parce que la recommandation collectivisée ou socialisée (les boutons rouge et vert en étaient une forme primitive) n'a d'intérêt qu'en fonction de ce sur quoi elle s'applique, et de la pertinence "en situation" de son activation.

... Le retour des autarcithécaires = > en admettant que ces systèmes de boutons de recommandation parviennent à s'installer réellement dans les usages, à devenir la critériologie de référence pour l'assignation de corpus personnalisés, sociabilisés et hyper-intentionnalisés (cf la base de donnée des intentions, point de départ de ce billet), en admettant cela, le risque d'un appauvrissement de l'écosystème du web et celui de la montée en régime d'une armée d'autarcithécaires serait, également, confirmé. Ce serait alors un bouleversement colossal dans la nature de notre rapport à l'information : le retour en force d'un communautarisme (et donc d'un autisme) informationnel. Soit la négation même de l'hypertexte.

... Les hyperliens ne s'usent que si l'on ne s'en sert pas = > tous les blogueurs et webmasters vous le diront : la consultation de leurs backlinks (liens entrants) est devenue d'une uniformité affligeante. Il y a de cela quelques années, la consultation des mêmes backlinks permettait de découvrir, au bout du lien, un autre blog, une autre réflexion, une critique, un point de vue, une "altérité", un "écrit". Aujourd'hui les "référents" d'un site web sont aussi divers et hétérogènes que la lecture de l'annuaire d'un village de 3 habitants :

  • twitter ***
  • netvibes
  • facebook
  • et quelques autres hameaux

*** un exemple supplémentaire à propos de Twitter : dans l'ancienne version du site, les Retweets devaient être faits manuellement, ce qui permettait d'y ajouter son commentaire, d'en changer les hashtags, bref d'y déposer une marque documentaire subjective et donc "d'enrichir", de mieux "documenter" les raisons et motivations desdits Retweets. Dans la nouvelle version du site, le Retweet est entièrement "automatique", via un simple bouton, ce qui augmente l'incitation à Retweeter et permet donc de doper encore davantage le mode de propagation virale qui sert de modèle à Twitter, mais ce qui ôte toute possibilité d'appropriation ou de description documentaire.

... Du partage pavlovien comme nouvelle normativité "sociale" = > Les contenus n'ont jamais été aussi propulsés, disséminés, recommandés, likés, plussoyés. Mais ils n'ont jamais été aussi peu discutés, aussi peu commentés, aussi peu documentés. Une autre forme de la crise narrative que traversent les sociétés hyper-connectées. Un appauvrissement de l'écosystème des contenus informationnels du web qui conditionne l'enrichissement et l'éparpillement des économies de la recommandation. La sémantique uniforme des "like", "share" et autres "recommend" est le nouveau modèle du référencement, c'est à dire de la condition d'existence documentaire d'un contenu, d'un site, d'une marque, d'un individu, d'un profil. Entre fabrique de l'émotion et obligation de partage, s'exprime un conditionnement pavlovien du "partage sans engagement", du "partage qui ne coûte rien", nouvelle et exclusive normativité pour le coup doublement sociale.

... Le degré zéro du lien = > Les "like", "share", "recommend", et autres "+1" sont des chimères d'hyperliens. Des liens qui n'inaugurent aucun chemin sauf celui du retour vers un entre-soi. Des clics qui ne relient rien. La victoire de la compulsivité d'une activité de pousse-bouton savamment entretenue par un marketing pulsionnel et le besoin d'être "en état de partage permanent" comme d'autres étaient hier "en état de transe permanente" sous l'effet de psychotropes divers. Une victoire de l'ingénierie et des technologies relationnelles. Mais également peut-être, une défaite programmée de la narration, de la dialectique, de la controverse, de l'engagement, de l'exprimable. Un Waterloo documentaire. Panem et circenses. Du pain et des jeux. Du pain relationnel et des jeux informationnels dans une enceinte fermée. Une histoire qui finit bien. Qui doit bien finir. Qui ne peut que bien finir. D'ailleurs la citoyenneté numérique des acteurs de cette histoire se résume à la possibilité d'un pouce levé.

Marc Zuckerberg nous l'avait expliqué hier, il n'y aura pas de bouton "Dislike", Matt Cutts nous le rappelle encore aujourd'hui : "Nous ne voulons pas prendre en compte les signaux négatifs, il n'y aura donc pas de bouton "-1"." Les signaux négatifs c'est mauvais pour les annonceurs. C'est mauvais pour le commerce. Et puis on vous a déjà dit que l'histoire devait bien finir. Les signaux négatifs c'est un privilège qui n'appartient qu'à Goog Faceb César.

Oui mais si l'on a envie d'une autre fin ?

Pouce4

Le numérique pour changer l'école.

J'ai été interviewé dans le cadre du colloque "Le numérique pour changer l'école", organisé par le SGEN (disclaimer : l'interview a été réalisée par un ancien collègue actuellement en délégation syndicale).

Le point de départ de l'interview est le changement occasionné par le numérique dans les rapports avec les étudiants, mais l'interview prend rapidement un angle beaucoup plus large.

Extrait :

Le numérique aujourd’hui à l’école ou à l’université consiste trop souvent à doubler et à alourdir des services déjà existants, sans proposer de réelle valeur ajoutée et en alourdissant la charge de personnes qui n’y sont pas ou peu formées. On voit mal dans ces conditions, comment susciter l’enthousiasme de ceux qui devraient pourtant être en situation d’en être les principaux acteurs mais aussi les principaux prescripteurs, les principaux pédagogues …

Pour lire l'interview complète, c'est sur le blog du colloque "Le numérique pour changer l'école".

 

Les gazouillis du mercredi

Côté Open Access :

Côté moteurs :

==> de quoi faire avancer certains dossiers ...

==> mais on se rassure, si les 2 premiers seront "détruits", Delicious devrait être racheté.

==> marrant de fouiller dans les archives du magazine "Transfert"

==> faudra pas venir se plaindre ...

Côté référencement :

Côté réseaux sociaux, identité numérique et "curation"

==> article limpide. Comme d'hab.

==> relire sur affordance.info : Le web. Un point c'est tout".

==> une des principales motivations de notre présence sur le réseaux sociaux.

==> platefore sympa et prometteuse à la recherche de béta-testeurs universitaires :-)

Côté "on en apprend tous les jours"

==> j'ai pourtant passé quelques années sur une thèse consacrée à Ted Nelson et à l'hyeprtexte, mais ce détail croustillant m'avait échappé.

Côté égo :

Côté Wikileaks

Côté bibliothèques, Google Books, HathiTrust ...

Côté livre numérique :

Côté outils :

Côté coup de gueule politique :

Google Books : une fin en forme de nouveau commencement.

Au commencement était le tweet. L'alerte fut donnée au soir du 22 mars par le statut Twitter n°50275389104340992 appartenant à un certain Calimaq, indiquant que : "Bon sang ça y est, le règlement Google semble avoir été rejeté par le juge Chin."

Rappel des faits :

  • 2004 : Google lance son opération de numérisation tous azimuts
  • 2005 : class action des auteurs et éditeurs (américains) contre Google
  • Automne 2006 : premières négociations vers un règlement "amendé"
  • 28 Octobre 2008 : le réglement amendé est finalisé et présenté à la justice
  • 17 Novembre 2008 : le réglement est validé par le juge Sprizzo alors en charge du dossier
  • 13 novembre 2009 : les parties concernées portent le règlement à l'approbation de la cour fédérale. La "class action" qui regroupe des auteurs, des éditeurs, des associations nationales, d'autres plus "locales", des ayant-droits, etc ...) est divisée, certains plaignant étant satisfaits de l'état actuel du règlement, d'autres ne l'étant pas.
  • 19 Novembre 2009 : le juge Chin entre en scène ainsi que le département de la Justice américain (DOJ)
  • 18 février 2010 : les parties en présence sont de nouveau entendues.
  • 22 Mars 2011 : le juge Chin estime le que le règlement amendé n'est "ni équitable, ni adéquat, ni raisonnable."

Sur quoi portait le "règlement Google" puis le "réglement amendé".

  • sur les oeuvres dites orphelines qui composent l'essentiel (en nombre) des ouvrages numérisés par Google
  • lesquelles oeuvres sont affichées uniquement sous forme de "snippets" (extraits)
  • et sont au coeur du modèle économique envisagé par Google pour financer (rétroactivement) la numérisation déjà engagée et installer ses parts (de marché) sur le marché du livre numérique.

Ce que l'on apprend dans le document qui fait office de verdict :

  • "the question presented is whether the ASA (= règlement amendé) is fair, adequate, and reasonable. I conclude that it is not." Il ne l'est pas parce qu'il va "trop loin" et parce qu'il donnerait à Google "un avantage significatif (et déloyal) sur ses concurrents" (cf infra)
  • Il n'y aura pas d'indemnisation des parties plaignantes (dans le cadre de cette étape du procès)

Sur le fond du projet de numérisation :

  • le juge Chin en rappelle les nombreux intérêts, pour le public, mais également pour les auteurs et les éditeurs ("nouvelle vie" des ouvrages numérisés, conversion facilitée notamment pour l'accès aux publics handicapés - braille - etc.)

Sur les principales objections faites au règlement amendé :

  • le problème de l'adéquation optimale du réglement amendé (portée excessive et défaut de représentation de certaines parties) : certaines associations (sociétés de journalistes, écrivains de SF, auteurs universitaires mais également éditeurs et auteurs étrangers) indiquent l'inadéquation du réglement par rapport à leurs spécificités, ne s'estimant pas bien représentés par les principaux plaignants de la Class Action.

Objection rejetée par le juge Chin. Il indique que plus de 1,26 millions de courriers ont été adressés aux potentiels plaignants dans plus de 36 langues, un site web dédié à la collecte des informations mis en place (celui où les auteurs ou ayant-droits devaient "se déclarer"), et qu'étant donné la publicité et le retentissement du procès il était difficile de prétendre ne pas en avoir été informé.

En revanche le juge Chin accepte et reconnaît l'objection selon laquelle il pourrait exister au sein de la Class Action, des intérêts antagonistes pour certains plaignants (auteurs et éditeurs par exemple :-)

  • le problème du copyright : à noter que c'est ici principalement Amazon et Microsoft  - ainsi que l'Open Alliance - qui ont été les fers de lance de l'attaque, accusant Google de violer les règles du copyright (notamment concernant la mise en place d'un opt-out sur les oeuvres orphelines, ce qui entraînerait un transfert inadéquat des droits de propriété intellectuelle sur une oeuvre)

Objection retenue. Le juge Chin indique que certaines règles du réglement amendé pourraient autoriser Google à spolier de leurs droits certains ayant-droits. C'est ici que le jue Chin condamne clairement la question de l'Opt-out, indiquant qu'elle n'est manifestement pas appropriée et non-conforme au principe du fair-use américain.

  • le problème du monopole (antitrust law) : le réglement mettrait de facto Google en situation de monopole

Objection retenue. On voit ici tout le travail de lobbying opéré par l'Open Book Alliance ainsi que par Microsoft et Amazon, explicitement cités comme les plus actifs par le juge Chin. La passage de la page 37 est particulièrement important car sous réserve de modfication de certains points cités, l'opposition de ces 3 grands pourrait être levée et donner ainsi une nouvelle chance à l'adoption du règlement. Il s'agit des points suivants :

  • Des parties tierces peuvent afficher des extraits (snippets) des oeuvres numérisées par Google mais seulement si elles ont elles-mêmes "entered into agreement with Google"
  • des parties tierces peuvent chercher et indexer les oeuvres numérisées par Google mais seulement s'il s'agit d'opérateurs non-commerciaux ou si elles ont l'accord préalable de Google.

En admettant que Google accepte de modifier ces deux points essentiels et permette dont à quiconque, sans accord préalable, y compris pour des opérateurs commerciaux (= les concurrents de Google), d'avoir accès à l'indexation, à la recherche et à l'affichage des oeuvres numérisées, les choses pourraient très très rapidement s'accélérer. Néanmoins, cette hypothèse reste assez improbable, Google n'ayant évidemment pas vocation à faire le boulot gratuitement pour la concurrence. Mais en même temps, Google ne pourra pas non plus continuer de s'enliser délibéremment dans des procédures et des procès qui, plus ils avancent, plus ils empiètent sur la marge et l'avantage commercial et concurrentiel qu'il pourrait tirer d'une mise en application rapide dudit règlement. Donc ...

  • le problème de la vie privée : notamment porté par l'EFF (Electronic Frontier Fundation), il souligne que le dispositif de propose pas suffisamment de garanties pour préserver la vie privée des lecteurs / utilisateurs su service Google Books

Objection retenue mais à moitié seulement. Le juge Chin indique qu'elle ne peut suffire, à elle seule, à rejeter l'ensemble du réglement. Cette objection ne tient donc que tant que les autres tiennent également. Le juge Chin indique par ailleurs à Google qu'il lui semble possible d'améliorer cette protection de la vie privée sans pour autant remettre en cause sa stratégie marketing.

  • le problème de la territorialité de la loi : notamment porté par les éditeurs étrangers (et particulièrement français), signifie que le réglement remettrait en cause la législation sur le droit d'auteur bien au-delà de la seule juridiction des Etats-Unis.

Point épineux et important s'il en est. Les USA sont signataires de la convention de Berne (sur le droit d'auteur) depuis 1989 ; les livres étrangers sont donc "couverts par la protection des droits d'auteur - copyright - des états-unis", ceci impliquant que tous les livres publiés après 1989 dans l'ensemble des pays signataires de la convention de Berne sont potentiellement concernés par le réglement Google Books. Le juge Chin indique qu'un grand nombre d'auteurs étrangers (France, Allemagne, Autriche, Belgique, Israël, Nouvelle-Zélande, Espagne, Suisse, Luxembourg, etc.) continuent de rejeter le règlement amendé. Là encore la procédure d'opt-in et la notion de fair-use sont au centre des débats sur la propriété intellectuelle. Objection retenue

Les conclusions du juge Chin ... et l'avenir du Google Books Search Amended Settlement.

  • le règlement est rejetté.
  • "beaucoup des objections seraient caduques si la règle de l'Opt-out devenait une règle de l'opt-in"
  • aucune indemnisation n'est accordée à aucune des parties pour cette étape du procès.
  • le 25 avril 2011 la cour de justice tiendra une audience de mise en état ("a status conference"). Cette date sera déterminante car elle a pour but d'entendre les différentes parties pour que le procès soit "en état" d'être jugé. Il est cependant plus que probable (cf les arguments ci-dessus) que lesdites parties profitent de cette audience pour annoncer qu'elles vont s'entendre pour établir un nouveau-nouveau réglement amendé plutôt que de se lancer dans une procédure d'appel (je partage ici l'analyse de Lionel Maurel et de James Grimmelmann)

La réaction de Google (source ZDNet) :

  • "Cette décision nous surprend beaucoup et nous allons l'étudier en détails pour décider de la meilleure marche à suivre. Comme beaucoup, nous pensons que cet accord permettrait d'ouvrir l'accès à des millions d'ouvrages aujourd'hui difficiles à trouver aux Etats-Unis. Quelle que soit la décision finale, nous continuerons de travailler dur pour que de plus en plus d'ouvrages dans le monde puissent être découverts sur Internet grâce à Google Books et Google e-Books" a réagi Hilary Ware, Managing Counsel pour Google.

Comme le rappelle opportunémet le même article de ZDNet, Google n'en est pas à sa première condamnation (notamment pour l'affichage des fameux "snippets") mais s'est à chaque fois pourvu dans une procédure d'appel suspensive (= il ne règle donc pas les astreintes journalières indiquées dans les diverses condamnations).

Still scanning. Par ailleurs, dans le cas de la Class Action américaine comme dans les autres procès engagés en Europe et dans le monde, Google n'a jamais cessé ses opérations de numérisations, confortant ainsi son avance sur ses concurrents commerciaux (Amazon) ou non-commerciaux (open-content alliance), et continuant de constituer un trésor de guerre avec un fonds éditorial sans aucune commune mesure avec quoi que ce soit de connu, lequel fonds reste l'argument massu de la négociation et l'enjeu principal de ce débat pour peu que l'on accepte de raisonner à l'échelle de l'accès de tous aux savoirs et non à celui de la préservation d'intérêts particuliers. L'AFP est donc assez mal inspirée de titrer que la justice "met un coup d'arrêt à la bibliothèque universelle de Google" : c'est un coup d'arrêt sur l'accès et la diffusion des oeuvres, en aucun cas sur la constitution de ladite bibliothèque universelle. La nuance est d'importance.

Par ailleurs, pour m'avancer un peu sur un terrain que je ne connais pas (le fonctionnement des class action américaines), il semblerait (je m'appuie essentiellement sur les arguments détaillés dans l'article du Publishers Weekly) que l'on aille vers un éclatement de la Class Action au motif que : "No any one group can represent the amalgam of all these rights holders". Avec la constitution de sous-groupes (subclasses) on s'orienterait alors vers la fin pure et simple d'un "réglement" unique au profit de la naissance d'autant de réglements dédiés et négociés au cas par cas entre Google et les différentes parties (là encore l'hypothèse du modèle Hachette semble pouvoir se reproduire).

Les déçus de la décision du juge Chin. Ils sont nombreux et non des moindres.

  • Ainsi, comme on l'apprend dans cette dépêche AFP :  "Le président de la Guilde (syndicat) des Auteurs, l'auteur a succès Scott Turow, a également regretté la décision du juge, estimant que "cette (bibliothèque d')Alexandrie des livres épuisés semble perdue pour le moment". "Ouvrir un bien plus grand accès aux livres épuisés grâce aux nouvelles technologies qui créent de nouveaux marchés, c'est une idée dont le temps est venu", a ajouté M. Turow. Son vice-président n'est pas tout à fait sur la même ligne (voir plus bas)
  • Du côté de la bibliothèque de Stanford, partenaire historique (au double sens du terme) du projet de numérisation d'ouvrages libres de droits, on se dit également déçu de ce rejet, déçu parce que la décision pourrait remettre en question la numérisation à vocation patrimoniale déjà engagée par Google (sic), mais aussi et surtout parce que cette décision laisse sans réponses plusieurs questions importantes dont "access to orphan works, periods of protection provided by the Copyright Law, and the yearning for a universal library available to all American citizens."
  • A noter également la réaction d'Hubert Guillaud : Oui. L’Accord Google n’était pas juste, ni équitable, ni raisonnable… Mais nous en aurions bien tous repris un petit peu, juste pour accéder d’un clic, à cet océan de livres qui risque de se refermer sous nos yeux (...)"
  • Chez ActuaLitté, on mobilise toute la rhétorique de l'euphémisme et de la litote : "il est difficile de nier les avantages évidents qu'aurait apportés une résolution approuvant le Règlement."

Les "satisfaits" de la décision du juge Chin.

  • nombre des membres de la Class Action évidemment, particulièrement les 6800 personnes (auteurs) souvent citées dans le rapport du Juge Chin et qui ont, dans le créneau imparti, choisi de se retirer du réglement amendé.
  • "Paul Aiken, executive director of the Authors Guild, said in an interview that it was too early to tell what the next step would be. “The judge did expressly leave the door open for a revised settlement" (source : NYTimes)
  • L'opposant numérique Nicholas Carr qui, sur son blog, adresse une lettre à Larry (Page) : "nobody elected Larry Page to unilaterally rewrite copyright rules, and by now it should be clear that Google's interests are not the public's interests". Difficile d'être en désaccord sur cet argument même s'il ne recouvre qu'une petite partie de la réalité (l'autre grosse partie étant l'incurie des états à se saisir en urgence de la question des oeuvres orphelines)
  • James Grimmelmann pour qui : "The Google Books Settlement is dead, Long live the digitized book."
  • Lionel (Maurel), dans un billet remarquable, et même s'il garde prudemment un point d'interrogation à la fin de son titre "Fin de partie ?"
  • les principaux éditeurs canadiens
  • et notre ministère de la Culture (dont on se souviendra tout de même des errements tragico-comiques sur ce dossier) qui en profite pour indiquer la voie d'avenir réciter la leçon de son maître, à savoir le parangon libéral des PPP (partenariats public privé, dont le dossier de la gestion de l'eau illustre les innombrables bénéfices mais pardon je m'égare ... quoique ...)
  • etc ...

Les "ni-ni". Ni satisfaits. Ni déçus.

  • Nombre d'analystes, d'éditorialistes et de journaux comme Publisher's Weekly se positionnent sur le credo du "personne n'a gagné."
  • Les bibliothécaires américains par la biais de la Library Copyright Alliance, répondent dans un communiqué de presse (.pdf) assez ... biblio-abscons (ou conservativo-généraliste) : "The decision makes clear that copyright law continues to present significant barriers to libraries and other partners interested in engaging in mass digitization initiatives. Such initiatives provide broad, deep and important public access to cultural and historical resources to users throughout the world. The library community has always supported—and worked long and hard for— constructive and practical orphan works legislation that would benefit all stakeholders."
  • La position du Hathi Trust (pour un rappel sur le rôle du Hathi Trust, c'est par là) est beaucoup plus musclée puisqu'ils indiquent, en gros, ne pas être concernés par la décision rendue et s'appuyer sur les exceptions au droit d'auteur pour continuer de constituer leur propre catalogue à partir d'une sauvegarde de celui de Google : "the HathiTrust partners will continue providing comprehensive full-text search of the repository and uses of in-copyright materials that fall under sections 107 and 108 of U.S. copyright law: access for users who have print disabilities, and lawful uses of digital copies of materials that are damaged, deteriorating, lost or stolen, and not available at a reasonable market price". Couillu :-)

Et puis aussi : 

  • Comme le rappelle cet article du New-York Times, le copyright est un concept juridique vieux de 300 ans. Il faudra bien quelques années supplémentaires pour (hypothèse pessimiste) légitimer son modèle dans le cadre des oeuvres numériques ou pour (hypothèse optimiste) envisager une sortie progressive de ce cadre légal parfaitement inadapté au profit de modèles prenant en compte les spécificités du numérique et l'intérêt de chacun - et donc de tous - dans un accès à la fois ouvert et représentatif à tout ce qui relève du patrimoine commun de l'humanité. 
  • Comme le montrent les réactions à chaud du directeur exécutif et du président de la Guilde des auteurs (cf ci-dessus), ces derniers comptent continuer à négocier avec Google, probablement pour obtenir la mise en place d'un opt-in systématique, pour gagner également un peu de terrain sur celui occupé par les éditeurs dans la négociation des droits, en ayant clairement conscience qu'il ne serait satisfaisant pour personne que le réglement soit uniquement "rejeté". 
  • A noter aussi (toujours dans le NYTimes) que des groupes d'éditeurs se disent déçus du rejet de l'accord mais contents que le juge Chin ait montré la bonne voie (= celle de l'opt-in). On voit bien là encore que Google est un passage obligé pour les mêmes éditeurs (originellement plaignants) s'ils veulent pouvoir optimiser les nouveaux modèles économiques liés à la fabrication et à la diffusion des livres numériques.
  • comme signalé ici, le principal enseignement de la décision du juge Chin est qu'il y a urgence à ce que le politique statue définitivement sur les oeuvres orphelines : "But the future of books depends on Congress acting to fix the orphan works problem once and for all, for everyone."

Il est donc hautement probable que l'on reparte pour une nouvelle négociation, une "revision amendée du règlement amendé". Le périmètre (et les modalités) de la mise en place d'une procédure d'opt-in constitueront le centre névralgique des négociations qui ont déjà commencées. Les plaignants (auteurs et éditeurs) ont pour eux une décision de justice. Ils ont pour eux le droit. Google a pour lui le catalogue, le public (captif) et les usages, comme autant instruments de la conquête d'un marché. Autant dire que la balance est presque à l'équilibre.  La mise en place d'un opt-in précautionneux ou négocié au cas par cas avec les éditeurs (comme dans le cas d'Hachette) pourrait lui permettre de garder l'avantage décisif tout en se conformant aux règles du droit.

J'allais oublier : Eric Schmidt, qui vient de laisser sa place à Larry Page à la tête de Google, serait bientôt nommé secrétaire au commerce du gouvernement Obama. Est-il utile de développer ?

Quant à mon opinion et/ou mes remèdes miracles (spéciale dédicace amicale à Calimaq ;-), ils n'ont pas varié d'un iota et sont toujours lisibles ici. Pas davantage que n'a varié ma position sur le fond non pas de "l'affaire" mais du "projet" Google Books :

  • Le projet Google Books pour les oeuvres orphelines et les oeuvres libres de droit est un projet remarquable, exceptionnel et nécessaire et que nul autre ne peut prétendre aujourd'hui porter à une telle échelle quantitative.
  • Ses modalités actuelles (contrats avec les bibliothèques, les éditeurs, réglement amendé) sont en revanche extrêmement dangereuses, par le risque d'eugénisme documentaire qu'elles font peser sur les oeuvres libres de droit, et par le risque de monopole et de contrôle de la production intellectuelle (et de suppression d'une certaine idée de la diversité éditoriale) qu'elles font peser sur la production éditoriale courante et sur les oeuvres orphelines. 

Un oracle pour terminer ? Non. Mais un sentiment. Le sentiment que les intérêts particuliers vont une fois de plus l'emporter sur l'intérêt général. L'intérêt général c'est celui qui commande que l'ensemble de l'humanité connectée puisse avoir un accès le plus large et le plus ouvert possible au patrimoine littéraire constitué des oeuvres libres de droits et des oeuvres orphelines. Il faut pour cela - et notamment pour ces dernières - légiférer au niveau (au moins) européen. L'intérêt particulier c'est celui de Google ET des éditeurs qui n'a pour but que le contrôle d'un marché, la préservation ou l'augmentation de certaines marges financières (il ne s'agit pas de leur en tenir rigueur, simplement d'en dresser le constat).

Donc ? Donc si un règlement d'ensemble devait in fine être abandonné au profit d'accords particuliers comme celui mis en place avec Hachette, l'intérêt général aurait alors définitivement perdu la partie. Partie perdue parce que seraient érigées en modèle les "vertus" dangereuses et pour le coup numériquement inadéquates, inefficaces et stérilisantes, les vertus dangereuses, disais-je, de la territorialité plutôt que de l'universalité, du contrôle fermé plutôt que de la dissémination contrôlée, de l'usage privatif plutôt que de l'usage équitable.

L'opt-in libéré, l'opt-in consacré, mais l'opt-in ... dévoyé ! L'opt-in, s'il est moralement plus que légitime (de la même manière que l'opt-out ne peut, aux yeux de la loi et du sens commun qu'apparaître comme parfaitement illégitime et spoliateur), l'opt-in n'est, dans le raisonnement des acteurs en présence, qu'un moyen de dissimuler sous le fard criard de la légitimité outragée, la perfidie orchestrée du maintien d'une rente de situation.

PIèces à verser au dossier :

  • Le document de la décision du juge Chin est consultable ici (le site d'origine est )
  • le billet limpide de Lionel Maurel (spécialiste français du sujet)
  • les billets de James Grimmelmann (spécialiste mondial du sujet), en particulier celui-ci
  • la "carte des possibles" de la Library Copyright Alliance (.pdf) qui reste plus que jamais ... ouverte.

Agenda : université permanente

Je serai demain à l'université permanente de Nantes (= université du "troisième âge") pour une conférence de 2 heures sur "l'identité numérique et les réseaux sociaux." Dans ma (courte ?) carrière d'universitaire, j'ai déjà beaucoup bossé auprès de publics très différents, allant d'étudiants de première année aux écoles doctorales, en passant par la formation professionnelle, la formation pour adultes ou encore la formation de formateurs, mais là ce sera une première. Je vous raconterai tout ça. :-)

De quoi la page web est-elle le nom ? Ou l'enluminure du code.

« L’ordinateur, aujourd’hui, est obsédé par le livre, avec ses dispositifs de ‘lecture’ en amont, avec ses ‘imprimantes’ en aval, avec ses ‘livres électroniques’ sur disquettes ou sur disques compacts désormais, qui transforment cet instrument de mémorisation et de classement en une ‘machine’ à entrées multiples, productrices de ‘textes’, au sens étymologique de ce terme (ce qui est tissu de mots).» Jacques Donguy (1)

L'ordinateur obsédé par le livre comme le web l'est par la "page". Le mystère du "PageRank", selon qu'il s'agit du classement de Larry "Page" ou du classement des "pages". Une "page" dont les dernières liseuses ou tablettes (Ipad en tête) cherchent à retrouver la blancheur et l'épure, comme signe d'une rassurante appartenance au déjà connu, la seule luminosité en plus.

Ibooks_open_book

En scrutant à rebours mon propre apprentissage du web, deux moments me sont apparus comme déterminants.

  • Celui, premier, où j'ai découvert le code sous la page ; ce code HTML, ses balises, ses hyperliens, la glorieuse époque des "frames" permettant de gérer dans un seul espace d'affichage autant de "pages" que l'on souhaitait.
  • Et puis celui, second, où j'ai vu apparaître les premiers dispositifs "d'encapsulage" et d'agrégation ou de syndication ; ces contenus dans les contenus ; ces codes dans le code. Entre ces deux moments il y avait eu une thèse sur l'hypertexte. Mais ils restent aujourd'hui dans mon petit bestiaire du net, comme deux instants d'une pareille "révélation".

Quelques années plus tard, la "page-web" n'en finit plus d'être déconstruite, déterritorialisée, reconstruite, reterritorialisée, redocumentarisée : la page se fluidifie, se wiki-fie, s'agrège et se désagrège, elle encapsule des publicités dans des vidéos elles-mêmes déjà semblablement encapsulées sur des milliers d'autres "pages".

Partout sur le réseau, les "fermes de contenus" génèrent automatiquement chaque minute des dizaines de milliers de pages et des liens sans qu'aucune quête du sens, sans qu'aucune simple envie d'écrire ne justifie leur production ; simplement pour alimenter des métriques, des "ranking" ; une écriture automatique, sanctuarisée par les moteurs qui en sont également les industriels lecteurs.

La "page" est le lieu duquel les contenus sont escamotés par les dispositifs sans lesquels elle ne pourrait pourtant pas exister, pas s'afficher ; la "page" est le théâtre d'interactions permanentes, rémanentes aussi ; parler de "page web" aujourd'hui semble, à y regarder de près, aussi incongru que de parler d'un seul feuillet pour évoquer l'entièreté de la Comédie Humaine.

Prônant l'observation participante, j'essaie et teste en permanence (mais pas toujours sur ce blog pour lui maintenir un semblant de cohérence visuelle) différents dispositifs afférents à la page. Avec cette question à l'horizon : de quoi la page web est-elle le nom ?

Je propose de distinguer 6 modalités différentes de la "page-web", 6 espaces composites mais (le plus souvent) distincts, et dont la conjonction, partielle ou totale, fait exister et permet de fixer numériquement cette trace que, faute de mieux, on nomme "page".

  1. pages de surface
  2. pages profondes
  3. pages encapsulées  
  4. p ages marginalisées
  5. pages relationnelles 
  6. pages-dispositifs

Chacune d'entre elles disposant d'internalités et d'externalités tout à tour machiniquement pesantes (mais sachant - le plus souvent - rester transparentes) ou rendant compte d'interactions fluides avec celui qui la parcourt. Tentons le coup. Et pour ne pas entretenir la confusion, convenons, au moins le temps de cet argumentaire, de remplacer le terme "page" par "espace"

  • 1 / Pages Espaces "de surface".

Il s'agit des contenus HTML au sens large, c'est à dire incluant le web statique et le web dynamique (où le code est généré à la volée, suite à la requête d'un utilisateur, comme dans les cas des sites permettant de consulter les horaires de trains ou d'avions).

Ces espaces de surface peuvent être caractérisés par des internalités légères (les liens hypertextes qu'ils contiennent) et par des externalités également légères (les fonctionalités de type "commentaire" par exemple).

  • 2 / Espaces "profonds".

Il s'agit d'espaces "simples" mais qui permettent et utilisent tout type de syndication ou d'agrégation de contenus, soit par le biais de "widgets" embarqués, soit par la saisie du code approprié, mais également d'espaces simplement "hôtes", comme dans le cas de Netvibes, ou plus récemment des sites sur le modèle de Paper.li. Je m'étais déjà attardé sur la spécificité de ces espaces dans ce billet avec les termes suivants :

"Dans ces pages d'accueil, il n'est plus de contenu "interne" mais simplement une architecture informationnelle entièrement générée (et temporairement stabilisée, fixée numériquement) à partir de contenus informationnels tous externalisés (la météo de ma région piochée sur Yahoo, mon courrier électronique capté dans Gmail, les fils de presse extraits de mon aggrégateur, etc ...). Le contenu s'efface derrière l'architecture. Le discours n'est plus ancré dans un dispositif (technologique) mais le dispositif ancre le discours"

Ces espaces profonds se caractérisent par des externalités légères (= les widgets comme ornementation de contenus relevant par ailleurs d'espaces "de surface") ainsi que par des externalités lourdes (cas des pages Netvibes ou constituées de contenus informationnels tous - ou très majoritairement - externalisés).

  • 3 / Espaces d'encapsulation.

Il s'agit ici de ces zones comprenant des vidéos, des livres ou documents à feuilleter, des diaporamas, etc, préalablement "flashés" pour pouvoir ensuite être librement encapsulés sur un site tiers. La logique est celle d'une internalité si l'on considère que l'initiative en revient à l'auteur, mais cela peut également relever d'une externalité si la brisure narrative ou le contraste entre l'élément encapsulé et les contenus l'entourant est suffisamment grand.

Ledit encapsulage s'effectue le plus souvent de manière "légère" mais il peut également être beaucoup plus lourd / pesant / puissant dans le cas du Bitty Browser, déjà évoqué sur ce blog, et toujours aussi littéralement vertigineux (J.-L. Borges aurait adoré, j'en suis sûr !)

Nota-Bene : l'encapsulage repose sur le même principe que la syndication ou l'agrégation (externalités des contenus appelés). Mais il en "enrichit" la palette en l'élargissant à des contenus multimédias. Les espaces profonds et les espaces d'encapsulage sont cependant très proches dans le cadre de cette typologie.

  • 4 / Espaces marginalisés (ou marginalisants). Ou Marginalia (mais c'est déjà pris)

Il s'agit ici de rendre compte des dispositifs qui s'inscrivent, qui s'insèrent, qui s'installent dans les marges (haute, basse ou latérales) de la page-écran. On en distinguera 2 types.

  • les espaces marginalisés à l'initiative de l'auteur (internalités)
    • exemple : installation des Toolbar (barre d'outils) Google Translate sur le haut d'une page et de Wibiya en marge basse, comme sur le blog du bibliobsédé)
    • autre exemple : la Toolbar d'administration dans la dernière version de wordpress.
  • les espaces marginalisés à l'initiative du lecteur (externalités)

Nota-Bene : je n'évoque ici délibéremment que les espaces marginalisés qui entrent dans l'espace de la page-écran, et j'exclus l'ensemble des dispositifs qui prennent place dans la barre de statuts du navigateur (cf ci-après), parce que ladite barre me semble "en-dehors" de cet espace de la page que je tente de caractériser (mais bon je peux me tromper :-)

  • 5 / Espaces relationnels.

Ils concernent la possibilité de mise en relation de contenus. A la différence des espaces d'encapsulage pour lesquels les contenus sont directement visibles au coeur de l'espace appelant, les espaces relationnels fonctionnent sur le principe de la mise en attente (du clic du lecteur), ou, si l'on préfère, sur celui d'un consentement éclairé du lecteur. On en distinguera deux principaux types :

  • des internalités légères (principalement les liens hypertextes)
  • des externalités plus pesantes et/ou pregnantes regroupant l'ensemble des signalements sur les réseaux sociaux ou au sein de différents agrégateurs (activité de "propulsion", contribution au "buzz"), les dispositifs de republication (avec parfois, à la volée, un soupçon de redocumentarisation possible).
  • 6 / Espaces dispositifs (ou dispositifs dans l'espace)

Ces dispositifs sont ceux qui externalisent littéralement la fabrique de la page, ou de l'espace de la page (côté auteur). Ils comprennent également ceux qui permettent de l'enrichir en fonctionnalités, tels les plug-in des navigateurs (côté lecteur). Ils se chargent et sont convoqués en arrière-plan de manière entièrement transparente pour le lecteur (ou sans que l'auteur en ait connaissance). En témoigne la petite animation ci-dessous qui présente le chargement des dispositifs afférents au blog Bibliobsession.

On peut ici compter au moins 16 "applications", 16 dispositifs différents, de Facebook à Google Docs, en passant par Slideshare et bien d'autres. 16 pages / sites / entités convoqués pour la fabrication d'un seul espace, d'une seule ... page ? Ce "chargement", cette montée en charge prédétermine et conditionne la nature de la page qui sera in fine affichée à l'écran. S'il faut lui trouver une analogie, cet espace de la page-web, de la page-écran est définitivement plus proche de celui d'une pièce de théâtre et de sa machinerie invisible que de celui d'un livre tourne-page. Chaque chargement est une nouvelle scène, convoquant un nouveau décor, de nouveaux acteurs, des entrées côté cour et côté jardin. Deus ex machina.

Ce qui donne ...

(cliquez sur l'image pour l'agrandir)

Diapositive1

Web-média & page-écran. Le web est un média palimpseste. La rature, la surcharge, les transparences lui sont consubstantielles. La page-écran n'existe pas. Des écrans reflètent et fixent temporairement un code(x?) en perpétuelle renégociation. Renégociation bien sûr des agencements collectifs d'énonciation qui s'y présentent, mais renégociation également certaine, re-computation permanente des internalités et des externalités de l'ensemble des codes qui font ce que nous pensons être une page ; qui sont ce que nous pensons être la page. Là est la richesse du web-média, son attraction créatrice, sa réelle puissance disruptive. Le web sémantique demain, la sémantisation du web d'aujourd'hui, la socio-sémantique qui rend compte des discours, des techniques et des ingénieries sociales à l'oeuvre sur le web, sont de nouveaux horizons riches de promesses, sont autant de "code(x) incognita" que beaucoup oeuvrent à inventer, à penser et à bâtir. A l'exact opposé des sites-centrifugeuses, ne reposant que sur des internalités propriétaires, et vivant tout recours à une externalité comme un phagocytage possiblement autorisé. Sites dont Facebook est le paradigme naturel, comme tous ceux qui au rhizome préfèrent le point, tous ceux que Tim bernes Lee nomme "walled gardens" et dont l'hyper-territorialisation est la valeur cardinale dans la géopolitique du wet.

Loin, très loin donc de l'épure. Jamais le "web" n'aura été aussi loin de la métaphore qui lui est habituellement associée : celle de la "page". Cet espace particulier de scénarisation multipartite de discours, ce petit théâtre d'escamotages et d'interactions permanentes que, faute de mieux, nous continuerons d'appeler "page", s'éloigne toujours davantage de l'épure pour s'approcher du combat originel pour l'affirmation d'une pensée : il s'agissait alors de profiter au maximum de l'espace offert, d'en chasser l'absence, pour y inscrire autant de mots et d'images que possible, au risque de la surcharge. Hier le codex comme agrégation de pages en linéarité. Puis l'hypertexte entre livre de sable et la bibliothèque Borgesienne. Aujourd'hui le code. L'essentialité du code. L'enluminure du code. Le code comme enluminure.

800px-Bible_Jan_de_Selmberk
 

Clausule. Oubliez tout ça. Reposez-vous. Soufflez. Tournez-vous vers votr bibliothèque. Prenez un livre. Ouvrez une page au hasard. Commencez à lire. Puis dans le menu > affichage activez "code source de la page." Si vous ne le trouvez pas, posez-vous la question : "de quoi cette page est-elle le nom." Et retour.

(1) Donguy J., « Poésie et ordinateur. », in Littérature et informatique : la littérature générée par ordinateur, Vuillemin A., Lenoble J. (textes réunis par), Arras, Artois Presses Université, 1995. Journées d’étude internationales Littératures et Informatique, Paris, 20-22 Avril 1994. [en ligne] http://www.univ-reunion.fr/t99_mirroirs/multi_ct/littinfo/0_aaa.htm, consulté le 06/04/2000.

Le petit lien du week-end ...

est un blog parmi des millions d'autres. http://www.adaptcreative.co.uk. Rempli de petites merveilles de design, de création, de graphisme, de marketing, d'art, de poésie, et de plein d'autres trucs.

Exemples :

Peerevaluation.org

Je trouve l'initiative particulièrement intéressante. Et j'aime beaucoup le travail de Gloria Origgi. Donc je relaie ici :-)

"Peer Evaluation (www.peerevaluation.org) est un réseau social qu'Aalam Wassef, artiste egyptien et information designer avec lequel je collabore depuis dix ans (notamment sur le projet www.interdisciplines.org ) vient de créer, après de nombreuses discussions que nous avons eu sur le rôle de la réputation dans la recherche, les biais dans les systèmes d'extraction automatique de ranking académique etc. et le besoin d'une forme plus contrôlée par les chercheurs même de gestion de la réputation.

Je vous encourage donc à nous aider à lancer ce projet, qui nous servira aussi pour des tests empiriques sur l'étude de la construction de la réputation scientifique en ligne. Il suffit d'aller sur le site www.peerevaluation.org, mettre toutes les informations que vous voulez, et enjoy the experience!

Prenez 5 minutes pour le faire, ça nous aide beaucoup dans notre travail de vous avoir "on board" et j'espère que ça va vous aider aussi à penser la réputation académique différemment !

Bien à vous
Gloria Origgi"

Et si Wikileaks était une métadonnée ?

La lecture croisée de deux informations a éveillé mon intérêt et suscité les réflexions suivantes.

La première est cette interview de Bernard Stiegler sur l'Open Data, sur les données "ouvertes" c'est à dire librement accessibles et consultables mais également et surtout librement "computables", donnant lieu à un potentiel gigantesque de nouvelles "computations", de nouveaux calculs.

Dans cette interview, Stiegler revient également sur un de ses leitmotivs, l'importance déterminante des "métadonnées", une importance à laquelle le chercheur en sciences de l'information que je suis ne peut que souscrire : la grammatisation numérique qui est la marque du XXIème siècle est en effet très fortement encadrée et conditionnée par notre capacité à produire et à manipuler des métadonnées, une production et une manipulation qui est agissante en permanence et le plus souvent de manière presque inconsciente. L'essentiel de nos discours situés - au sens où Lave et Wenger parlent d'apprentissage situés (situated learning) - sont des métadonnées, des méta-actions/descriptions sur les univers de discours et de proximité qu'ils recouvrent ou qu'ils permettent de distendre et de propager. L'essentiel de nos discours situés (interactions sur Facebook, gazouillis Twitter, etc) documente notre présence en terre numérique (géolocalisation, statuts déclaratifs, etc), où permet à des opérateurs de le faire (avec ou sans notre accord). Stiegler précise ensuite :

"Celui qui maitrise la production des métadonnées a un pouvoir sur la mémoire collective : il peut conditionner les débats publics et les apprentissages."

Rôle essentiel là encore des métadonnées dans un environnement numérique qui externalise chaque jour davantage nos mémoires documentaires, nos mémoires collectives, nos mémoires intimes également. Sans ces métadonnées, le monde numérique ne serait qu'une gigantesque soupe primitive inexplorable, inexploitable, impossible à parcourir.

Après avoir lu cette interview, je tombe sur un tweet mentionnant cet article du Telegraph dans lequel on indique que des câbles diplomatiques révélés par Wikileaks mentionnaient, il y a déjà 2 ans de cela, qu'un accident nucléaire important était inévitable en cas de forte secousse sismique.

"An official from the International Atomic Energy Agency (IAEA) said in December 2008 that safety rules were out of date and strong earthquakes would pose a "serious problem" for nuclear power stations."

Je publie à mon tour un tweet pour diffuser l'article du Telegraph avec le commentaire suivant :

"Pour ceux qui douteraient encore de l'intérêt de Wikileaks : http://bit.ly/gcNeco Diachronie politique vitale pour la démocratie"

Et puis je repense à l'article de Stiegler. Le câble de Wikileaks, l'accident nucléaire japonais. Les métadonnées, Stiegler.


Que montrent ces 2 informations ? Qu'au-délà des débats sur le soi-disant intérêt très relatif de certains câbles diplomatiques révélés par Wikileaks, qu'au-delà du débat même sur la transparence ou l'opacité nécessaire au fonctionnement de la diplomatie d'un état, Wikileaks est une (sorte de) métadonnée, ou en tout cas fonctionne comme telle, remplit le même mode opératoire.

Wikileaks est une métadonnée nécessaire au politique et vitale pour l'existence d'une démocratie numérique située, c'est à dire ancrée dans un espace citoyen bien réel et non plus simplement confinée dans un improbable cyber-espace irénique. Wikileaks documente le fonctionnement du débat citoyen, de la même manière que les guerres d'éditions sur Wikipédia documentent les zones mouvantes du discours notamment politique (souvenons-nous de la guerre d'édition à propos de l'EPR).

De cette documentation là le numérique ne peut ni ne doit faire l'économie. Une documentation d'autant plus efficace qu'elle a une vocation et une nature diachronique. Une diachronie d'autant plus essentielle qu'elle permet de compenser l'asynchronie rassurante de l'essentiel de nos habitus numériques (la communication via les réseaux soiaux par exemple) ou la synchronie étouffante de l'actualité "live" qui n'autorise aucun travail de mémoire, d'engrammation pérenne.

Aujourd'hui, dans l'écologie cognitive que le numérique met en place, seule les métadonnées, profondément diverses dans leur intention comme dans leurs modes d'action ont cette capacité à jouer simultanément sur ces 3 temporalités :

  • diachronie (pour les métadonnées directement liées à l'archive / l'archivistique),
  • a-synchronie (pour celles liées à la documentation, à l'indexation),
  • et synchronie (pour les métadonnées "machiniques", "computationnelles", générées par la machine ou par nos interactions transparentes avec elle).

Stiegler encore (je souligne) :

"Quantité de pouvoirs détiennent des données qu’ils ne veulent pas abandonner parce que leur pouvoir même repose sur cette rétention de l’information. En même temps, nous savons que le secret peut être nécessaire – qu’il s’agisse de celui qui protège la vie privée, ou de celui qui permet d’éviter la guerre, et qui inscrit dans le temps réel de al décision un temps différé qui est aussi celui de la réflexion. 

Reste que la démocratie est toujours liée à un processus de publication – c’est à dire de rendu public – qui rend possible un espace public : alphabet, imprimerie, audiovisuel, numérique."

Affordance et Abondance sont dans un bateau.

Agenda. Je serai le Mardi 5 Avril à l'URFIST de Bordeaux pour une journée de formation sur "l'évolution des outils de recherche". Et j'en suis doublement content. D'abord parce que j'aime bien les URFIST, et ensuite parce que l'autre intervenant est pour moi une référence et l'un de ceux qui a le plus accompagné mes premiers pas dans le monde des moteurs de recherche il y a de cela déjà plus de 15 ans ... j'ai nommé Olivier Andrieu.

Le stage est annoncé là, et pour s'inscrire, la procédure est expliquée dans le petit bandeau à droite de cette page.

Réseaux sociaux : pourquoi et comment les investir ?

Je serai le Jeudi 12 mai l'invité du groupe L'étudiant pour une conférence sur les réseaux sociaux. J'interviendrai l'après-midi dans une table-ronde sur "Comment créer un sentiment d'appartenance grâce aux réseaux sociaux". J'essaierai d'y défendre l'idée développée dans le billet : "pourquoi je suis "ami" avec mes étudiants".

Le programme complet de la journée est accessible ici.

DOAJ

Browse by Subject


Agriculture and Food Sciences
       Agriculture (General) (122 journals)
      
Animal Sciences (86 journals)
      
Aquaculture and Fisheries (14 journals)
      
Forestry (33 journals)
      
Nutrition and Food Sciences (33 journals)
      
Plant Sciences (43 journals)
Arts and Architecture
       Architecture (32 journals)
      
Arts in general (51 journals)
      
History of arts (10 journals)
      
Music (37 journals)
      
Performing Arts (23 journals)
      
Visual Arts (16 journals)
Biology and Life Sciences
       Biology (218 journals)
            
Anatomy (10 journals)
            
Botany (75 journals)
            
Cytology (11 journals)
            
Genetics (49 journals)
            
Microbiology (49 journals)
            
Physiology (31 journals)
            
Zoology (87 journals)
      
Life Sciences
             Biochemistry (50 journals)
            
Biotechnology (34 journals)
Business and Economics
       Business and Management (191 journals)
      
Economics (146 journals)
Chemistry
       Analytical Chemistry (11 journals)
      
Chemical Engineering (12 journals)
      
Chemistry (General) (93 journals)
      
Inorganic Chemistry (4 journals)
      
Organic Chemistry (11 journals)
Earth and Environmental Sciences
       Earth Sciences (85 journals)
      
Ecology (49 journals)
      
Environmental Sciences (95 journals)
      
Geography (80 journals)
      
Geology (89 journals)
      
Geophysics and Geomagnetism (13 journals)
      
Meteorology and Climatology (26 journals)
      
Oceanography (28 journals)
General Works
       Multidisciplinary (149 journals)
Health Sciences
       Dentistry (72 journals)
      
Medicine (General) (437 journals)
            
Allergy and Immunology (26 journals)
            
Anesthesiology (14 journals)
            
Cardiovascular (71 journals)
            
Dermatology (21 journals)
            
Gastroenterology (36 journals)
            
Gynecology and Obstetrics (33 journals)
            
Internal medicine (268 journals)
            
Neurology (98 journals)
            
Oncology (75 journals)
            
Ophthalmology (26 journals)
            
Otorhinolaryngology (19 journals)
            
Pathology (36 journals)
            
Pediatrics (54 journals)
            
Pharmacy and materia medica (74 journals)
            
Psychiatry (49 journals)
            
Sports Medicine (20 journals)
            
Surgery (83 journals)
            
Therapeutics (77 journals)
            
Urology (26 journals)
      
Nursing (35 journals)
      
Public Health (160 journals)
History and Archaeology
       Archaeology (31 journals)
      
Diplomatics. Archives. Seals (2 journals)
      
History (177 journals)
Languages and Literatures
       Languages and Literatures (240 journals)
      
Linguistics (159 journals)
Law and Political Science
       Law (112 journals)
      
Political Science (161 journals)
Mathematics and Statistics
       Mathematics (183 journals)
      
Statistics (42 journals)
Philosophy and Religion
       Philosophy (156 journals)
      
Religion (77 journals)
            
The Bible (5 journals)
Physics and Astronomy
       Astronomy (General) (17 journals)
      
Physics (General) (73 journals)
            
Acoustics (6 journals)
            
Electricity (6 journals)
            
Heat (2 journals)
            
Mechanics (1 journals)
            
Nuclear Physics (4 journals)
            
Optics and Lights (15 journals)
Science General
       Information theory (1 journals)
      
Science (General) (97 journals)
Social Sciences
       Anthropology (70 journals)
      
Education (435 journals)
      
Ethnology (24 journals)
      
Gender Studies (31 journals)
      
Library and Information Science (117 journals)
            
Bibliography (2 journals)
      
Media and communication (93 journals)
      
Psychology (145 journals)
      
Social Sciences (257 journals)
            
Migration (7 journals)
      
Sociology (112 journals)
            
Social and Public Welfare (32 journals)
      
Sports Science (42 journals)
Technology and Engineering
       Chemical Technology (28 journals)
      
Computer Science (258 journals)
      
Construction (13 journals)
      
Electrical and Nuclear Engineering (41 journals)
      
Environmental Engineering (8 journals)
      
Environmental Technology (9 journals)
      
General and Civil Engineering (128 journals)
      
Hydraulic Engineering (3 journals)
      
Industrial Engineering (16 journals)
      
Manufactures (9 journals)
      
Materials (30 journals)
      
Mechanical Engineering (30 journals)
      
Military Science (7 journals)
      
Mining and Metallurgy (11 journals)
      
Technology (General) (76 journals)
      
Transportation (20 journals)

La gouvernance documentaire dans les organisations françaises

« La gouvernance, c’est la stratégie et l’organisation définies afin de gérer, sécuriser, partager, conserver, valoriser et maîtriser l’information et la connaissance afin d’améliorer l’efficacité d’une organisation », explique SerdaLAB dans son dernier livre blanc. Selon ce laboratoire de veille, d’études et de prospective du groupe Serda, tout ce que la gouvernance recouvre de notions et de déclinaisons participe d’un changement de modèle face à une situation généralisée : masse  d’information, volume de données, multiplicité de sources, de données, documents structurés, non structurés, multiplicité de canaux d’information.

« Aujourd’hui, on continue encore trop souvent dans les entreprises à vouloir trouver les réponses avec une organisation éclatée : la documentation d’un côté, la cellule de veille de l’autre, la gestion des  courriers entrants, la gestion des archives, des documents courants ou l’animation de communautés ; autant d’activités et de professionnels ayant peu l’occasion de collaborer entre eux. Construire une  gouvernance documentaire sur mesure pour son organisation peut être un travail passionnant, en  collaboration étroite avec les « parties prenantes » que  sont les dirigeants, les managers,  les  professionnels de l’information,  les utilisateurs, les travailleurs nomades et les clients ou citoyens de  plus en plus demandeurs d’informations. Une « bonne » gouvernance documentaire peut fonctionner selon le principe d’une stratégie et d’une coordination centralisée et/ou d’un fonctionnement décentralisé ou mixte ».

Menée en ligne entre janvier et février 2011 auprès de 250 organisations publiques et privées, l’enquête SerdaLAB a eu pour objectif de comprendre les difficultés en terme d’organisation  documentaire auxquelles sont confrontées les entreprises, de tester le niveau de compréhension et de sensibilité à la gouvernance documentaire, d’analyser les besoins et les attentes sur ce sujet.

Ce  qu’attentent les entreprises en matière de gouvernance documentaire

Les attentes en matière de gouvernance documentair

Les entreprises consultées estiment que la gouvernance documentaire doit répondre à deux principales problématiques : le volume croissant d’informations pour 70% des répondants, et l’éparpillement des sources d’informations (système d’information interne, Internet, email, papier, etc.) pour 64%. 35% d’entre elles estiment que la gouvernance documentaire permettrait de réduire le temps passé à rechercher de l’information. Pour un quart, une bonne gouvernance documentaire permettrait de réduire le nombre de services gérant l’information et, pour 21%, que les décisions pourraient être prises plus rapidement.

SerdaLAB a posé la question de la définition de la gouvernance documentaire en segmentant différentes notions. Pour beaucoup d’entreprises (44%), la gouvernance documentaire se définit comme une stratégie d’entreprise pour faire face aux enjeux en termes d’information. Les organisations interrogées attendent d’abord d’une gouvernance documentaire un gain en efficacité. 65% d’entre elles en attendent aussi une mise à disposition des bonnes informations à l’ensemble des collaborateurs, et près de la moitié des entreprises mentionnent que la gouvernance documentaire permet de gagner en qualité de décision, grâce à des informations fiables.

Dans une moindre mesure, les entreprises sondées voient dans une gouvernance davantage de traçabilité de l’information en cas notamment de recherche de preuves, une efficience (gains rapportés aux ressources employées) plus grande, une meilleure relation client, une conformité aux lois, normes et règlements en vigueur plus grande, une réduction des risques juridiques en cas de litige ou de contentieux, un gain en développement durable, une baisse des coûts (notamment de stockage informatique), et ,enfin, la confidentialité de certaines informations stratégiques.

Il ressort de cette enquête que 53% des entreprises interrogées n’ont pas de gouvernance documentaire, et peu à l’échelle de l’ensemble de l’organisation. Mais 21% ont un projet prévu en 2011-2012. Et pour les trois quarts d’entre elles la gouvernance documentaire va prendre de plus en plus d’importance à l’avenir, 20% autant d’importance.

Le livre Blanc se penche ensuite sur l’organisation de la gouvernance documentaire et sa mise en œuvre. SerdaLab détaille notamment comment les entreprises assurent la gouvernance documentaire, quels services sont impliqués, comment s’opèrent les choix entre gestion centralisée et décentralisée, et évoque les moyens d’une gouvernance documentaire efficace.

Le livre blanc est disponible ici

 

 

 

Les commentaires sont fermés.

 
Toute l'info avec 20minutes.fr, l'actualité en temps réel Toute l'info avec 20minutes.fr : l'actualité en temps réel | tout le sport : analyses, résultats et matchs en direct
high-tech | arts & stars : toute l'actu people | l'actu en images | La une des lecteurs : votre blog fait l'actu