Livre 2010

J’étais hier (Jeudi) invité à participer à l’une des 10 tables-rondes du projet « Livre 2010 », à l’initiative (notamment) de la Direction du Livre et de la Lecture (DLL) du Ministère de la Culture.
Le thème de cette 4ème table-ronde était : « Le livre et l’accès au savoir ». Vous noterez le singulier de l’ensemble du titre, et plus particulièrement de sa seconde partie. Eût-on débattu différemment si la table-ronde s’était appelée « Les livres et l’accès aux savoirs » ? Peut-être. Mais là n’est pas l’essentiel.
On peut aller à ces table-rondes pour plusieurs bonnes raisons : pour les petits-fours (perdu), pour soigner son ego (perdu, je suis plutôt en train de soigner une grippe carabinée), pour collectionner les cartes de visite (encore perdu). Plus prosaïquement, j’y allais parce que j’avais gentiment été invité et pour collecter des points de vue différents du mien (et aussi parce que j’avais lu le nom de Marin Dacos sur le pré-programme et que j’avais depuis longtemps très envie de le rencontrer, mais perdu, il n’était pas là, ce sera pour une autre fois). Et aussi parce que j’avais quelques éléments à avancer sur le fond.
En arrivant à bon port, nous nous vîmes 18, sous la présidence de Jean-François Hébert (président de la cité des sciences et de l’industrie) et de Sophie Barluet (directrice du projet Livre 2010). Sur les 16 restants, 7 éditeurs (Dalloz, Armand Colin, PUF …), 3 directeurs de bibliothèques, 2 universitaires (Philippe Minard, historien (Update)– également là au titre d’auteur – , et votre serviteur), et un autre auteur "scientifique" (Etienne Klein) (/Update). Le tout accompagné d’une large représentation de la DLL. (pour la liste complète des présents et le programme détaillé, c’est par là :Téléchargement li2010.doc.
Venons-en au fond. Représentativité de l’assemblée oblige, c’est le discours des éditeurs qui fut le plus « présent ». Avec de mon côté quelques grandes sources d’étonnement. Par exemple, jamais il ne fut question de la « longue traîne », y compris dans le débat qui eut lieu sur les marchés de niche (lesquels sont – pour les éditeurs présents – les classes prépa et les préparations aux concours). Autre étonnement, l’absence d’évocation du problème Google. J’ai bien fait un ou deux gentils rappels à l’ordre mais sans déclencher de cillement d’intérêt. J’en déduis que soit je suis complètement monomaniaque, soit ils ne mesurent pas l’étendue du problème, soit ils ont d’autres urgences. Soit les trois 😉
Autre impression à  chaud : un discours assez remonté (parfois avec raison) sur le rôle des universités, du LMD et des enseignants dans la dégradation des pratiques de lecture des étudiants : on ne lit pas assez, on ne fait plus référence aux textes, on bachote sans ouvrir l’esprit des étudiants aux textes fondateurs, « la racine des problèmes du livre est dans la manière d’enseigner à l’université » (sic), c’était mieux avant, le niveau baisse et j’en passe ma bonne dame. Heureusement que 2 âmes charitables (Olivier Postel Vinay – auteur d’une étude sur les pratiques de lecture étudiantes – et Philippe Minard pour ne pas les nommer) contribuèrent à recadrer un débat qui commençait à sentir le bord de zinc et le tabac froid. Dont acte. Mais plein de choses intéressantes furent également dites (en vrac) :

  • sur l’urgence de prendre en charge et de « faire catalogue » des œuvres dans la « zone grise » (= encore sous droit mais plus éditées, ce dont Google Book se repaît et ce dont il argue pour justifier ses entorses au droit d’auteur – cf ma présentation au CNL)
  • sur la « crise de la prescription » (Jean-François Hébert)
  • sur l’impérieuse nécessité de « créer une offre de contenus numériques en ligne »
  • sur la tout aussi impérieuse nécessité de rassembler les efforts de numérisation publics (la fantômatique BNUE fut à peine évoquée, un peu à la manière dont on parle d’une vieille tante lithuanienne dont on ne s’attend pas à avoir des nouvelles avant longtemps)
  • sur le départ vers le Master, suite à la mise en place du LMD, des « textes de savoir », les cursus +3 étant souvent réduits à de la remise à niveau.
  • sur l’indifférentiation et la segmentation des textes et des connaissances

De mon côté, les rares interventions que je me suis permis de glisser concernaient

  • la topologie des savoirs au travers des différents espaces du web (cf ma petite théorie de la dérive des continents informationnels),
  • la nécessité absolue et urgentissime de « servicialiser le catalogue » (= y mettre du RSS, l’ouvrir aux utilisateurs, donner des extraits et non simplement des notices catalographiques, etc.). Sur ce dernier point, Denis Bruckmann de la BnF indiqua qu’un chantier de réflexion était en cours et que de tels services étaient effectivement à l’étude. Chouette. Reste à connaître les délais.
  • Ma dernière intervention concernant le « qui peut qualifier l’information aujourd’hui ? », où j’essayai en 17 secondes d’exposer le problème des Digital Natives et des nouvelles autorités cognitives sur Internet et (de mon point de vue) la nécessité de les laisser se construire en les confrontant aux autorités cognitives existantes (par exemple en faisant cohabiter, au sein d’un catalogue, des expertises métier – celles des bibliothécaires – et d’autres plus expérientielles, culturelles, subjectivées. En gros le modèle de LibraryThing.

Comme d’habitude je n’ai pas eu le temps de dire le tiers du quart des choses qui me paraissaient indispensables, mais c’est pas grave puisque je vais me rattraper sur ce blog 🙂

  • A la question : « Quelle complémentarité possible entre édition en ligne et édition papier ? »

Je réponds …Que je veux filer un peu la métaphore du « complexe du cyclope » développée par Marin Dacos. Vous vous souvenez tous de la manière dont les compagnons d’Ulysse sortirent de la grotte du cyclope Polyphème : accrochés sous le ventre des moutons. Et bien la situation actuelle de complémentarité est trop souvent celle-là : nous sommes des polyphèmes et nous regardons sortir des moutons papier sans voir les compagnons numériques (ou inversement : moutons numériques et compagnons papier). Alors au risque d’énoncer quelques évidences, il faut rappeler que le papier n’est pas le numérique. Que l’on ne lit pas de la même manière ni pour les mêmes raisons un document papier et un document numérique. Que ce ne sont d’ailleurs pas les mêmes personnes qui les lisent. Donc ? Donc je crois qu’il faut davantage penser l’édition numérique en rupture et non en complémentarité ou en accompagnement. C’est-à-dire exploiter pleinement, non pas simplement les possibilités du « full-text », mais également et surtout celles de l’hypertexte. Aller jusqu’au bout des logiques de diffusion, de navigation et d’appropriation propres au numériques, y compris quand ces logiques intègrent un part d’éphémère, d’effacement de la trace ou du support.

  • A la question : « Comment aider le public à trouver ses repères dans la masse d’information produite aujourd’hui ? Qui peut qualifier l’information et comment ? » Et à la question liée : « Quelle réponse les portails et les moteurs de recherche spécilisés peuvent-ils apporter ? »

Je réponds … L’A-C-C-E-S. L’accès. Et de la valeur ajoutée, comme celle rendue possible par la clusterisation. Imaginez que vous interrogiez un moteur de recherche "scientifique" avec le requête "CPE" et que vous obteniez vos résultats classés dans « x » dossiers dont les suivants :
–    Revues juridiques / droit du travail : 17références
–    Revues sociologiques / mouvements étudiants : 48 références
–    …

Pour que cela fonctionne il faut plusieurs choses : de l’interopérabilité d’abord entre les fonds numérisés. Et puis réinventer les « annuaires » (directories) autour de catalogues interopérables (éditeurs et bibliothèques sont là pour ça, d’ailleurs, côté bibliothèques, le boulot est déjà fait avec les nombreux "signets" qui peuplent les sites desdites bibliothèques). Et enfin les habiller des habitus actuels (interfaces de type « onebox »)

  • A la question : « Livre et Internet une intégration à construire : comment les éditeurs utilisent-ils internet ? »

Je réponds … concernant les éditeurs et leurs catalogues : Il faut coopérer. Car la situation des éditeurs ressemble aujourd’hui de plus en plus à celle du dilemme du prisonnier en théorie des jeux : coopérer ou non, et pour quel gain ? Il faut donc coopérer. Pourquoi ? Parce que d’autres coopèrent déjà et qu’ils ont ouvert une brèche qui ne peut être refermée. Parce qu’ensuite, les moteurs passeront (ils passent déjà) outre les règles législatives nationales en terme de droit. Parce qu’enfin et surtout, les usages sont déjà installés et correspondent à une demande grandissante. Alors oui il faut que les éditeurs ouvrent leurs catalogues, et que les pouvoirs publics se décident enfin à faire quelque chose (en concertation avec les édiuteurs) de toute cette zone grise de la littérature (scientifique ou non). Pas n’importe comment bien entendu. En prenant des précautions. En s’armant de métadonnées par exemple. Mais il le faut parce qu’indépendamment de la question des droits, il faut penser en complémentarité et non en opposition.
Exemple : Que seraient les archives ouvertes et institutionnelles, que seraient les « textes de savoir » sans leur visibilité dans les moteurs de recherche dans un monde où, que l’on le veuille ou non et qu’il s’agisse ou non d’une bonne chose, l’essentiel du traffic, des visites, s’effectue depuis ces prescripteurs que sont les moteurs (Google en tête) ?

  • A la question : « Quelle offre éditoriale pour la production et la diffusion des connaissances ? Va-t-on vers un marché de niche ? »

Je réponds … Probablement. Mais n’est-ce pas déjà un peu (beaucoup) le cas ?? Alors essayons de tirer le meilleur parti du fait que ces « niches » disposent aujourd’hui d’une formidable fonction d’écho et de dissémination qui les rend plus perméables que par le passé.

  • A la question : « Quelle offre éditoriale (pour la production des savoirs) ? »

Je réponds … Que l’offre en question doit donner des outils d’entrée et d’appropriation des textes conformes aux usages prescripteurs (RSS par exemple). Qu’elle doit s’appuyer sur la formidable vitalité et l’organisation de la blogosphère (je prends ici l’exmeple particulier du droit et de la Blawgosphère), dont les auteurs sont majoritairement des enseignants et des bibliothécaires, donc les premiers perscripteurs.

Pour le reste … J’étais venu armé d’un pauvrepoint dans lequel j’avais essayé de résumer les points importants autour du « livre et de l’accès au savoir » (avant d’apprendre qu’il s’agissait bien d’un débat et non d’une série d’exposés). Pauvrepoint (Téléchargement livre2010.ppt
: attention c’est du vrac, et parfois une simple reprise de billets publiés sur Affordance)
que je remets donc à l’attention de celles et ceux qui le souhaitent et dans lequel vous trouverez ce qui me semble important :

  • pour comprendre le contexte et le modèle documentaire du numérique : longue traîne, processus de redocumentarisation, dérive des continents documentaires
  • pour saisir les cultures et les besoins des usagers : culture du fragment, du gratuit, de l’ouvert, de l’agrégation, de l’appropriation, du service, de l’économie (au sens écossais du terme ;-), et de la synchronicité. Et besoin de discrimination (ou d’aide à la discrimination), de recommandation, de centralisme et de proximité, d’interopérabilité.
  • pour comprendre l’articulation savoir/information sans la dissoudre dans un manichéisme bon teint : la passage d’une encyclopédisme savant à un encyclopédisme d’usage, et une « révélation cognitive » (Google + archives ouvertes + wikipedia)
  • pour trouver de nouveaux modes de médiation : l’importance de penser des stratégies et des servies pour un monde « ouvert », l’importance d’intégrer – en la relativisant – la babélisation des expertises, l’importance d’accepter et de reconnaître l’émergence de nouvelles autorités cognitives (les « digital natives »)
  • pour travailler autour du nœud du débat, c’est-à-dire du catalogue : la nécessité de travailler l’appropriation sur deux axes que sont la personnalisation et la servicialisation du catalogue, la nécessité également de laisser émerger des logiques de co-construction avec l’usager (blogs, commentaires, recommandations, etc …), l’importance des fonctions de géolocalisation pensées comme interopérabilité socio-environnementale (en complément d’une interopérabilité technique), l’importance de la « révolution catalographique » (cf librarything), la mesure des risques de nous voirt devenir autant d’autarcithécaires (si les deux règles d’interopérabilité mentionnées ci-dessus ne sont pas appliquées), l’importance encore d’exploiter la sérendipité (par exemple en tant qu’effet induit des chaînes de recommandation)
  • et tout un tas d’autres choses que j’espère plus claires et plus détaillées dans le pauvrepoint en question : Téléchargement livre2010.ppt

Et pour finir en faisant plaisir à Anne Lejeune qui assume la délicate charge de résumer les débats, voici ma liste de propositions (par ordre d’importance) :

  1. DONNER DE L’ARGENT AUX BIBLIOTHEQUES UNIVERSITAIRES (on a dit propositions, on n’a pas dit propositions réalistes 🙂
  2. Servicialiser le(s) catalogue(s).
  3. Systématiser les logiques d’accès :
    • Par proximité (le livre dans la bibliothèque, la librairie près de chez vous = géolocalisation amont et non aval comme dans le sudoc par exemple)
    • Par affinité (logiques de recommandation)
    • Par remontée d’expertise (Folksonomies et indexation sociale)
  4. Intégrer aux pratiques éditoriales numériques les habitus culturels de la génération les maîtrisant (ces habitus).
  5. Penser des services et des stratégies pour un monde « ouvert »
  6. Intégrer dans les services numériques, en la relativisant, la babélisation des expertises (= ouvrir les systèmes d’information publics … AU public. Et pas seulement « en lecture » – comme disent les informaticiens – mais aussi en « écriture »)

Voilà 🙂
Pardon aux lecteurs d’Affordance pour ce billet de longueur inhabituelle qui compensera un peu le ralentissement de rythme de ces derniers jours. Et encore merci à l’équipe de la DLL pour leur invitation et l’organisation de ces séries de tables-rondes.

12 commentaires pour “Livre 2010

  1. Salut Olivier,
    Sur cette question, je rappelle, même si ses propositions sont différentes des tiennes, cette étude qui nous a occupés assez longtemps : http://manum.enssib.fr/
    Si tu en as l’occasion, passe leur la référence.
    En France, il y a bien une chose qu’on ne sait pas faire : capitaliser le savoir.. surtout entre deux ministères différents.

  2. Merci pour ce long billet (en tout cas, moi la compensation me convient très bien 😉 et merci d’avoir pris le temps de nous résumer cette rencontre. Il y aurait beaucoup à dire mais en tout cas je soutiens ta position concernant le catalogue. Mais à mon avis la solution ne tient pas seulement dans les interfaces et les services : nous avons des masses de données, il faut réussir à les “libérer” c’est-à-dire les sortir de nos bases de données propriétaires, les mettre dans des formats ouverts, construire des protocoles de type Web service, et ensuite les recombiner dans de nouvelles interfaces adaptées aux différents publics, ou mieux, laisser les publics construire leurs propres interfaces. Demain…

  3. Jean-Michel> Et ben … effectivement, découvrant le rapport Manum … y’a du grain à moudre … je transmets illico à la personne en charge de la coordination livre 2010 qui est une ancienne de l’ENSSIB, et qui est donc peut-être déjà au courant. De plus, je voie que Renaud lefevre de Dalloz était dans le comité Manum et était aussi présent jeudi mais n’a pas évoqué le projet Manum … ce qui confirme tes doutes sur la capitalisation du savoir 🙁
    Manue> Ouaip !

  4. Merci Olivier pour cet écho de table-ronde, intéressant.
    On peut rester perplexe en constatant que, plus de 18 mois après le rapport de François Stasse, personne n’ait encore une idée précise de l’étendue de ladite ‘zône grise’ (les oeuvres protégées indisponibles). S’agit-il d’un secret de Polichinelle que personne n’ose énoncer publiquement, ou bien d’un secret industriel ?
    F. Stasse évoquait ‘plusieurs millions de titres’. C’est peut-être beaucoup plus (hypothèse perso). On est bien là au coeur du sujet entre l’économie de l’imprimé et l’écologie du numérique. La ‘zone grise’ rend compte très exactement de la capacité limite de l’économie du papier dans la diffusion des savoirs. Bien mieux que la fameuse ‘longue traine’ ou de façon complémentaire au moins : la ‘longue traine’ par définition, ne concerne que les imprimés disponibles (basée sur les ventes d’Amazon, non ?).
    Et entre les deux, il resterait à tenir compte, également, de la masse considérable des imprimés qui terminent au pilon (la moitié de la production éditoriale selon certains) non parce qu’ils ne trouvent pas leur public, mais parce que l’économie de leur support est inadéquate. Là aussi : secret industrielle ou réalité inavouable ?
    Pour moi, on en revient à peu près toujours au triangle Accessibilité Visibilité Lisibilité, quelle que soit la forme du support.

  5. Bibliobsession> Oui, j’avais vu ce remarquable pauvre point dans lequel la citation “Amazon est notre cahier des charges pour les années à venir” me semble résumer parfaitement la situation.

  6. ça paraît un peu surréaliste, l’ambiance
    en tout cas, nous les auteurs, ignorés par principe : sans doute qu’on est trop bêtes pour ces messieurs dames ?
    merci de ces analyses et petites lampes rouges qui s’allument – ce concept que vous développez à propos de la complémentarité est vraiment essentiel dans ce qui s’amorce via le net
    cela précise ou devance préoccupations perso:
    http://www.tierslivre.net/spip/spip.php?article592
    merci donc pour ce blog

  7. François Bon> Il n’y avait effectivement qu’un seul auteur (d’ouvrages scientifiques sur la théorie de la relativité) présent à cette table-ronde. Mais le programme de concertation livre 2010 compte en tout 10 tables-rondes (cf programme complet sur le site du CNL): gageons et espérons que les auteurs seront mieux (quantitativement s’entend) représentés dans d’autres tables-rondes …
    Merci à vous en tout cas pour l’analyse que vous fournissez à propos des blogs dans l’espace littéraire francophone, et plus globalement pour votre “ouvrage” (sur) internet que je suis avec délectation depuis le temps où mes études littéraires m’ont amené à l’informatique.
    Cordialement
    Olivier.

  8. Je suis content de lire ton billet dont les idées sont celles que je mets en pratique depuis quatre ans au sein de l’École des chartes et dans mes recherches (cf mon DEA et mes articles).
    Si tu le permets, je nuancerais pour autant tes propos sur deux points. Tout d’abord, à propos de la complémentarité, cette notion est fondamentale, car elle permet une meilleure appropriation de l’idée de l’édition numérique par les chercheurs. Cette complémentarité est réelle, tu le dis toi-même, les usages du papier et du numérique sont différents. Que l’édition numérique ne se limite pas à des bases de données textuelles et au full-text, j’en suis convaincu, mais, pour autant, il faut garder en tête l’idée que le papier et le numérique ne s’oppose pas, mais se complète, sinon on risque de se heurter à un mur…
    Le deuxième point est une réflexion que m’inspire ton billet et qui est un peu mon cheval de bataille en ce moment. Réussir une édition numérique ne s’improvise pas, aussi bien au niveau du contenu, que de l’architecture (applicative aussi bien qu’hypertextuelle) et des moyens techniques pour la mettre en place. Or, c’est justement là que le bât blesse. Les formations n’existent pas ou peu et on peut toujours parler de Web 2.0, interopérabilité et standards, mais si personne n’est capable d’implémenter ces technologies, les intentions ne vont rester qu’à l’état de discours, jolis certes. Alors, le défi, il est là, former des gens compétents capables de comprendre le contenu qu’ils sont en train de mettre en ligne et de modéliser et de déployer les meilleurs technologies (ce qui ne signifie pas forcément utiliser la dernière techno à la mode) pour ce faire tout en respectant des règles (dont la citabilité n’est qu’un des nombreux exemples). Or, la formation doit s’accompagner d’une recherche dans ce domaine et là, je pose la question de façon un peu provocante : elle est où la recherche dans ce domaine en France ???

  9. je ne sais pas quel sera le programme des prochaines tables rondes de cette mission, et donc pas question de faire procès d’intention
    mais j’ai quand même l’impression d’avoir toujours affaire à des gens qui jouent en défense : ce qu’il y a d’essentiel dans ce que vous développez sur la complémentarité, c’est que de notre côté on expérimente “avec” Internet, sans rien perdre de notre engagement ou notre exigence littéraire (j’en suis de plus en plus sûr) mais sur des modèles hors droits d’auteur, ou toutes ces usines à gaz de rétribution sur droits d’exploitation virtuels
    en défense aussi sur des modèles de diffusion (allusion au phénomène “longue traîne”) et de déplacement des pratiques (la critique littéraire et l’impossibilité pour les journaux qui en vivent, aussi nobles que la Quinzaine littéraire ou le Matricule des Anges, de se virtualiser sans perdre leur socle marchand, même minuscule)
    à titre d’exemple encore: le centre national du livre aide les revues “graphiques”, les vieilles dames de l’édition, à se doter de sites Internet (pas de résultats vraiment brillants en la matière d’ailleurs), mais n’a pas vocation paraît-il d’aider les sites littéraires qui se passent de version papier (remue.net par exemple, ou chaoid.com, ou inventaire/invention)
    j’ai quand même l’impression que ces éléments ne sont pas étrangers au fait que cette mission, bien tardive, se tienne à l’écart de la réalité créatrice du Net et de ses acteurs
    tout cela bien sûr pour le strict champ littéraire, c’est à dire pas grand-chose, j’en conviens

  10. Pour simplifier la mise en oeuvre des technologies web 2.0 dans les bibliothèques, nous venons de lancer un projet de logiciel libre destiné à remplacer l’OPAC traditionnel et qui se branchera sur les SIGB existants en s’appuyant sur MoCCAM.
    Vous trouverez les premières caractéristiques du projet sur le site http://afi.opac.2.0.free.fr
    Toutes les nouvelles idées et contributions sont naturellement les bienvenues.
    Arnaud Lelache

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

Articles similaires

Commencez à saisir votre recherche ci-dessus et pressez Entrée pour rechercher. ESC pour annuler.

Retour en haut