Les mutations du livre
Nicolas Ancion, écrivain et responsable éditorial de Luc Pire électronique, partage le même sentiment. «Ces appareils ne me paraissent pas porteurs d'avenir dans le grand public tant qu'ils restent monotâches (ou presque), écrit-il en avril 2001. Un médecin ou un avocat pourront adopter ces plateformes pour remplacer une bibliothèque entière, je suis prêt à le croire. Mais pour convaincre le grand public de lire sur un écran, il faut que cet écran soit celui du téléphone mobile, du PDA ou de la télévision. D'autre part, je crois qu'en cherchant à limiter les fournisseurs de contenus pour leurs appareils (plusieurs types d'ebooks ne lisent que les fichiers fournis par la bibliothèque du fabricant), les constructeurs tuent leur machine. L'avenir de ces appareils, comme de tous les autres appareils technologiques, c'est leur ouverture et leur souplesse. S'ils n'ont qu'une fonction et qu'un seul fournisseur, ils n'intéresseront personne. Par contre, si, à l'achat de son téléphone portable, on reçoit une bibliothèque de vingt bouquins gratuits à lire sur le téléphone et la possibilité d'en charger d'autres, alors on risque de convaincre beaucoup de monde.»
Emilie Devriendt, élève professeur à l'Ecole normale supérieure (ENS) de Paris, écrit en juin 2001: «S'il doit s'agir d'un ordinateur portable légèrement "relooké", mais présentant moins de fonctionnalités que ce dernier, je n'en vois pas l'intérêt. Tel qu'il existe, l'ebook est relativement lourd, l'écran peu confortable à mes yeux, et il consomme trop d'énergie pour fonctionner véritablement en autonomie. A cela s'ajoute le prix scandaleusement élevé, à la fois de l'objet même et des contenus téléchargeables; sans parler de l'incompatibilité des formats constructeur, et des "formats" maison d'édition. J'ai pourtant eu l'occasion de voir un concept particulièrement astucieux, vraiment pratique et peu coûteux, qui me semble être pour l'heure le support de lecture électronique le plus intéressant: celui du "baladeur de textes" ou @folio, en cours de développement à l'Ecole nationale supérieure des arts et industries de Strasbourg. Bien évidemment, les préoccupations de ses concepteurs sont à l'opposé de celles des "gros" concurrents qu'on connaît, en France ou ailleurs: aucune visée éditoriale monopolistique chez eux, puisque c'est le contenu du web (dans l'idéal gratuit) que l'on télécharge.»
= @folio, baladeur de textes
Conçu dès octobre 1996 par Pierre Schweitzer, architecte designer à Strasbourg, @folio (qui se prononce: a-folio) est un support de lecture nomade permettant de lire des textes glanés sur l'internet. Il cherche à mimer, sous forme électronique, le dispositif technique du livre, afin de proposer une mémoire de fac-similés reliés en hypertexte pour faciliter le feuilletage.
«J'hésite à parler de livre électronique, écrit Pierre Schweitzer en janvier 2001, car le mot "livre" désigne aussi bien le contenu éditorial (quand on dit qu'untel a écrit un livre) que l'objet en papier, génial, qui permet sa diffusion. La lecture est une activité intime et itinérante par nature. @folio est un baladeur de textes, simple, léger, autonome, que le lecteur remplit selon ses désirs à partir du web, pour aller lire n'importe où. Il peut aussi y imprimer des documents personnels ou professionnels provenant d'un CD-Rom. Les textes sont mémorisés en faisant : "imprimer", mais c'est beaucoup plus rapide qu'une imprimante, ça ne consomme ni encre ni papier. Les liens hypertextes sont maintenus au niveau d'une reliure tactile. (…) Le projet est né à l'atelier Design de l'Ecole d'architecture de Strasbourg où j'étais étudiant. Il est développé à l'Ecole nationale supérieure des arts et industries de Strasbourg avec le soutien de l'ANVAR-Alsace. Aujourd'hui, je participe avec d'autres à sa formalisation, les prototypes, design, logiciels, industrialisation, environnement technique et culturel, etc., pour transformer ce concept en un objet grand public pertinent.» Pour ce faire, la start-up iCodex est fondée en juillet 2002.
Quelques années après, l'optique de Pierre Schweitzer reste toujours la même. «Il ne s'agit pas de transformer le support papier des livres existants, c'est absurde, écrit-il en janvier 2007. Il s'agit plutôt d'offrir un support de lecture efficace aux textes qui n'en ont pas, ceux qui sont accessibles sur le web. Avec @folio, je reste persuadé qu'un support de lecture transportable qui serait à la fois simple et léger, annotable et effaçable, à bas coût, respectueux de la page et de nos traditions typographiques, pourrait apporter un supplément de confort appréciable à tous les usagers du texte numérique. Une ardoise dont on pourrait feuilleter l'hypertexte à main nue, en lieu et place de l'imprimante…»
Quelle est la technologie utilisée? Pierre Schweitzer explique en août 2007: «La technologie d'@folio est très différente de celle des autres "ebooks", actuels ou passés: elle est inspirée du fax et du classeur à onglets. La mémoire flash est imprimée comme Gutenberg imprimait ses livres. Ce mode facsimilé ne nécessite aucun format propriétaire, il est directement lisible à l'oeil nu. Le facsimilé est un mode de représentation de l'information robuste, pérenne, adaptable à tout type de contenu (de la musique imprimée aux formules de mathématique ou de chimie) sans aucune adaptation nécessaire. C'est un mode de représentation totalement ouvert et accessible à tous: il supporte l'écriture manuscrite, la calligraphie, les écritures non alphabétiques, et le dessin à main levée, toutes choses qui sont très difficiles à faire à l'aide d'un seul outil sur un ordinateur ou un eBook classique. Cette conception technique nouvelle et très simplifiée permet de recueillir une grande variété de contenus et surtout, elle permet un prix de vente très raisonnable (100 euros pour le modèle de base) dans différentes combinaisons de formats (tailles d'écran) et de mémoire (nombre de pages) adaptées aux différentes pratiques de lecture.»
Outre cette technologie novatrice, quel est l'avantage de la lecture sur @folio par rapport à la lecture sur ordinateur portable? «La simplicité d'usage, l'autonomie, le poids, le prix. Quoi d'autre? La finesse n'est pas négligeable pour pouvoir être glissé presque n'importe où. Et l'accès immédiat aux documents - pas de temps d'attente comme quand on "allume" son ordinateur portable : @folio ne s'allume jamais et ne s'éteint pas, la dernière page lue reste affichée et une simple pression sur le bord de l'écran permet de remonter instantanément au sommaire du document ou aux onglets de classement.»
= Smartphones et successeurs
Au début des années 2000, le choix des gros consommateurs de documents semble se porter vers l'ordinateur ultra-portable, du fait de ses fonctions multi-tâches. Outre le stockage d'un millier de livres sinon plus, selon le format numérique choisi, celui-ci permet l'utilisation d'outils bureautiques standard, l'accès au web, l'écoute de fichiers musicaux et le visionnement de vidéos ou de films. Certains sont également tentés par le webpad, un ordinateur-écran sans disque dur disposant d'une connexion sans fil à l'internet, apparu en 2001. D'autres optent pour la tablette PC, une tablette informatique pourvue d'un écran tactile, apparue fin 2002.
Parallèlement, le marché des assistants personnels (PDA) poursuit sa croissance. 13,2 millions d'assistants personnels sont vendus dans le monde en 2001, et 12,1 millions en 2002. En 2002, Palm est toujours le leader du marché (36,8% des machines vendues), suivi par la gamme Pocket PC de Microsoft et les modèles de Hewlett-Packard, Sony, Handspring, Toshiba et Casio. Les systèmes d'exploitation utilisés sont essentiellement le Palm OS (pour 55% des machines) et le Pocket PC (pour 25,7% des machines). En 2004, on note une amélioration des machines, une plus grande diversité des modèles et une baisse des prix chez tous les fabricants. Les trois principaux fabricants sont Palm, Sony et Hewlett-Packard. Suivent Handspring, Toshiba, Casio et d'autres. Mais l'assistant personnel est de plus en plus concurrencé par le smartphone, qui est un téléphone portable doublé d'un assistant personnel, et les ventes commencent à baisser. En février 2005, Sony décide de se retirer complètement du marché des assistants personnels.
Le premier smartphone est le Nokia 9210, modèle précurseur lancé en 2001 par la société finlandaise Nokia, grand fabricant mondial de téléphones portables. Apparaissent ensuite le Nokia Series 60, le Sony Ericsson P800, puis les modèles de Motorola et de Siemens. Ces différents modèles permettent de lire des livres numériques sur le Mobipocket Reader. Appelé aussi téléphone multimédia, téléphone multifonctions ou encore téléphone intelligent, le smartphone dispose d'un écran couleur, du son polyphonique et de la fonction appareil photo, qui viennent s'ajouter aux diverses fonctions de l'assistant personnel: agenda, dictaphone, lecteur de livres numériques, lecteur de musique, etc. Les smartphones représentent 3,7% des ventes de téléphones portables en 2004 et 9% des ventes en 2006, à savoir 90 millions d'unités sur un milliard.
Si les livres numériques ont une longue vie devant eux, les appareils de lecture risquent de muer régulièrement. Denis Zwirn, président de la société Numilog, résume bien la situation en février 2003: «L'équipement des individus et des entreprises en matériel pouvant être utilisé pour la lecture numérique dans une situation de mobilité va continuer de progresser très fortement dans les dix prochaines années sous la forme de machines de plus en plus performantes (en terme d'affichage, de mémoire, de fonctionnalités, de légèreté…) et de moins en moins chères. Cela prend dès aujourd'hui la forme de PDA (Pocket PC et Palm Pilot), de tablettes PC et de smartphones, ou de smart displays (écrans tactiles sans fil). Trois tendances devraient être observées : la convergence des usages (téléphone / PDA), la diversification des types et tailles d'appareils (de la montre-PDA-téléphone à la tablette PC waterproof), la démocratisation de l'accès aux machines mobiles (des PDA pour enfants à 15 euros). Si les éditeurs et les libraires numériques savent en saisir l'opportunité, cette évolution représente un environnement technologique et culturel au sein duquel les livres numériques, sous des formes variées, peuvent devenir un mode naturel d'accès à la lecture pour toute une génération.»
10.4. Le papier électronique
= Souhaits en l'an 2000
Considéré par beaucoup comme transitoire, l'appareil de lecture ne serait qu'une étape vers le papier électronique. De l'avis d'Alex Andrachmes, explorateur d'hypertexte, interviewé en décembre 2000, «c'est l'arrivée du fameux "papier électrique" qui changera la donne. Ce projet du MIT (Massachusetts Institute of Technology) qui consiste à charger électriquement une fine couche de "papier" - dont je ne connais pas la formule - permettra de charger la (les) feuille(s) de nouveaux textes, par modification de cette charge électrique. Un ebook sur papier, en somme, c'est ce que le monde de l'édition peut attendre de mieux.»
Lucie de Boutiny, romancière multimédia, écrit pour sa part en juin 2000: «Et voici le changement que j'attends : arrêter de considérer les livres électroniques comme le stade ultime post-Gutenberg. L'ebook rétro-éclairé a pour l'instant la mémoire courte: il peut accueillir par exemple dix livres contenant essentiellement du texte mais pas une seule oeuvre multimédia riche en son et images, etc. Donc ce que l'on attend pour commencer: l'écran souple comme une feuille de papier légère, transportable, pliable, autonome, rechargeable, accueillant tout ce que le web propose (du savoir, de l'information, des créations…) et cela dans un format universel avec une résolution sonore et d'image acceptable.»
Pierre-Noël Favennec, expert à la direction scientifique de France Télécom R&D, explique en février 2001: «Si l'invention du livre-papier avait été faite après celle de l'ebook, nous l'aurions tous trouvé géniale, Mais un ebook a un avenir prometteur si on peut télécharger suffisamment d'ouvrages, si la lecture est aussi agréable que sur le papier, s'il est léger (comme un livre), s'il est pliable (comme un journal), s'il n'est pas cher (comme un livre de poche)… En d'autres mots, l'ebook a un avenir s'il est un livre, si le hard fait croire que l'on a du papier imprimé… Techniquement, c'est possible, aussi j'y crois. Au niveau technologique, cela exigera encore quelques efforts (chimie, électronique, physique…).»
Christian Vandendorpe, professeur à l'Université d'Ottawa et spécialiste des théories de la lecture, résume les développements probables. «Le livre électronique va accélérer cette mutation du papier vers le numérique, surtout pour les ouvrages techniques, prédit-il dès mai 2001. Mais les développements les plus importants sont encore à venir. Lorsque le procédé de l'encre électronique sera commercialisé sous la forme d'un codex numérique plastifié offrant une parfaite lisibilité en lumière réfléchie, comparable à celle du papier - ce qui devrait être courant vers 2010 ou 2015 -, il ne fait guère de doute que la part du papier dans nos activités de lecture quotidienne descendra à une fraction de ce qu'elle était hier. En effet, ce nouveau support portera à un sommet l'idéal de portabilité qui est à la base même du concept de livre.
Tout comme le codex avait déplacé le rouleau de papyrus, qui avait lui-même déplacé la tablette d'argile, le codex numérique déplacera le codex papier, même si ce dernier continuera à survivre pendant quelques décennies, grâce notamment au procédé d'impression sur demande qui sera bientôt accessible dans des librairies spécialisées. Avec sa matrice de quelques douzaines de pages susceptibles de permettre l'affichage de millions de livres, de journaux ou de revues, le codex numérique offrira en effet au lecteur un accès permanent à la bibliothèque universelle. En plus de cette ubiquité et de cette instantanéité, qui répondent à un rêve très ancien, le lecteur ne pourra plus se passer de l'indexabilité totale du texte électronique, qui permet de faire des recherches plein texte et de trouver immédiatement le passage qui l'intéresse. Enfin, le codex numérique permettra la fusion des notes personnelles et de la bibliothèque et accélérera la mutation d'une culture de la réception vers une culture de l'expression personnelle et de l'interaction.»
= E Ink
Le développement du papier électronique débute dès 1997. On peut le définir comme un support souple d'une densité comparable au papier plastifié ou au transparent. Ce support peut être utilisé indéfiniment et le texte changé à volonté au moyen d'une connexion sans fil. Si le concept est révolutionnaire, le produit lui-même est le résultat d'une fusion entre trois sciences : la chimie, la physique et l'électronique. Plusieurs équipes travaillent à des projets différents, le plus connu étant E Ink.
Fondée en avril 1997 par des chercheurs du Media Lab du MIT (Massachusetts Institute of Technology), la société E Ink met au point une technologie d'encre électronique. Il s'agit d'une technologie à particules, dites électrophorétiques. Très schématiquement, on peut la décrire ainsi : prises entre deux feuilles de plastique souple, des millions de microcapsules contiennent chacune des particules noires et blanches en suspension dans un fluide clair. Un champ électrique positif ou négatif permet de faire apparaître le groupe de particules souhaité à la surface du support, afin d'afficher, de modifier ou d'effacer les données.
En juillet 2002, E Ink présente le prototype du premier écran utilisant cette technologie, un écran de haute résolution à matrice active développé en partenariat avec les sociétés Toppan et Philips. La commercialisation de cet écran de 6 pouces est effective en avril 2004 pour le Librié de Sony, suivi ensuite de l'iLiad d'Irex Technologies puis du Sony Reader en décembre 2006.
Dès ses débuts, E Ink envisage des livres et journaux électroniques sur support souple, notamment ce que la société appelle provisoirement le RadioPaper, qui donnera les nouvelles du jour via l'internet sans fil. Un projet qui deviendra bientôt réalité dans les usines de Plastic Logic en Europe et de LG.Philips LCD en Asie, avec des produits utilisant tous deux la technologie E Ink.
Fondée en 2000, la société britannique Plastic Logic est spécialisée dans le développement et la production de papier électronique. Avec un poids infime de 62 grammes (un quotidien imprimé pèse 375 grammes), cet écran souple à matrice active aura au départ quatre niveaux de gris. Le fait de plier le support souple déclenchera le chargement d'une nouvelle page. Le téléchargement des livres et journaux se fera par connexion WiFi. En janvier 2007, Plastic Logic annonce la construction de son premier site de production de papier électronique dans la région de Dresde, en Allemagne, avec début de production en 2008. Si l'affichage des données se fera en noir et blanc dans un premier temps, la couleur est prévue pour 2010 et la vidéo pour 2012.
La société coréenne LG.Philips LCD travaille quant à elle sur un prototype d'écran flexible couleur. Un écran souple de 10,1 pouces est d'abord disponible en noir et blanc en octobre 2005, suivi d'un écran souple de 14,1 pouces en mai 2006 puis d'un écran couleur de même taille en mai 2007. Le groupe japonais Epson présente lui aussi un papier électronique ultrafin et de haute résolution en avril 2007.
En mai 2007, la société E Ink présente le successeur de sa technologie E Ink sous le nom de Vizplex Imaging Film, appelé plus simplement Vizplex, une technologie EPD (electronic paper display) avec un chargement d'image deux fois plus rapide (740 microsecondes au lieu de 1200), une image plus constrastée (20% de plus) et huit niveaux de gris au lieu de quatre. Les premiers modèles utilisant la technologie Vizplex seront produits dès l'été 2007 par PrimeView International (PVI), qui est à ce jour le seul fabricant d'écrans EPD à matrice active. Les futurs écrans souples auront une diagonale de 1,9 pouces, 5 pouces, 6 pouces, 8 pouces et 9,7 pouces. Ils équiperont divers appareils : téléphones mobiles, lecteurs de MP3, accessoires PC, assistants personnels (PDA), affichettes commerciales, dictionnaires électroniques, tablettes de lecture et tablettes PC. La génération précédente (technologie E Ink) se limite aux écrans de 6 pouces équipant les tablettes de lecture.
= Autres initiatives
Tout comme l'équipe d'E Ink, des chercheurs du Palo Alto Research Center (PARC), le centre Xerox de la Silicon Valley, travaillent depuis 1997 à la mise au point d'une technique d'affichage dénommée gyricon. Le procédé est un peu différent de celui d'E Ink. Très schématiquement, la technologie est la suivante: prises entre deux feuilles de plastique souple, des millions de micro-alvéoles contiennent des microbilles bicolores en suspension dans un liquide clair. Chaque bille est pourvue d'une charge électrique. Cette fois, c'est une impulsion électrique extérieure qui permet la rotation des billes, et donc le changement de couleur, permettant ainsi d'afficher, de modifier ou d'effacer les données. Intitulé SmartPaper, le matériau correspondant serait produit en rouleaux, tout comme le papier traditionnel. La société Gyricon Media est créée en décembre 2000 pour commercialiser cette technologie. Le marché pressenti est d'abord celui de l'affichage commercial, qui utilise le système SmartSign, développé en complément du SmartPaper. La vente d'affichettes fonctionnant sur piles débute en 2004. Sont prévus ensuite les panneaux de signalisation, puis le papier électronique et le journal électronique. La société cesse ses activités en 2005. Les activités de développement se poursuivent ensuite au sein de Xerox.
Un autre acteur d'importance est Nemoptic. Créée en 1999 en région parisienne par Alain Boissier et une équipe du CNRS, la société Nemoptic développe et produit des écrans à cristaux liquides (écrans LCD) bistables pour des applications mobiles destinées au grand public et aux professionnels. Comme indiqué sur le site web, «ces écrans fins et légers permettent d'obtenir des images de haute résolution très contrastées et présentent un confort de lecture équivalent au papier imprimé. La technologie de rupture BiNem® (Bistable Nematic) de Nemoptic peut s'appliquer à de nombreux produits portables, comme les livres éducatifs électroniques, les dictionnaires et journaux électroniques, les PC ultra-portables, les téléphones portables, les jouets ainsi que les étiquettes électroniques. Les écrans de Nemoptic possèdent plusieurs avantages : haute résolution, consommation d'énergie nulle en état de veille, rapidité d'affichage et faible coût. Les écrans Nemoptic sont déclinables en version noir et blanc ou couleurs (jusqu'à 32.000).»
La compétition risque d'être rude sur un marché qui s'annonce très prometteur. Reste à voir quels seront les modèles qui seront retenus par l'usager parce que solides, légers, économiques et procurant un véritable «confort de lecture», sans oublier l'aspect esthétique et les possibilités de lecture en 3 D.
«On progresse», écrit en janvier 2007 Jean-Paul, webmestre du site hypermédia cotres.net. «Les PDA et autres baladeurs multimédia ont formé le public à manipuler des écrans tactiles de dimension individuelle (par opposition aux bornes publiques de circulation et autres tirettes-à-sous). L'hypermédia est maintenant une évidence. Il ne reste plus qu'à laisser se bousculer les ingénieurs et les marketteurs pour voir sortir un objet rentable, léger, attirant, peu fragile, occupant au mieux l'espace qui sépare les deux mains d'un terrien assis dans le bus ou sur sa lunette WC : la surface d'une feuille A4 en format italien, soit ± 800x600 pixels. Bien sûr, ce que montrera cette surface ne sera pas en 2 D mais en 3 D. Comme les GPS prochaine génération, ou les écrans de visée sur le cockpit d'un A-Win.»
10.5. Chronologie
* Cette chronologie ne prétend pas à l'exhaustivité.
1984: Psion Organiser, vétéran des agendas électroniques.
1986: Premier dictionnaire sur machine de poche, par Franklin.
1996 (mars): Palm Pilot, premier assistant personnel (PDA).
1996 (octobre): Projet @folio, baladeur de textes conçu par Pierre Schweitzer.
1997: E Ink développe une technologie de papier électronique.
1997: Gyricon, technologie de papier électronique développée par PARC.
1999: Rocket eBook, tablette de lecture conçue par Nuvomedia.
1999: Softbook Reader, tablette de lecture conçue par Softbook Press.
1999: Nemoptic développe une technologie d'encre électronique.
2000: Création de la société Plastic Logic.
2000 (janvier): Rachat de Nuvomedia et Softbook Press par Gemstar.
2000 (avril): Pocket PC, assistant personnel de Microsoft.
2000 (octobre): Premiers modèles du Gemstar eBook.
2000 (octobre): eBookMan, assistant personnel multimédia de Franklin.
2001 (janvier): Cybook, tablette de lecture de Cytale.
2001 (mars): Mobipocket Reader intégré aux modèles Palm.
2001 (octobre): Modèle européen du Gemstar eBook.
2001 (octobre): Mobipocket Reader intégré à l'eBookMan.
2001: Nokia 9210, premier smartphone du marché.
2002 (juillet): Arrêt de la commercialisation du Cybook par Cytale.
2003 (juin): Arrêt de la commercialisation du Gemstar eBook.
2003: Reprise de la commercialisation du Cybook par Bookeen.
2004 (avril): Librié, tablette de lecture de Sony.
2006 (avril): De Tidj, quotidien en version électronique nomade.
2006 (octobre): Sony Reader, tablette de lecture de Sony.
2007 (avril): Les Echos, quotidien en version électronique nomade.
2007 (avril): Projet de la première usine de papier électronique de Plastic Logic.
2007 (mai): Vizplex, nouvelle technologie d'encre électronique de la société E Ink.
11. UNE INFORMATION MULTILINGUE
[11.1. Premiers pas // 11.2. Anglais versus autres langues // 11.3. Langues minoritaires // 11.4. Traduction // 11.5. Chronologie]
En 1998 et 1999, la nécessité d'un web multilingue occupe tous les esprits. Au début des années 2000, le web, devenu multilingue, permet une large diffusion des textes électroniques sans contrainte de frontières, mais la barrière de la langue est loin d'avoir disparu. La priorité semble être la création de passerelles entre les communautés linguistiques pour favoriser la circulation des écrits dans d'autres langues, en améliorant notamment les outils de traduction.
11.1. Premiers pas
A tort ou à raison, on se plaint souvent de l'hégémonie de l'anglais sur l'internet. Celle-ci était inévitable au début, puisque le réseau se développe d'abord en Amérique du Nord avant de s'étendre au monde entier. En 1997, on note déjà la présence de nombreuses langues, mais il reste aux différentes communautés linguistiques à poursuivre le travail entrepris. En décembre 1997, Tim Berners-Lee, inventeur du World Wide Web, déclare à Pierre Ruetschi dans la Tribune de Genève: «Pourquoi les Francophones ne mettent-ils pas davantage d'informations sur le web? Est-ce qu'ils pensent que personne ne veut la lire, que la culture française n'a rien à offrir? C'est de la folie, l'offre est évidemment énorme.» C'est chose faite dans les années qui suivent.
Consultant en marketing internet de produits et services de traduction, Randy Hobler écrit en septembre 1998: «Comme l'internet n'a pas de frontières nationales, les internautes s'organisent selon d'autres critères propres au médium. En termes de multilinguisme, vous avez des communautés virtuelles, par exemple ce que j'appelle les "nations des langues", tous ces internautes qu'on peut regrouper selon leur langue maternelle quel que soit leur lieu géographique. Ainsi la nation de la langue espagnole inclut non seulement les internautes d'Espagne et d'Amérique latine, mais aussi tous les Hispanophones vivant aux Etats-Unis, ou encore ceux qui parlent espagnol au Maroc.»
En été 2000, les usagers non anglophones dépassent la barre des 50%. Ce pourcentage continue ensuite d'augmenter, comme le montrent les statistiques de la société Global Reach, mises à jour à intervalles réguliers. Le nombre d'usagers non anglophones est de 52,5% en été 2001, 57% en décembre 2001, 59,8% en avril 2002, 64,4% en septembre 2003 (dont 34,9% d'Européens non anglophones et 29,4% d'Asiatiques) et 64,2% en mars 2004 (dont 37,9% d'Européens non anglophones et 33% d'Asiatiques).
Bruno Didier, webmestre de la Bibliothèque de l'Institut Pasteur, écrit en août 1999: «Internet n'est une propriété ni nationale, ni linguistique. C'est un vecteur de culture, et le premier support de la culture, c'est la langue. Plus il y a de langues représentées dans leur diversité, plus il y aura de cultures sur internet. Je ne pense pas qu'il faille justement céder à la tentation systématique de traduire ses pages dans une langue plus ou moins universelle. Les échanges culturels passent par la volonté de se mettre à la portée de celui vers qui on souhaite aller. Et cet effort passe par l'appréhension de sa langue. Bien entendu c'est très utopique comme propos. Concrètement, lorsque je fais de la veille, je peste dès que je rencontre des sites norvégiens ou brésiliens sans un minimum d'anglais.»
Dès décembre 1997, le moteur de recherche AltaVista lance Babel Fish Translation, un logiciel de traduction automatique de l'anglais vers cinq autres langues (allemand, espagnol, français, italien, portugais), et vice versa. Alimenté par un dictionnaire multilingue de 2,5 millions de mots, ce service gratuit est l'oeuvre de Systran, société pionnière en traitement automatique des langues. Le texte à traduire doit être de trois pages maximum. La page originale et la traduction apparaissent en vis-à-vis à l'écran. La traduction étant entièrement automatisée, elle est évidemment approximative. Si cet outil a ses limites, il a le mérite d'exister et il préfigure ceux de demain, développés entre autres par Systran, Alis Technologies, Globalink et Lernout & Hauspie.
Communiquer dans plusieurs langues implique d'avoir des systèmes de codage adaptés à nos alphabets ou idéogrammes respectifs.
Le premier système de codage informatique est l'ASCII (American standard code for information interchange). Publié par l'American National Standards Institute (ANSI) en 1968, avec actualisation en 1977 et 1986, l'ASCII est un code standard de 128 caractères traduits en langage binaire sur sept bits (A est traduit par «1000001», B est traduit par «1000010», etc.). Les 128 caractères comprennent 33 caractères de contrôle (qui ne représentent donc pas de symbole écrit) et 95 caractères imprimables: les 26 lettres sans accent en majuscules (A-Z) et minuscules (a-z), les chiffres, les signes de ponctuation et quelques symboles, le tout correspondant aux touches du clavier anglais ou américain.
L'ASCII permet uniquement la lecture de l'anglais et du latin. Il ne permet pas de prendre en compte les lettres accentuées présentes dans bon nombre de langues européennes, et à plus forte raison les systèmes non alphabétiques (chinois, japonais, coréen, etc.). Ceci ne pose pas de problème majeur les premières années, tant que l'échange de fichiers électroniques se limite essentiellement à l'Amérique du Nord. Mais le multilinguisme devient bientôt une nécessité vitale. Des variantes de l'ASCII (norme ISO-8859 ou ISO-Latin) prennent en compte les caractères accentués de quelques langues européennes. La variante pour le français est définie par la norme ISO 8859-1 (Latin-1). Mais le passage de l'ASCII original à ses différentes extensions devient vite un véritable casse-tête, y compris au sein de l'Union européenne, les problèmes étant entre autres la multiplication des variantes, la corruption des données dans les étapes transitoires ou encore l'incompatibilité des systèmes, les pages ne pouvant être affichées que dans une seule langue à la fois.
Avec le développement du web, l'échange des données s'internationalise de plus en plus. On ne peut plus se limiter à l'utilisation de l'anglais et de quelques langues européennes, traduites par un système d'encodage datant des années 1960.
Publié pour la première fois en janvier 1991, l'Unicode est un système de codage «universel» sur 16 bits spécifiant un nombre unique pour chaque caractère. Ce nombre est lisible quels que soient la plateforme, le logiciel et la langue utilisés. L'Unicode peut traiter 65.000 caractères uniques et prendre en compte tous les systèmes d'écriture de la planète. A la grande satisfaction des linguistes, il remplace progressivement l'ASCII. L'Unicode dispose de plusieurs variantes en fonction des besoins, par exemple UTF-8, UTF-16 et UTF-32 (UTF: Unicode transformation format). Il devient une composante des spécifications du W3C (World Wide Web Consortium), l'organisme international chargé du développement du web.
L'utilisation de l'Unicode se généralise en 1998, par exemple pour les fichiers texte sous plateforme Windows (Windows NT, Windows 2000, Windows XP et versions suivantes), qui étaient jusque-là en ASCII. Mais l'Unicode ne peut résoudre tous les problèmes, comme le souligne en juin 2000 Luc Dall'Armellina, co-auteur et webmestre d'oVosite, un espace d'écritures multimédias: «Les systèmes d'exploitation se dotent peu à peu des kits de langues et bientôt peut-être de polices de caractères Unicode à même de représenter toutes les langues du monde; reste que chaque application, du traitement de texte au navigateur web, emboîte ce pas. Les difficultés sont immenses: notre clavier avec ses ± 250 touches avoue ses manques dès lors qu'il faille saisir des Katakana ou Hiragana japonais, pire encore avec la langue chinoise. La grande variété des systèmes d'écritures de par le monde et le nombre de leurs signes font barrage. Mais les écueils culturels ne sont pas moins importants, liés aux codes et modalités de représentation propres à chaque culture ou ethnie.»
Que préconise Olivier Gainon, créateur de CyLibris et pionnier de l'édition littéraire en ligne? « Première étape: le respect des particularismes au niveau technique, explique-t-il en décembre 2000. Il faut que le réseau respecte les lettres accentuées, les lettres spécifiques, etc. Je crois très important que les futurs protocoles permettent une transmission parfaite de ces aspects - ce qui n'est pas forcément simple (dans les futures évolutions de l'HTML, ou des protocoles IP, etc.). Donc, il faut que chacun puisse se sentir à l'aise avec l'internet et que ce ne soit pas simplement réservé à des (plus ou moins) anglophones. Il est anormal aujourd'hui que la transmission d'accents puisse poser problème dans les courriers électroniques. La première démarche me semble donc une démarche technique. Si on arrive à faire cela, le reste en découle : la représentation des langues se fera en fonction du nombre de connectés, et il faudra envisager à terme des moteurs de recherche multilingues.»
11.2. Anglais versus autres langues
Après avoir été anglophone à pratiquement 100%, l'internet est encore anglophone à plus de 80% en 1998, un pourcentage qui s'explique par trois facteurs: a) la création d'un grand nombre de sites web émanant des Etats-Unis, du Canada et du Royaume-Uni; b) une proportion d'usagers particulièrement forte en Amérique du Nord par rapport au reste du monde; c) l'anglais en tant que principale langue d'échange internationale.
L'anglais reste en effet prépondérant et ceci n'est pas près de disparaître. Comme indiqué en janvier 1999 par Marcel Grangier, responsable de la section française des services linguistiques centraux de l'Administration fédérale suisse, «cette suprématie n'est pas un mal en soi, dans la mesure où elle résulte de réalités essentiellement statistiques (plus de PC par habitant, plus de locuteurs de cette langue, etc.). La riposte n'est pas de "lutter contre l'anglais" et encore moins de s'en tenir à des jérémiades, mais de multiplier les sites en d'autres langues. Notons qu'en qualité de service de traduction, nous préconisons également le multilinguisme des sites eux-mêmes. La multiplication des langues présentes sur internet est inévitable, et ne peut que bénéficier aux échanges multiculturels.»
Professeur en technologies de la communication à la Webster University de Genève, Henri Slettenhaar insiste lui aussi sur la nécessité de sites bilingues, dans la langue originale et en anglais. «Les communautés locales présentes sur le web devraient en tout premier lieu utiliser leur langue pour diffuser des informations, écrit-il en décembre 1998. Si elles veulent également présenter ces informations à la communauté mondiale, celles-ci doivent être aussi disponibles en anglais. Je pense qu'il existe un réel besoin de sites bilingues. (…) Mais je suis enchanté qu'il existe maintenant tant de documents disponibles dans leur langue originale. Je préfère de beaucoup lire l'original avec difficulté plutôt qu'une traduction médiocre.» En août 1999, il ajoute: «A mon avis, il existe deux types de recherches sur le web. La première est la recherche globale dans le domaine des affaires et de l'information. Pour cela, la langue est d'abord l'anglais, avec des versions locales si nécessaire. La seconde, ce sont les informations locales de tous ordres dans les endroits les plus reculés. Si l'information est à destination d'une ethnie ou d'un groupe linguistique, elle doit d'abord être dans la langue de l'ethnie ou du groupe, avec peut-être un résumé en anglais.»
Philippe Loubière, traducteur littéraire et dramatique, dénonce pour sa part la main-mise anglophone sur le réseau. «Tout ce qui peut contribuer à la diversité linguistique, sur internet comme ailleurs, est indispensable à la survie de la liberté de penser, explique-t-il en mars 2001. Je n'exagère absolument pas: l'homme moderne joue là sa survie. Cela dit, je suis très pessimiste devant cette évolution. Les Anglo-saxons vous écrivent en anglais sans vergogne. L'immense majorité des Français constate avec une indifférence totale le remplacement progressif de leur langue par le mauvais anglais des marchands et des publicitaires, et le reste du monde a parfaitement admis l'hégémonie linguistique des Anglo-saxons parce qu'ils n'ont pas d'autres horizons que de servir ces riches et puissants maîtres. La seule solution consisterait à recourir à des législations internationales assez contraignantes pour obliger les gouvernements nationaux à respecter et à faire respecter la langue nationale dans leur propre pays (le français en France, le roumain en Roumanie, etc.), cela dans tous les domaines et pas seulement sur internet. Mais ne rêvons pas…»
Guy Antoine, fondateur du site Windows on Haiti, explique en novembre 1999: «Pour des raisons pratiques, l'anglais continuera à dominer le web. Je ne pense pas que ce soit une mauvaise chose, en dépit des sentiments régionalistes qui s'y opposent, parce que nous avons besoin d'une langue commune permettant de favoriser les communications à l'échelon international. Ceci dit, je ne partage pas l'idée pessimiste selon laquelle les autres langues n'ont plus qu'à se soumettre à la langue dominante. Au contraire. Tout d'abord l'internet peut héberger des informations utiles sur les langues minoritaires, qui seraient autrement amenées à disparaître sans laisser de trace. De plus, à mon avis, l'internet incite les gens à apprendre les langues associées aux cultures qui les intéressent. Ces personnes réalisent rapidement que la langue d'un peuple est un élément fondamental de sa culture. De ce fait, je n'ai pas grande confiance dans les outils de traduction automatique qui, s'ils traduisent les mots et les expressions, ne peuvent guère traduire l'âme d'un peuple. Que sont les Haïtiens, par exemple, sans le kreyòl (créole pour les non initiés), une langue qui s'est développée et qui a permis de souder entre elles diverses tribus africaines transplantées à Haïti pendant la période de l'esclavage? Cette langue représente de manière la plus palpable l'unité de notre peuple. Elle est toutefois principalement une langue parlée et non écrite. A mon avis, le web va changer cet état de fait plus qu'aucun autre moyen traditionnel de diffusion d'une langue. Dans Windows on Haiti, la langue principale est l'anglais, mais on y trouve tout aussi bien un forum de discussion animé conduit en kreyòl. Il existe aussi des documents sur Haïti en français et dans l'ancien créole colonial, et je suis prêt à publier d'autres documents en espagnol et dans diverses langues. Je ne propose pas de traductions, mais le multilinguisme est effectif sur ce site, et je pense qu'il deviendra de plus en plus la norme sur le web.»
Tôt ou tard, le pourcentage des langues sur le réseau correspondra-t-il à leur répartition sur la planète? Rien n'est moins sûr à l'heure de la fracture numérique entre riches et pauvres, entre zones rurales et zones urbaines, entre régions favorisées et régions défavorisées, entre l'hémisphère nord et l'hémisphère sud, entre pays développés et pays en développement. Selon Zina Tucsnak, ingénieur d'études au Laboratoire ATILF (Analyse et traitement informatique de la langue française), interviewée en octobre 2000, «le meilleur moyen serait l'application d'une loi par laquelle on va attribuer un "quota" à chaque langue. Mais n'est-ce pas une utopie de demander l'application d'une telle loi dans une société de consommation comme la nôtre?» A la même date, Emmanuel Barthe, documentaliste juridique, exprime un avis contraire: «Des signes récents laissent penser qu'il suffit de laisser les langues telles qu'elles sont actuellement sur le web. En effet, les langues autres que l'anglais se développent avec l'accroissement du nombre de sites web nationaux s'adressant spécifiquement aux publics nationaux, afin de les attirer vers internet. Il suffit de regarder l'accroissement du nombre de langues disponibles dans les interfaces des moteurs de recherche généralistes.»
Bakayoko Bourahima, bibliothécaire à l'ENSEA (Ecole nationale supérieure de statistique et d'économie appliquée) d'Abidjan, écrit en juillet 2000: «Pour nous les Africains francophones, le diktat de l'anglais sur la toile représente pour la masse un double handicap d'accès aux ressources du réseau. Il y a d'abord le problème de l'alphabétisation qui est loin d'être résolu et que l'internet va poser avec beaucoup plus d'acuité, ensuite se pose le problème de la maîtrise d'une seconde langue étrangère et son adéquation à l'environnement culturel. En somme, à défaut de multilinguisme, l'internet va nous imposer une seconde colonisation linguistique avec toutes les contraintes que cela suppose. Ce qui n'est pas rien quand on sait que nos systèmes éducatifs ont déjà beaucoup de mal à optimiser leurs performances, en raison, selon certains spécialistes, des contraintes de l'utilisation du français comme langue de formation de base. Il est donc de plus en plus question de recourir aux langues vernaculaires pour les formations de base, pour "désenclaver" l'école en Afrique et l'impliquer au mieux dans la valorisation des ressources humaines. Comment faire? Je pense qu'il n'y a pas de chance pour nous de faire prévaloir une quelconque exception culturelle sur la toile, ce qui serait de nature tout à fait grégaire. Il faut donc que les différents blocs linguistiques s'investissent beaucoup plus dans la promotion de leur accès à la toile, sans oublier leurs différentes spécificités internes.»
Richard Chotin, professeur à l'Ecole supérieure des affaires (ESA) de Lille, rappelle à juste titre que la suprématie de l'anglais a succédé à celle du français. «Le problème est politique et idéologique : c'est celui de l'"impérialisme" de la langue anglaise découlant de l'impérialisme américain, explique-t-il en septembre 2000. Il suffit d'ailleurs de se souvenir de l'"impérialisme" du français aux 18e et 19e siècles pour comprendre la déficience en langues des étudiants français: quand on n'a pas besoin de faire des efforts pour se faire comprendre, on n'en fait pas, ce sont les autres qui les font.»
11.3. Langues minoritaires
De plus, cet impérialisme linguistique, politique et idéologique n'est-il pas universel, malheureusement ? La France elle aussi n'est pas sans exercer pression pour imposer la suprématie de la langue française sur d'autres langues, comme en témoigne Guy Antoine, créateur du site Windows on Haiti, qui écrit en juin 2001: «J'ai fait de la promotion du kreyòl (créole haïtien) une cause personnelle, puisque cette langue est le principal lien unissant tous les Haïtiens, malgré l'attitude dédaigneuse d'une petite élite haïtienne - à l'influence disproportionnée - vis-à-vis de l'adoption de normes pour l'écriture du kreyòl et le soutien de la publication de livres et d'informations officielles dans cette langue. A titre d'exemple, il y avait récemment dans la capitale d'Haïti un Salon du livre de deux semaines, à qui on avait donné le nom de "Livres en folie". Sur les 500 livres d'auteurs haïtiens qui étaient présentés lors du salon, il y en avait une vingtaine en kreyòl, ceci dans le cadre de la campagne insistante que mène la France pour célébrer la Francophonie dans ses anciennes colonies. A Haïti cela se passe relativement bien, mais au détriment direct de la Créolophonie.
En réponse à l'attitude de cette minorité haïtienne, j'ai créé sur mon site web Windows on Haiti deux forums de discussion exclusivement en kreyòl. Le premier forum regroupe des discussions générales sur toutes sortes de sujets, mais en fait ces discussions concernent principalement les problèmes socio-politiques qui agitent Haïti. Le deuxième forum est uniquement réservé aux débats sur les normes d'écriture du kreyòl. Ces débats sont assez animés, et un certain nombre d'experts linguistiques y participent. Le caractère exceptionnel de ces forums est qu'ils ne sont pas académiques. Je n'ai trouvé nulle part ailleurs sur l'internet un échange aussi spontané et aussi libre entre des experts et le grand public pour débattre dans une langue donnée des attributs et des normes de la même langue.»
En septembre 2000, Guy Antoine rejoint l'équipe dirigeante de Mason Integrated Technologies, dont l'objectif est de créer des outils permettant l'accessibilité des documents publiés dans des langues dites minoritaires. «Etant donné l'expérience de l'équipe en la matière, nous travaillons d'abord sur le créole haïtien (kreyòl), qui est la seule langue nationale d'Haïti, et l'une des deux langues officielles, l'autre étant le français. Cette langue ne peut guère être considérée comme une langue minoritaire dans les Caraïbes puisqu'elle est parlée par huit à dix millions de personnes.»
Autre expérience, celle de Caoimhín Ó Donnaíle, professeur d'informatique à l'Institut Sabhal Mór Ostaig, situé sur l'île de Skye, en Ecosse. Il dispense ses cours en gaélique écossais. Il est aussi le webmestre du site de l'institut, qui est bilingue anglais-gaélique et se trouve être la principale source d'information mondiale sur le gaélique écossais. Sur ce site, il tient à jour European Minority Languages, une liste de langues minoritaires elle aussi bilingue, avec classement par ordre alphabétique de langues et par famille linguistique. Interviewé en mai 2001, il raconte: «Nos étudiants utilisent un correcteur d'orthographe en gaélique et une base terminologique en ligne en gaélique. (…) Il est maintenant possible d'écouter la radio en gaélique (écossais et irlandais) en continu sur l'internet partout dans le monde. Une réalisation particulièrement importante a été la traduction en gaélique du logiciel de navigation Opera. C'est la première fois qu'un logiciel de cette taille est disponible en gaélique. » En janvier 2007, le gaélique irlandais est ajouté aux langues officielles de la Communauté européenne, en plus du roumain et du bulgare, les deux langues des pays entrants. Le nombre de langues officielles passe de 20 à 23 langues. Pour mémoire, ce nombre était passé de 12 à 20 langues lors de l'élargissement de l'Union européenne en mai 2004.
Robert Beard co-fonde en 1999 yourDictionary.com en tant que portail de référence pour toutes les langues sans exception, avec une section importante consacrée aux langues menacées (Endangered Language Repository). «Les langues menacées sont essentiellement des langues non écrites, écrit-il en janvier 2000. Un tiers seulement des quelque 6.000 langues existant dans le monde sont à la fois écrites et parlées. Je ne pense pourtant pas que le web va contribuer à la perte de l'identité des langues et j'ai même le sentiment que, à long terme, il va renforcer cette identité. Par exemple, de plus en plus d'Indiens d'Amérique contactent des linguistes pour leur demander d'écrire la grammaire de leur langue et de les aider à élaborer des dictionnaires. Pour eux, le web est un instrument à la fois accessible et très précieux d'expression culturelle.» Caoimhín Ó Donnaíle indique pour sa part en mai 2001: «En ce qui concerne l'avenir des langues menacées, l'internet accélère les choses dans les deux sens. Si les gens ne se soucient pas de préserver les langues, l'internet et la mondialisation qui l'accompagne accéléreront considérablement la disparition de ces langues. Si les gens se soucient vraiment de les préserver, l'internet constituera une aide irremplaçable.»
11.4. Traduction
L'internet étant une source d'information à vocation mondiale, il semble indispensable de favoriser les activités de traduction. Auteur des Chroniques de Cybérie, une chronique hebdomadaire des actualités du réseau, Jean-Pierre Cloutier déplore en août 1999 «qu'il se fasse très peu de traductions des textes et essais importants qui sont publiés sur le web, tant de l'anglais vers d'autres langues que l'inverse. (…) La nouveauté d'internet dans les régions où il se déploie présentement y suscite des réflexions qu'il nous serait utile de lire. À quand la traduction des penseurs hispanophones et autres de la communication?» Professeur d'espagnol en entreprise et traductrice, Maria Victoria Marinetti écrit à la même date: «Il est très important de pouvoir communiquer en différentes langues. Je dirais même que c'est obligatoire, car l'information donnée sur le net est à destination du monde entier, alors pourquoi ne l'aurions-nous pas dans notre propre langue ou dans la langue que nous souhaitons lire? Information mondiale, mais pas de vaste choix dans les langues, ce serait contradictoire, pas vrai?»
Il va sans dire que la traduction automatique n'offre pas la qualité de travail des professionnels de la traduction, et qu'il est préférable de faire appel à ces derniers lorsqu'on a le temps et l'argent nécessaires. Les logiciels de traduction sont toutefois très pratiques pour fournir un résultat immédiat et à moindres frais, sinon gratuit. Certains logiciels sont en accès libre sur l'internet et permettent de traduire en quelques secondes une page web ou un texte court, avec plusieurs combinaisons de langues possibles.
Le but d'un logiciel de traduction est d'analyser le texte dans la langue source (texte à traduire) et de générer automatiquement le texte correspondant dans la langue cible (texte traduit), en utilisant des règles précises pour le transfert de la structure grammaticale. Comme l'explique l'EAMT (European Association for Machine Translation) sur son site, «il existe aujourd'hui un certain nombre de systèmes produisant un résultat qui, s'il n'est pas parfait, est de qualité suffisante pour être utile dans certaines applications spécifiques, en général dans le domaine de la documentation technique. De plus, les logiciels de traduction, qui sont essentiellement destinés à aider le traducteur humain à produire des traductions, jouissent d'une popularité croissante auprès des organismes professionnels de traduction.»
En 1998, un historique de la traduction automatique est présent sur le site de Globalink, société spécialisée dans les produits et services de traduction. Le site a depuis disparu, Globalink ayant été racheté en 1999 par Lernout & Hauspie, lui-même racheté en 2002 par ScanSoft. Voici cet historique résumé en deux paragraphes.
La traduction automatique et le traitement de la langue naturelle font leur apparition à la fin des années 1930, et progressent ensuite de pair avec l'évolution de l'informatique quantitative. Pendant la deuxième guerre mondiale, le développement des premiers ordinateurs programmables bénéficie des progrès de la cryptographie et des efforts faits pour tenter de fissurer les codes secrets allemands et autres codes de guerre. Le secteur émergent des technologies de l'information continue ensuite de s'intéresser de près à la traduction et à l'analyse du texte en langue naturelle. Dans les années 1950, la recherche porte sur la traduction littérale, à savoir la traduction mot à mot sans prise en compte des règles linguistiques. Le projet russe débuté en 1950 à l'Université de Georgetown représente la première tentative systématique visant à créer un système de traduction automatique utilisable. Tout au long des années 1950 et au début des années 1960, des recherches sont également menées en Europe et aux Etats-Unis. En 1965, les progrès rapides en linguistique théorique culminent avec la publication d'Aspects de la théorie syntaxique de Noam Chomsky, qui propose de nouvelles définitions pour la phonologie, la morphologie, la syntaxe et la sémantique du langage humain. En 1966, un rapport officiel américain donne une estimation prématurément négative des systèmes de traduction automatique, mettant fin au financement et à l'expérimentation dans ce domaine pour la décennie suivante.
Il faut attendre la fin des années 1970 pour que des expériences sérieuses soient à nouveau entreprises, parallèlement aux progrès de l'informatique et des technologies des langues. Cette période voit le développement de systèmes de transfert d'une langue à l'autre et le lancement des premières tentatives commerciales. Des sociétés comme Systran et Metal sont persuadées de la viabilité et de l'utilité d'un tel marché. Elles mettent sur pied des produits et services de traduction automatique reliés à un serveur central. Mais les problèmes restent nombreux, par exemple des coûts élevés de développement, un énorme travail lexicographique, la difficulté de proposer de nouvelles combinaisons de langues, l'inaccessibilité de tels systèmes pour l'utilisateur moyen, et enfin la difficulté de passer à de nouveaux stades de développement.
En 1999 et 2000, la généralisation de l'internet et les débuts du commerce électronique entraînent la naissance d'un véritable marché. Trois sociétés - Systran, Softissimo et Lernout & Hauspie - lancent des produits à destination du grand public, des professionnels et des industriels. Systran développe un logiciel de traduction utilisé notamment par le moteur de recherche AltaVista. Softissimo commercialise la série de logiciels de traduction Reverso, à côté de produits d'écriture multilingue, de dictionnaires électroniques et de méthodes de langues. Reverso équipe par exemple Voilà, le moteur de recherche de France Télécom. Lernout & Hauspie (racheté depuis par ScanSoft) propose des produits et services en dictée, traduction, compression vocale, synthèse vocale et documentation industrielle.
En mars 2001, IBM se lance à son tour dans un marché en pleine expansion avec un produit professionnel haut de gamme, le WebSphere Translation Server. Ce logiciel traduit instantanément en plusieurs langues (allemand, anglais, chinois, coréen, espagnol, français, italien, japonais) les pages web, les courriels et les dialogues en direct (chats). Il interprète 500 mots à la seconde et permet l'ajout de vocabulaires spécifiques.
En juin 2001, les sociétés Logos et Y.A. Champollion s'associent pour créer Champollion Wordfast, une société de services d'ingénierie en traduction et localisation et en gestion de contenu multilingue. Wordfast est un logiciel de traduction avec terminologie disponible en temps réel et contrôle typographique. Il est compatible avec le WebSphere Translation Server d'IBM, les logiciels de TMX et ceux de Trados. Une version simplifiée de Wordfast est téléchargeable gratuitement, avec un manuel d'utilisation disponible en 16 langues.
Des organismes publics participent eux aussi à la R&D (recherche et développement) en traduction automatique. Suivent trois exemples parmi d'autres.
Rattaché à l'USC/ISI (University of Southern California / Information Sciences Institute), le Natural Language Group traite de plusieurs aspects du traitement de la langue naturelle: traduction automatique, résumé automatique de texte, gestion multilingue des verbes, développement de taxinomies de concepts (ontologies), génération de texte, élaboration de gros lexiques multilingues, communication multimédia.
Au sein du laboratoire CLIPS (Communication langagière et interaction personne-système) de l'Institut d'informatique et mathématiques appliquées (IMAG) de Grenoble, le GETA (Groupe d'étude pour la traduction automatique) est une équipe pluridisciplinaire formée d'informaticiens et de linguistes. Ses thèmes de recherche concernent tous les aspects théoriques, méthodologiques et pratiques de la traduction assistée par ordinateur (TAO), et plus généralement de l'informatique multilingue.
Le GETA participe entre autres à l'élaboration de l'UNL (universal networking language), un métalangage numérique destiné à l'encodage, au stockage, à la recherche et à la communication d'informations multilingues indépendamment d'une langue source donnée. Ce métalangage est développé par l'UNL Program, un programme international rassemblant de nombreux partenaires dans toutes les communautés linguistiques. Créé dans le cadre de l'UNU/IAS (United Nations University / Institute of Advanced Studies), ce programme se poursuit désormais sous l'égide de l'UNDL Foundation (UNDL: universal networking digital language).
Comme le souligne en février 2001 Pierre-Noël Favennec, expert à la direction scientifique de France Télécom R&D, «les recherches sur la traduction automatique devraient permettre une traduction automatique dans les langues souhaitées, mais avec des applications pour toutes les langues et non les seules dominantes (ex.: diffusion de documents en japonais, si l'émetteur est de langue japonaise, et lecture en breton, si le récepteur est de langue bretonne…). Il y a donc beaucoup de travaux à faire dans le domaine de la traduction automatique et écrite de toutes les langues.»
11.5. Chronologie
* Cette chronologie ne prétend pas à l'exhaustivité.
1963: ASCII (American standard code for information interchange).
1991 (janvier): Fondation de l'Unicode Consortium.
1997: Outils professionnels de Logos en accès libre.
1999: yourDictionary.com, cofondé par Robert Beard.
2001 (mars): WebSphere Translation Server, lancé par IBM.
2001 (juin): Wordfast, logiciel de traduction de Logos et Champollion.
12. DE NOMBREUX DEFIS
[12.1. L'internet, espace de liberté // 12.2. Domaine public versus copyright // 12.3. La convergence multimédia // 12.4. La relation information-utilisateur // 12.5. Ecriture et édition en ligne // 12.6. Numérique versus imprimé]
«L'internet pose une foule de questions et il faudra des années pour organiser des réponses, imaginer des solutions», écrit en janvier 2001 Pierre Schweitzer, inventeur du projet @folio, une tablette numérique de lecture nomade. «L'état d'excitation et les soubresauts autour de la dite "nouvelle" économie sont sans importance, c'est l'époque qui est passionnante.»
12.1. L'internet, espace de liberté
Apparu en 1974, l'internet se développe à partir de 1983 et prend son essor avec l'avènement du web en 1990 et l'apparition du premier navigateur en 1993. Quelque trente ans après les débuts de l'internet, «ses trois pouvoirs - l'ubiquité, la variété et l'interactivité - rendent son potentiel d'usages quasi infini», lit-on dans le quotidien Le Monde du 19 août 2005. Nous sommes un milliard à utiliser l'internet à la fin 2006.
Mais comment définir l'internet autrement que par ses composantes techniques? Sur le site de l'Internet Society (ISOC), organisme international coordonnant le développement du réseau, A Brief History of the Internet propose une triple définition. L'internet est: a) un instrument de diffusion internationale, b) un mécanisme de diffusion de l'information, c) un moyen de collaboration et d'interaction entre les individus et les ordinateurs, indépendamment de leur situation géographique.
Selon ce document, bien plus que toute autre invention (télégraphe, téléphone, radio, ordinateur), l'internet révolutionne de fond en comble le monde des communications. Il représente l'un des exemples les plus réussis d'interaction entre un investissement soutenu dans la recherche et le développement d'une infrastructure de l'information, dans le cadre d'un réel partenariat entre les gouvernements, les entreprises et les universités.
Sur le site du World Wide Web Consortium (W3C), organisme international de normalisation du web, Bruce Sterling décrit le développement spectaculaire de l'internet dans Short History of the Internet. L'internet se développe plus vite que les téléphones cellulaires et les télécopieurs. En 1996, sa croissance est de 20% par mois. Le nombre de machines ayant une connexion directe TCP/IP (transmission control protocol / internet protocol) a doublé depuis 1988. D'abord présent dans l'armée et dans les instituts de recherche, l'internet déferle dans les écoles, les universités et les bibliothèques, et il est également pris d'assaut par le secteur commercial.
Bruce Sterling s'intéresse aux raisons pour lesquelles on se connecte à l'internet. Une raison majeure lui semble être la liberté. L'internet est un exemple d'«anarchie réelle, moderne et fonctionnelle». Il n'y a pas de société régissant l'internet. Il n'y a pas non plus de censeurs officiels, de patrons, de comités de direction ou d'actionnaires. Toute personne peut parler d'égale à égale avec une autre, du moment qu'elle se conforme aux protocoles TCP/IP, des protocoles qui ne sont pas sociaux ni politiques mais strictement techniques. Malgré tous les efforts des «dinosaures» politiques et commerciaux, il est difficile à quelque organisme que ce soit de mettre la main sur l'internet. C'est ce qui fait sa force.
On y voit aussi une réelle solidarité. Christiane Jadelot, ingénieur d'études à l'INaLF-Nancy (INaLF: Institut national de la langue française), relate en juin 1998: «J'ai commencé à utiliser vraiment l'internet en 1994, je crois, avec un logiciel qui s'appelait Mosaic. J'ai alors découvert un outil précieux pour progresser dans ses connaissances en informatique et linguistique, littérature… Tous les domaines sont couverts. Il y a le pire et le meilleur, mais en consommateur averti, il faut faire le tri de ce que l'on trouve. J'ai surtout apprécié les logiciels de courrier, de transfert de fichiers, de connexion à distance. J'avais à cette époque des problèmes avec un logiciel qui s'appelait Paradox et des polices de caractères inadaptées à ce que je voulais faire. J'ai tenté ma chance et posé la question dans un groupe de News approprié. J'ai reçu des réponses du monde entier, comme si chacun était soucieux de trouver une solution à mon problème!»
Quelles sont les relations entre l'internet et les autres médias? En janvier 1998, lors d'un entretien avec Annick Rivoire, journaliste du quotidien Libération, Pierre Lévy, philosophe, explique que l'internet va contribuer à la fin des monopoles: «Le réseau désenclave, donne plus de chance aux petits. On crie "ah! le monopole de Microsoft", mais on oublie de dire que l'internet sonne la fin du monopole de la presse, de la radio et de la télévision et de tous les intermédiaires.» D'après lui, l'internet ouve la voie à une intelligence collective: «Les réseaux permettent de mettre en commun nos mémoires, nos compétences, nos imaginations, nos projets, nos idées, et de faire en sorte que toutes les différences, les singularités se relancent les unes les autres, entrent en complémentarité, en synergie.»
D'après Timothy Leary, philosophe adepte du cyberespace dès ses débuts, le 21e siècle verrait l'émergence d'un nouvel humanisme, dont les idées-force seraient la contestation de l'autorité, la liberté de pensée et la créativité personnelle, le tout soutenu et encouragé par la vulgarisation de l'ordinateur et des technologies de la communication. Dans son livre Chaos et cyberculture (éditions du Lézard, 1998), il écrit: «Jamais l'individu n'a eu à sa portée un tel pouvoir. Mais, à l'âge de l'information, il faut saisir les signaux. Populariser signifie "rendre accessible au peuple". Aujourd'hui, le rôle du philosophe est de personnaliser, de populariser et d'humaniser les concepts informatiques, de façon à ce que personne ne se sente exclu.»
L'internet vient au secours de la liberté d'expression. Il permet de lire en ligne des titres difficiles ou impossibles à trouver en kiosque. Il permet aussi aux journaux interdits d'être publiés malgré tout. C'est le cas de l'hebdomadaire algérien La Nation, contraint de cesser ses activités en décembre 1996 parce qu'il dénonce les violations des droits humains en Algérie. Un an après, un numéro spécial de La Nation est disponible sur le site de Reporters sans frontières (RSF). «En mettant La Nation en ligne, notre but était de dire : cela n'a plus de sens de censurer les journaux en Algérie, parce que grâce à internet les gens peuvent récupérer les articles, les imprimer, et les distribuer autour d'eux», indique Malti Djallan, à l'origine de cette initiative.
En décembre 1997, le journal électronique Nouvelles du bled est lancé dans la même optique à Paris par Mohamed Zaoui, journaliste algérien en exil, et Christian Debraisne, infographiste français responsable de la mise en page. L'équipe regroupe une douzaine de personnes qui se retrouvent le jeudi soir dans un café du 11e arrondissement. La revue de presse est faite à partir des journaux d'Alger. Dans Le Monde du 23 mars 1998, Mohamed Zaoui explique: «La rédaction d'El Watan (quotidien algérien, ndlr), par exemple, nous envoie des papiers qu'elle ne peut pas publier là-bas. C'est une façon de déjouer la censure. J'avais envie d'être utile et j'ai pensé que mon rôle en tant que journaliste était de saisir l'opportunité d'internet pour faire entendre une autre voix entre le gouvernement algérien et les intégristes.» Christian Debraisne ajoute : «Avec internet, nous avons trouvé un espace de libre expression et, en prime, pas de problème d'imprimerie ni de distribution. Je récupère tous les papiers et je les mets en ligne la nuit à partir de chez moi.» Nouvelles du bled paraît jusqu'en octobre 1998. Quant à El Watan, il est en ligne depuis octobre 1997. Redha Belkhat, son rédacteur en chef, explique: «Pour la diaspora algérienne, trouver dans un kiosque à Londres, New York ou Ottawa un numéro d'El Watan daté de moins d'une semaine relève de l'exploit. Maintenant, le journal tombe ici à 6 heures du matin, et à midi il est sur internet.»
Outil de communication, l'internet est une passerelle au-dessus du gouffre séparant riches et pauvres, ceux qui ont du travail et ceux qui n'en ont pas, ceux qui ont leur place dans la société et ceux qui en sont exclus. Un encart de la revue Psychologies de mai 1998 relate: «Aux Etats-Unis, un mouvement voit le jour: la confiance en soi… par internet! Des milliers de sans-abri ont recours au réseau pour retrouver une place dans la société. Non seulement le net fournit une adresse à qui n'en a pas et ôte les inhibitions de qui redoute d'être jugé sur son apparence, mais c'est aussi une source d'informations et de contacts incomparable. Bibliothèques et associations d'aide au quart-monde l'ont bien compris: des salles informatiques, avec accès à internet, animées par des formateurs, sont ouvertes un peu partout et les mairies en publient la liste. A travers le e-mail (courrier électronique), les homeless (sans-abri) obtiennent les adresses des lieux d'accueil, des banques alimentaires et des centres de soins gratuits, ainsi qu'une pléthore de sites pour trouver un emploi. A 50 ans, Matthew B. a passé le quart de sa vie dans la rue et survit, depuis trois ans, d'une maigre subvention. Il hante la bibliothèque de San Francisco, les yeux rivés sur l'écran des ordinateurs. "C'est la première fois, dit-il, que j'ai le sentiment d'appartenir à une communauté. Il est moins intimidant d'être sur internet que de rencontrer les gens face à face."»
12.2. Domaine public versus copyright
Si le débat relatif au droit d'auteur sur l'internet est vif dans les années 2000, Philippe Loubière, traducteur littéraire et dramatique, ramène ce débat aux vrais problèmes. «Le débat sur le droit d'auteur sur le web me semble assez proche sur le fond de ce qu'il est dans les autres domaines où le droit d'auteur s'exerce, ou devrait s'exercer, écrit-il en mars 2001. Le producteur est en position de force par rapport à l'auteur dans pratiquement tous les cas de figure. Les pirates, voire la simple diffusion libre, ne menacent vraiment directement que les producteurs. Les auteurs ne sont menacés que par ricochet. Il est possible que l'on puisse légiférer sur la question, au moins en France où les corporations se revendiquant de l'exception culturelle sont actives et résistent encore un peu aux Américains, mais le mal est plus profond. En effet, en France comme ailleurs, les auteurs étaient toujours les derniers et les plus mal payés avant l'apparition d'internet, on constate qu'ils continuent d'être les derniers et les plus mal payés depuis. Il me semble nécessaire que l'on règle d'abord la question du respect des droits d'auteur en amont d'internet. Déjà dans le cadre général de l'édition ou du spectacle vivant, les sociétés d'auteurs - SACD (Société des auteurs et compositeurs dramatiques), SGDL (Société des gens de lettres), SACEM (Société des auteurs, compositeurs et éditeurs de musique), etc. - faillissent dès lors que l'on sort de la routine ou du vedettariat, ou dès que les producteurs abusent de leur position de force, ou tout simplement ne payent pas les auteurs, ce qui est très fréquent.»
Des auteurs et créateurs souhaitent respecter la vocation première du web, réseau de diffusion à l'échelon mondial. De ce fait, les adeptes de contrats flexibles - copyleft, GPL (general public license) et Creative Commons - sont de plus en plus nombreux.
L'idée du copyleft est lancée en 1984 par Richard Stallman, programmeur et défenseur inlassable du logiciel libre au sein de la Free Software Foundation (FSF). Conçu à l'origine pour les logiciels, le copyleft est formalisé par la GPL (general public license) et étendu ensuite à toute oeuvre de création. Il contient la déclaration normale du copyright affirmant le droit d'auteur. Son originalité est de donner au lecteur le droit de librement redistribuer le document et de le modifier. Le lecteur s'engage toutefois à ne revendiquer ni le travail original, ni les changements effectués par d'autres personnes. De plus, tous les travaux dérivés de l'oeuvre originale sont eux-mêmes soumis au copyleft.
Lancée en 2004 par Lawrence Lessig, professeur de droit en Californie, la licence Creative Commons a pour but de favoriser la diffusion d'oeuvres numériques tout en protégeant le droit d'auteur. L'organisme du même nom propose des licences-type, qui sont des contrats flexibles de droit d'auteur compatibles avec une diffusion sur l'internet. Simplement rédigées, ces autorisations non exclusives permettent aux titulaires des droits d'autoriser le public à utiliser leurs créations tout en ayant la possibilité de restreindre les exploitations commerciales et les oeuvres dérivées. L'auteur peut par exemple choisir d'autoriser ou non la reproduction et la rediffusion de ses oeuvres. Ces contrats peuvent être utilisés pour tout type de création : texte, film, photo, musique, site web, etc. Finalisée en février 2007, la version 3.0 de la Creative Commons instaure une licence internationale et la compatibilité avec d'autres licences similaires, dont le copyleft et la GPL.
Chose inquiétante à l'heure d'une société dite de l'information, le domaine public se réduit comme peau de chagrin. A une époque qui n'est pas si lointaine, 50% des oeuvres appartenaient au domaine public, et pouvaient donc être librement utilisées par tous. D'ici 2100, 99% des oeuvres seraient régies par le droit d'auteur, avec un maigre 1% laissé au domaine public. Un problème épineux pour tous ceux qui gèrent des bibliothèques numériques, et qui affecte aussi bien le Projet Gutenberg que Google Livres.
Si le Projet Gutenberg s'est donné pour mission de diffuser gratuitement par voie électronique le plus grand nombre possible d'oeuvres du domaine public, sa tâche n'est guère facilitée par les coups de boutoir portés au domaine public. Michael Hart, son fondateur, se penche sur la question depuis quelque trente ans, avec l'aide d'un groupe d'avocats spécialisés dans le droit d'auteur. Raison pour laquelle on expose ici ses réflexions, pour montrer combien le domaine public s'est dégradé au fil des siècles, et particulièrement au 20e siècle.
Dans la section Copyright HowTo, le Projet Gutenberg détaille les calculs à faire pour déterminer si un titre publié aux Etats-Unis appartient ou non au domaine public. Les oeuvres publiées avant 1923 sont soumises au droit d'auteur pendant 75 ans à partir de leur date de publication (elles sont donc maintenant du domaine public). Les oeuvres publiées entre 1923 et 1977 sont soumises au droit d'auteur pendant 95 ans à partir de leur date de publication (rien ne tombera dans le domaine public avant 2019). Une oeuvre publiée en 1998 et les années suivantes est soumise au droit d'auteur pendant 70 ans à partir de la date du décès de l'auteur s'il s'agit d'un auteur personnel (rien dans le domaine public avant 2049), ou alors pendant 95 ans à partir de la date de publication - ou 120 ans à partir de la date de création - s'il s'agit d'un auteur collectif (rien dans le domaine public avant 2074). Tout ceci dans les grandes lignes. D'autres règles viennent s'ajouter à ces règles de base, et la loi sur le copyright est retouchée 11 fois au cours des 40 dernières années.
Nettement plus contraignante que la précédente, la législation actuelle est entérinée par le Congrès le 27 octobre 1998 pour contrer le formidable véhicule de diffusion qu'est l'internet. Au fil des siècles, chaque avancée technique est accompagnée d'un durcissement du copyright, qui semble être la réponse des éditeurs à un accès plus facile au savoir, et la peur afférente de perdre des royalties. «Le copyright a été augmenté de 20 ans, explique Michael Hart en juillet 1999. Auparavant on devait attendre 75 ans, on est maintenant passé à 95 ans. Bien avant, le copyright durait 28 ans (plus une extension de 28 ans si on la demandait avant l'expiration du délai) et, avant cela, le copyright durait 14 ans (plus une extension de 14 ans si on la demandait avant l'expiration du délai). Comme on le voit, on assiste à une dégradation régulière et constante du domaine public.»
Les dates évoquées sont les suivantes:
(a) 1790 est la date de la main-mise de la Guilde des imprimeurs (les éditeurs de l'époque en Angleterre) sur les auteurs, qui entraîne la naissance du copyright. Le 1790 Copyright Act institue un copyright de 14 ans après la date de publication de l'oeuvre, plus une extension de 28 ans si celle-ci est demandée avant l'expiration du délai. Les oeuvres pouvant être légalement imprimées passent subitement de 6.000 à 600, et neuf titres sur dix disparaissent des librairies. Quelque 335 ans après les débuts de l'imprimerie, censée ouvrir les portes du savoir à tous, le monde du livre est désormais contrôlé par les éditeurs et non plus par les auteurs. Cette nouvelle législation est également effective aux Etats-Unis et en France.
(b) 1831 est la date d'un premier renforcement du copyright pour contrer la réédition de vastes collections du domaine public sur les nouvelles presses à vapeur. Le 1831 Copyright Act institue un copyright de 28 ans après la date de publication de l'oeuvre, plus une extension de 14 ans si celle-ci est demandée avant l'expiration du délai, à savoir un total de 42 ans.
(c) 1909 est la date d'un deuxième renforcement du copyright pour contrer une réédition des collections du domaine public sur les nouvelles presses électriques. Le 1909 Copyright Act double la période de l'extension, qui passe à 28 ans, le tout représentant un total de 56 ans.
(d) 1976 est la date d'un nouveau durcissement du copyright suite l'apparition de la photocopieuse lancée par Xerox. Le 1976 Copyright Act institue un copyright de 50 ans après le décès de l'auteur. De ce fait, tout copyright en cours avant le 19 septembre 1962 n'expire pas avant le 31 décembre 1976.
(e) 1998 est la date d'un durcissement supplémentaire du copyright suite au développement rapide des technologies numériques et aux centaines de milliers d'oeuvres désormais disponibles sur CD et DVD et sur le web, gratuitement ou à un prix très bas. Le 1998 Copyright Act allonge la durée du copyright qui est désormais de 70 ans après le décès de l'auteur, pour protéger l'empire Disney (raison pour laquelle on parle souvent de Mickey Mouse Copyright Act) et nombre de multinationales culturelles.
Pour ne prendre qu'un exemple, le classique mondial Autant en emporte le vent (Gone With the Wind), publié en 1939, aurait dû tomber dans le domaine public au bout de 56 ans, en 1995, conformément à la législation de l'époque, libérant ainsi les droits pour les adaptations en tous genres. Suite aux législations de 1976 et 1998, ce classique ne devrait désormais tomber dans le domaine public qu'en 2035.
La législation de 1998 porte un coup très rude aux bibliothèques numériques, en plein essor avec le développement du web, et scandalisent ceux qui les gèrent, à commencer par Michael Hart et John Mark Ockerbloom, créateur de l'Online Books Page en 1993. Nombre de titres doivent être retirés des collections. Mais comment faire le poids vis-à-vis des majors de l'édition?
Michael Hart raconte en juillet 1999: «J'ai été le principal opposant aux extensions du copyright, mais Hollywood et les grands éditeurs ont fait en sorte que le Congrès ne mentionne pas mon action en public. Les débats actuels sont totalement irréalistes. Ils sont menés par "l'aristocratie terrienne de l'âge de l'information" et servent uniquement ses intérêts. Un âge de l'information? Et pour qui?»
John Mark Ockerbloom écrit en août 1999: «Il est important que les internautes comprennent que le copyright est un contrat social conçu pour le bien public - incluant à la fois les auteurs et les lecteurs. Ceci signifie que les auteurs devraient avoir le droit d'utiliser de manière exclusive et pour un temps limité les oeuvres qu'ils ont créées, comme ceci est spécifié dans la loi actuelle sur le copyright. Mais ceci signifie également que leurs lecteurs ont le droit de copier et de réutiliser ce travail autant qu'ils le veulent à l'expiration de ce copyright. Aux Etats-Unis, on voit maintenant diverses tentatives visant à retirer ces droits aux lecteurs, en limitant les règles relatives à l'utilisation de ces oeuvres, en prolongeant la durée du copyright (y compris avec certaines propositions visant à le rendre permanent) et en étendant la propriété intellectuelle à des travaux distincts des oeuvres de création (comme on en trouve dans les propositions de copyright pour les bases de données). Il existe même des propositions visant à entièrement remplacer la loi sur le copyright par une loi instituant un contrat beaucoup plus lourd. Je trouve beaucoup plus difficile de soutenir la requête de Jack Valenti, directeur de la MPAA (Motion Picture Association of America), qui demande d'arrêter de copier les films sous copyright, quand je sais que, si ceci était accepté, aucun film n'entrerait jamais dans le domaine public (Mary Bono a fait mention des vues de Jack Valenti au Congrès l'année dernière). Si on voit les sociétés de médias tenter de bloquer tout ce qu'elles peuvent, je ne trouve pas surprenant que certains usagers réagissent en mettant en ligne tout ce qu'ils peuvent. Malheureusement, cette attitude est à son tour contraire aux droits légitimes des auteurs. Comment résoudre cela pratiquement? Ceux qui ont des enjeux dans ce débat doivent faire face à la réalité, et reconnaître que les producteurs d'oeuvres et leurs usagers ont tous deux des intérêts légitimes dans l'utilisation de celles-ci. Si la propriété intellectuelle était négociée au moyen d'un équilibre des principes plutôt que par le jeu du pouvoir et de l'argent que nous voyons souvent, il serait peut-être possible d'arriver à un compromis raisonnable.»
En effet. Les instances politiques ne cessent de parler d'âge de l'information alors que, en parallèle, elles durcissent la réglementation relative à la mise à disposition de cette information. La contradiction est flagrante. Le copyright est passé d'une durée de 30 ans en moyenne en 1909 à une durée de 95 ans en moyenne en 1998, explique Michael Hart sur son blog. En 89 ans, de 1909 à 1998, le copyright a subi une extension de 65 ans qui affecte les trois quarts de la production du 20e siècle. Seul un livre publié avant 1923 peut être considéré avec certitude comme du domaine public. Un durcissement similaire touche les pays de l'Union européenne. La règle générale est désormais un copyright de 70 ans après le décès de l'auteur, alors qu'il était auparavant de 50 ans. Ceci suite aux pressions exercées par les éditeurs de contenu, sous le prétexte d'«harmoniser» les lois nationales relatives au copyright pour répondre à la mondialisation du marché.
A ceci s'ajoute la législation sur le copyright des éditions numériques en application des traités internationaux de l'OMPI (Organisation mondiale de la propriété intellectuelle) signés en 1996 dans l'optique du contrôle de la gestion des droits numériques. Le Digital Millenium Copyright Act (DMCA) est entériné en octobre 1998 aux Etats-Unis. La directive EUCD (European Union Copyright Directive) est entérinée en mai 2001 par la Communauté européenne. En français, cette directive s'intitule très précisément «Directive 2001/29/EC du Parlement européen et du Conseil sur l'harmonisation de certains aspects du droit d'auteur et des droits voisins dans la société de l'information». Elle fait suite à la directive de février 1993 (Directive 93/98/EEC) qui visait à harmoniser les législations des différents pays en matière de protection du droit d'auteur. La directive EUCD entre peu à peu en vigueur dans tous les pays de l'Union européenne, avec mise en place de législations nationales, le but officiel étant de renforcer le respect du droit d'auteur sur l'internet et de contrer ainsi le piratage. En France, par exemple, la loi DADVSI (droit d'auteur et droits voisins dans la société de l'information) est promulguée en août 2006, et n'est pas sans susciter de nombreux remous.
Mais revenons aux bibliothèques numériques. Pour éviter les poursuites judiciaires, le Projet Gutenberg se lance régulièrement dans des recherches pouvant durer des années pour déterminer si tel ou tel livre est du domaine public ou non. A ce jour, il peut s'enorgueillir d'un résultat exact à 99,9% pour l'ensemble de ses collections, ce qui signifie que 20 livres seulement sur les 20.000 livres que comptent les collections (chiffres de décembre 2006) pourraient poser problème. Sur le site du Project Gutenberg Consortia Center (PGCC), Michael Hart raconte que la version originale en tchèque de Universal Robots de Rossum lui a demandé des années de recherches dans le monde entier pour avoir l'assurance que cette version était du domaine public aux Etats-Unis. Quant au discours I Have a Dream de Martin Luther King, tombé pendant un temps court dans le domaine public, il a dû être retiré des collections suite au passage d'une législation plus contraignante sur le copyright.
Une lueur d'espoir existe toutefois pour les livres parus après 1923. D'après Greg Newby, directeur de la Project Gutenberg Literary Archive Foundation (PGLAF), un million de livres publiés aux Etats-Unis entre 1923 et 1963 appartiendrait en fait au domaine public, puisque seuls 10% des copyrights sont effectivement renouvelés - avec renouvellement demandé entre 1950 et 1993. Les livres dont le copyright n'a pas été renouvelé peuvent donc légalement intégrer les collections du Projet Gutenberg. Pourquoi la période 1923-1963? Parce que les livres parus avant le 1er janvier 1923 sont du domaine public et que les livres parus à compter du 1er janvier 1964 ont vu leur copyright automatiquement renouvelé suite à l'adoption du 1976 Copyright Act.
Pour un titre donné, comment savoir si le copyright a été renouvelé ou non? Pour les livres aux copyrights renouvelés en 1978 et après, on dispose de la base de données en ligne du US Copyright Office. Pour les livres aux copyrights renouvelés entre 1950 et 1977, on ne disposait que des publications imprimées bisannuelles (deux fois par an) du même Copyright Office. En 2004, ces listes sont numérisées par Distributed Proofreaders et mises en ligne sur le site du Projet Gutenberg. Si un livre publié entre 1923 et 1963 ne figure sur aucune de ces listes, cela signifie que son copyright n'a pas été renouvelé, qu'il est tombé dans le domaine public et qu'on peut donc le traiter. En avril 2007, l'Université de Stanford (Californie) convertit les listes numérisées du Projet Gutenberg en base de données (Copyright Renewal Database), avec recherche possible par titre, auteur, date du copyright et date de renouvellement du copyright.
12.3. La convergence multimédia
Depuis plus de trente ans, la chaîne de l'édition est soumise à de nombreux bouleversements. Dans les années 1970, l'imprimerie traditionnelle est d'abord ébranlée par l'apparition des machines de photocomposition. Le coût de l'impression continue ensuite de baisser avec les procédés d'impression assistée par ordinateur, les photocopieurs, les photocopieurs couleur et le matériel d'impression numérique. Dans les années 1990, l'impression est souvent assurée à bas prix par des ateliers de PAO (publication assistée par ordinateur). Tout contenu est désormais systématiquement numérisé pour permettre son transfert par voie électronique.
La numérisation permet de créer, d'enregistrer, de combiner, de stocker, de rechercher et de transmettre des textes, des sons et des images par des moyens simples et rapides. Des procédés similaires permettent le traitement de l'écriture, de la musique et du cinéma alors que, par le passé, ce traitement était assuré par des procédés différents sur des supports différents (papier pour l'écriture, bande magnétique pour la musique, celluloïd pour le cinéma). De plus, des secteurs distincts comme l'édition (qui produit des livres) et l'industrie musicale (qui produit des disques) travaillent de concert pour produire des CD-Rom.
La numérisation accélère considérablement le processus matériel de production. Dans la presse, alors qu'auparavant le personnel de production devait dactylographier les textes du personnel de rédaction, les journalistes envoient désormais directement leurs textes pour mise en page. Dans l'édition, le rédacteur, le concepteur artistique et l'infographiste travaillent souvent simultanément sur le même ouvrage. On assiste progressivement à la convergence de tous les secteurs liés à l'information: imprimerie, édition, presse, conception graphique, enregistrements sonores, films, radiodiffusion, etc.
La convergence multimédia peut être définie comme la convergence de l'informatique, du téléphone, de la radio et de la télévision dans une industrie de la communication et de la distribution utilisant les mêmes inforoutes. Si certains secteurs voient l'apparition de nouveaux emplois, par exemple ceux liés à la production audio-visuelle, d'autres secteurs sont soumis à d'inquiétantes restructurations. La convergence multimédia a d'autres revers, à savoir des contrats occasionnels et précaires pour les salariés, l'absence de syndicats pour les télétravailleurs, le droit d'auteur souvent mis à mal pour les auteurs, etc. Et, à l'exception du droit d'auteur, vu l'enjeu financier qu'il représente, il est rare que ces problèmes fassent la Une des journaux.
La convergence multimédia amène-t-elle des emplois nouveaux, comme l'assurent les employeurs, ou bien est-elle source de chômage, comme l'affirment les syndicats? Ce sujet est débattu dès 1997 lors du Colloque sur la convergence multimédia organisé par le Bureau international du travail (BIT) à Genève.
Si elle accélère le processus de production, l'automatisation des méthodes de travail entraîne une diminution de l'intervention humaine et donc un accroissement du chômage. Dans la presse comme dans l'édition, la mise en page automatique permet de combiner rédaction et composition. Dans les services publicitaires aussi, la conception graphique et les tâches commerciales sont maintenant intégrées. L'informatique permet à certains professionnels de s'installer à leur compte, une solution choisie par 30% des salariés ayant perdu leur emploi.
Professeur associé d'études sociales à l'Université d'Utrecht (Pays-Bas), Peter Leisink précise que la rédaction des textes et la correction d'épreuves se font désormais à domicile, le plus souvent par des travailleurs ayant pris le statut d'indépendants à la suite de licenciements, délocalisations ou fusions d'entreprises. «Or cette forme d'emploi tient plus du travail précaire que du travail indépendant, car ces personnes n'ont que peu d'autonomie et sont généralement tributaires d'une seule maison d'édition.»
A part quelques cas particuliers mis en avant par les organisations d'employeurs, la convergence multimédia entraîne des suppressions massives d'emplois. Selon Michel Muller, secrétaire général de la FILPAC (Fédération des industries du livre, du papier et de la communication), les industries graphiques françaises perdent 20.000 emplois en dix ans. Entre 1987 et 1996, les effectifs passent de de 110.000 à 90.000 salariés. Les entreprises doivent mettre sur pied des plans sociaux coûteux pour favoriser le reclassement des personnes licenciées, en créant des emplois souvent artificiels, alors qu'il aurait été préférable de financer des études fiables sur la manière d'équilibrer créations et suppressions d'emplois quand il était encore temps.
Partout dans le monde, de nombreux postes à faible qualification technique sont remplacés par des postes exigeant des qualifications techniques élevées. Les personnes peu qualifiées sont licenciées. D'autres suivent une formation professionnelle complémentaire, parfois auto-financée et prise sur leur temps libre, et cette formation professionnelle ne garantit pas pour autant le réemploi.
Directeur de AT&T, géant des télécommunications aux Etats-Unis, Walter Durling insiste sur le fait que les nouvelles technologies ne changeront pas fondamentalement la situation des salariés au sein de l'entreprise. L'invention du film n'a pas tué le théâtre et celle de la télévision n'a pas fait disparaître le cinéma. Les entreprises devraient créer des emplois liés aux nouvelles technologies et les proposer à ceux qui sont obligés de quitter d'autres postes devenus obsolètes. Des arguments bien théoriques alors que le problème est plutôt celui du pourcentage. Combien de créations de postes pour combien de licenciements?
De leur côté, les syndicats préconisent la création d'emplois par l'investissement, l'innovation, la formation professionnelle aux nouvelles technologies, la reconversion des travailleurs dont les emplois sont supprimés, des conditions équitables pour les contrats et les conventions collectives, la défense du droit d'auteur, une meilleure protection des travailleurs dans le secteur artistique et enfin la défense des télétravailleurs en tant que travailleurs à part entière.
Malgré tous les efforts des syndicats, la situation deviendra-elle aussi dramatique que celle décrite dans une note du rapport de ce colloque, demandant si «les individus seront forcés de lutter pour survivre dans une jungle électronique avec les mécanismes de survie qui ont été mis au point au cours des précédentes décennies?»
A ceci s'ajoutent la sous-traitance et la délocalisation. Pour la numérisation de catalogues par exemple, certaines bibliothèques font appel à des sociétés employant un personnel temporaire avec de bas salaires et la rapidité pour seul critère, quand les fichiers papier ne sont pas tout simplement envoyés en Asie et les informations saisies par des opérateurs ne connaissant pas la langue et faisant l'impasse sur les accents. Certains catalogues sont ensuite passés au crible et vérifiés sinon corrigés, d'autres non.
La distinction traditionnelle entre maison d'édition, éditeur de presse, librairie, bibliothèque, etc., sera-t-elle encore de mise dans quelques années? Le développement de l'édition électronique amène des changements substantiels dans les relations entre les auteurs, les éditeurs et les lecteurs. Les catégories professionnelles forgées au fil des siècles - éditeurs, journalistes, bibliothécaires, etc. - s'adapteront-elles à la convergence multimédia, comme c'est le cas avec les premiers cyberéditeurs, cyberjournalistes, cyberthécaires, etc., ou bien toutes ces activités seront-elles progressivement restructurées pour donner naissance à de nouveaux métiers?
L'internet offre aussi de réels avantages en matière d'emploi, notamment la possibilité de chercher du travail en ligne et de recruter du personnel par le même biais. Changer d'emploi devient plus facile, tout comme le télétravail. Créatrice du site littéraire Zazieweb, Isabelle Aveline raconte en juin 1998: «Grâce à internet les choses sont plus souples, on peut très facilement passer d'une société à une autre (la concurrence!), le télétravail pointe le bout de son nez (en France c'est encore un peu tabou…), il n'y a plus forcément de grande séparation entre espace pro et personnel.»
Claire Le Parco, de la société Webnet, qui gère le site Poésie française, précise à la même date: «En matière de recrutement, internet a changé radicalement notre façon de travailler, puisque nous passons maintenant toutes nos offres d'emploi (gratuitement) dans le newsgroup "emploi". Nous utilisons un intranet pour échanger nombre d'informations internes à l'entreprise: formulaires de gestion courante, archivage des documents émis, suivi des déplacements, etc. La demande des entreprises est très forte, et je crois que nous avons de beaux jours devant nous!»
Rédacteur et webmestre du Biblio On Line, un portail destiné aux bibliothèques, Jean-Baptiste Rey relate en juin 1998: «Personnellement internet a complètement modifié ma vie professionnelle puisque je suis devenu webmestre de site internet et responsable du secteur nouvelles technologies d'une entreprise informatique parisienne (Quick Soft Ingénierie, ndlr). Il semble que l'essor d'internet en France commence (enfin) et que les demandes tant en matière d'informations, de formations que de réalisations soient en grande augmentation.»
Fabrice Lhomme, webmestre d'Une Autre Terre, site consacré à la science-fiction, raconte à la même date: «Une Autre Terre est un serveur personnel hébergé gratuitement par la société dans laquelle je travaille. Je l'ai créé uniquement par passion pour la SF et non dans un but professionnel même si son audience peut laisser envisager des débouchés dans ce sens. Par contre internet a bel et bien changé ma vie professionnelle. Après une expérience de responsable de service informatique, j'ai connu le chômage et j'ai eu plusieurs expériences dans le commercial. Le poste le plus proche de mon domaine d'activité que j'ai pu trouver était vendeur en micro-informatique en grande surface. Je dois préciser quand même que je suis attaché à ma région (la Bretagne, ndlr) et que je refusais de m'"expatrier". Jusqu'au jour donc où j'ai trouvé le poste que j'occupe depuis deux ans. S'il n'y avait pas eu internet, je travaillerais peut-être encore en grande surface. Actuellement, l'essentiel de mon activité tourne autour d'internet (réalisation de serveurs web, intranet/extranet,…) mais ne se limite pas à cela. Je suis technicien informatique au sens large du terme puisque je m'occupe aussi de maintenance, d'installation de matériel, de réseaux, d'audits, de formations, de programmation… (…) J'ai trouvé dans internet un domaine de travail très attrayant et j'espère fortement continuer dans ce segment de marché. La société dans laquelle je travaille est une petite société en cours de développement. Pour l'instant je suis seul à la technique (ce qui explique mes nombreuses casquettes) mais nous devrions à moyen terme embaucher d'autres personnes qui seront sous ma responsabilité.»
Des professionnels du livre décident de rejoindre des sociétés informatiques ou alors de se spécialiser au sein de la structure dans laquelle ils travaillent, en devenant par exemple les webmestres de leur librairie, de leur maison d'édition ou de leur bibliothèque. Malgré cela, de nombreux postes disparaissent avec l'introduction des nouvelles technologies. Ces salariés peuvent-ils vraiment tous se recycler grâce à des formations professionnelles adaptées?
A ceci s'ajoutent les contrats précaires et les salaires au rabais. Pour ne prendre que l'exemple le plus connu, en 2000, cinq ans après son lancement, la librairie en ligne Amazon ne fait plus seulement la Une pour son modèle économique mais aussi pour les conditions de travail de son personnel. Malgré la discrétion d'Amazon sur le sujet et les courriers internes adressés aux salariés sur l'inutilité des syndicats au sein de l'entreprise, les problèmes commencent à filtrer. Ils attirent l'attention de l'organisation internationale Prewitt Organizing Fund et du syndicat français SUD PTT Loire Atlantique (SUD signifiant : solidaires unitaires démocratiques, et PTT signifiant: poste, télégraphe et téléphone). En novembre 2000, ces deux organisations débutent une action de sensibilisation commune auprès du personnel d'Amazon France pour les inciter à demander de meilleures conditions de travail et des salaires plus élevés. Des représentants des deux organisations rencontrent une cinquantaine de salariés du centre de distribution de Boigny-sur-Bionne, situé dans la banlieue d'Orléans, au sud de Paris. Dans le communiqué qui suit cette rencontre, SUD PTT dénonce chez Amazon France «des conditions de travail dégradées, la flexibilité des horaires, le recours aux contrats précaires dans les périodes de flux, des salaires au rabais, et des garanties sociales minimales». Le Prewitt Organizing Fund mène ensuite une action similaire dans les deux autres filiales européennes d'Amazon, en Allemagne et au Royaume-Uni.
Les problèmes auxquels la nouvelle économie est confrontée dans les années 2000 n'arrangent rien. On assiste à l'effondrement des valeurs internet en bourse. Les recettes publicitaires sont moins importantes que prévu, alors qu'elles représentent souvent la principale source de revenus. Dans tous les secteurs, y compris l'industrie du livre, le ralentissement de l'économie entraîne la fermeture d'entreprises ou bien le licenciement d'une partie de leur personnel. C'est le cas par exemple de Britannica.com en 2000, d'Amazon.com et BOL.fr en 2001, de Cytale, Vivendi et Bertelsmann en 2002, et enfin de Gemstar et 00h00 en 2003.
En novembre 2000, la société Britannica.com, qui gère la version web de l'Encyclopædia Britannica, annonce sa restructuration dans l'optique d'une meilleure rentabilité. 25% du personnel est licencié, soit 75 personnes. L'équipe de la version imprimée n'est pas affectée.
En janvier 2001, la librairie Amazon.com, qui emploie 1 800 personnes en Europe, annonce une réduction de 15% de ses effectifs et la restructuration du service clientèle européen, qui était basé à La Haye (Pays-Bas). Les 240 personnes qu'emploie ce service sont transférées dans les centres de Slough (Royaume-Uni) et Regensberg (Allemagne). Aux Etats-Unis, dans la maison-mère, suite à un quatrième trimestre 2000 déficitaire, les effectifs sont eux aussi réduits de 15%, ce qui entraîne 1 300 licenciements.
En juillet 2001, après deux ans d'activité, la librairie en ligne française BOL.fr ferme définitivement ses portes. Créée par deux géants des médias, l'allemand Bertelsmann et le français Vivendi, BOL.fr faisait partie du réseau de librairies BOL.com (BOL: Bertelsmann on line).
En avril 2002, la société française Cytale, qui avait lancé en janvier 2001 le Cybook, une tablette électronique de lecture, doit se déclarer en cessation de paiement, suite à des ventes très inférieures aux pronostics. L'administrateur ne parvenant pas à trouver un repreneur, Cytale est mis en liquidation judiciaire en juillet 2002 et cesse ses activités.
En juillet 2002, la démission forcée de Jean-Marie Messier, PDG de Vivendi Universal, une multinationale basée à Paris et à New York, marque l'arrêt des activités fortement déficitaires de Vivendi liées à l'internet et au multimédia, et la restructuration de la société vers des activités plus traditionnelles.
En août 2002, la multinationale allemande Bertelsmann décide de mettre un frein à ses activités internet et multimédias afin de réduire son endettement. Bertelsmann se recentre lui aussi sur le développement de ses activités traditionnelles, notamment sa maison d'édition Random House et l'opérateur européen de télévision RTL.
En juin 2003, Gemstar, une société américaine spécialisée dans les produits et services numériques pour les médias, décide de cesser son activité eBook, à savoir la vente de ses tablettes de lecture Gemstar eBook, puis celle des livres numériques le mois suivant. Cette cessation d'activité sonne également le glas de 00h00, pionnier de l'édition en ligne commerciale, fondé à Paris en mai 1998 et racheté par Gemstar en septembre 2000.
Toutefois, pendant la même période, les ventes d'assistants personnels (PDA) sont en forte progression, tout comme le nombre de livres numériques disponibles pour PDA. Un beau démenti au scepticisme de certains professionnels du livre qui jugent leur écran beaucoup trop petit et voient mal l'activité noble qu'est la lecture voisiner avec l'utilisation d'un agenda, d'un dictaphone ou d'un lecteur de MP3.
12.4. La relation information-utilisateur
L'internet offre un nouvel outil (relativement) économique abolissant les frontières. Une encyclopédie multilingue est désormais disponible à un prix défiant toute concurrence, une fois l'ordinateur payé. Le courriel, les forums, les chats et les blogs favorisent l'aide mutuelle et le débat d'idées.
Dans The World Wide Web: A Very Short Personal History, Tim Berners-Lee, inventeur du web, écrit en avril 1998: «Le rêve derrière le web est un espace d'information commun dans lequel nous communiquons en partageant l'information. Son universalité est essentielle, à savoir le fait qu'un lien hypertexte puisse pointer sur quoi que ce soit, quelque chose de personnel, de local ou de global, aussi bien une ébauche qu'une réalisation très sophistiquée.»
Un auteur peut désormais faire connaître ses oeuvres en créant un site web, sans attendre de trouver un éditeur ou en se passant tout simplement d'éditeur, et il peut facilement échanger avec ses lecteurs. Nombreux sont les écrivains, journalistes, bibliothécaires, enseignants, etc. qui participent à l'enrichissement d'une toile littéraire, artistique et scientifique. La presse en ligne est bien assise à côté des journaux et magazines imprimés. Les libraires en ligne peuvent vendre des livres étrangers ou bien vendre à l'étranger des livres publiés dans leur pays. Les lecteurs ont à leur disposition des extraits ou parfois même le texte intégral des nouveautés, qu'ils peuvent feuilleter tout à loisir à l'écran. Outre les éditeurs traditionnels utilisant le web comme vitrine, on voit apparaître les éditeurs électroniques, qui utilisent l'internet pour la découverte des oeuvres, leur publication, leur promotion et leur diffusion. Les éditeurs universitaires et spécialisés peuvent largement diffuser leurs publications électroniques sans passer par des publications imprimées devenues trop coûteuses sinon inutiles. Les bibliothèques traditionnelles disposent elles aussi d'une vitrine pour faire connaître leurs collections. Les bibliothèques numériques se développent rapidement. Grâce à elles, on dispose du texte intégral de dizaines de milliers d'oeuvres du domaine public. A ceci s'ajoutent les collections d'images, de musique, de vidéos et de films.
Outre ce changement radical dans la relation information-utilisateur, on assiste à une transformation radicale de la nature même de l'information. En 1974, Vinton Cerf co-invente avec Bob Kahn le protocole TCP/IP, à la base de tout échange de données sur le réseau. Sur le site de l'Internet Society (ISOC), qu'il fonde en 1992 pour promouvoir le développement de l'internet, il explique: «Le réseau fait deux choses (…): comme les livres, il permet d'accumuler de la connaissance. Mais, surtout, il la présente sous une forme qui la met en relation avec d'autres informations. Alors que, dans un livre, l'information est maintenue isolée.» De plus, l'information contenue dans les livres reste la même, au moins pendant une période donnée, alors que l'internet privilégie l'information la plus récente qui, elle, est en constante mutation.
Il s'ensuit un changement dans la manière d'enseigner. Dès septembre 1996, dans Creativity and the Computer Education Industry, une communication de la 14e conférence mondiale de l'International Federation of Information Processing (IFIP), Dale Spender, professeur à l'Université de Queensland (Australie), tente d'analyser ce changement. Voici son argumentation résumée en deux paragraphes.
Depuis plus de cinq siècles, l'enseignement est essentiellement basé sur l'information procurée par les livres. Or les habitudes liées à l'imprimé ne peuvent être transférées dans l'univers numérique. L'enseignement en ligne offre des possibilités tellement nouvelles qu'il n'est guère possible d'effectuer les distinctions traditionnelles entre enseignant et enseigné. Le passage de la culture imprimée à la culture numérique exige donc d'entièrement repenser le processus d'acquisition du savoir, puisqu'on a maintenant l'opportunité sans précédent de pouvoir influer sur le type d'enseignement qu'on souhaite recevoir.
Dans la culture imprimée, l'information contenue dans les livres reste la même un certain temps, ce qui encourage à penser que l'information est stable. La nature même de l'imprimé est liée à la notion de vérité, stable elle aussi. Cette stabilité et l'ordre qu'elle engendre sont un des fondements de l'âge industriel et de l'ère des sciences et techniques. Les notions de vérité, de loi, d'objectivité et de preuve sont le fondement de nos croyances et de nos cultures. Mais l'avènement du numérique change tout ceci. Soudain l'information en ligne supplante l'information imprimée pour devenir la plus fiable et la plus utile, et l'usager est prêt à la payer en conséquence. Cette transformation radicale de la nature même de l'information doit être au coeur du débat relatif aux nouvelles méthodes d'enseignement.
En juillet 1998, Patrick Rebollar, professeur de français et d'informatique dans des universités japonaises, analyse l'impact de l'internet sur sa vie professionnelle: «Mon travail de recherche est différent, mon travail d'enseignant est différent, mon image en tant qu'enseignant-chercheur de langue et de littérature est totalement liée à l'ordinateur, ce qui a ses bons et ses mauvais côtés (surtout vers le haut de la hiérarchie universitaire, plutôt constituée de gens âgés et technologiquement récalcitrants). J'ai cessé de m'intéresser à certains collègues proches géographiquement mais qui n'ont rien de commun avec mes idées, pour entrer en contact avec des personnes inconnues et réparties dans différents pays (et que je rencontre parfois, à Paris ou à Tokyo, selon les vacances ou les colloques des uns ou des autres). La différence est d'abord un gain de temps, pour tout, puis un changement de méthode de documentation, puis de méthode d'enseignement privilégiant l'acquisition des méthodes de recherche par mes étudiants, au détriment des contenus (mais cela dépend des cours). Progressivement, le paradigme réticulaire l'emporte sur le paradigme hiérarchique - et je sais que certains enseignants m'en veulent à mort d'enseigner ça, et de le dire d'une façon aussi crue. Cependant ils sont obligés de s'y mettre…»
Professeur au département d'études françaises de l'Université de Toronto, Russon Wooldridge relate en mai 2001: «Mes activités de recherche, autrefois menées dans une tour d'ivoire, se font maintenant presque uniquement par des collaborations locales ou à distance. (…) Tout mon enseignement exploite au maximum les ressources d'internet (le web et le courriel): les deux lieux communs d'un cours sont la salle de classe et le site du cours, sur lequel je mets tous les matériaux des cours. Je mets toutes les données de mes recherches des vingt dernières années sur le web (réédition de livres, articles, textes intégraux de dictionnaires anciens en bases de données interactives, de traités du 16e siècle, etc.). Je publie des actes de colloques, j'édite un journal, je collabore avec des collègues français, mettant en ligne à Toronto ce qu'ils ne peuvent pas publier en ligne chez eux.»
L'internet permet une information en profondeur qu'aucun organe de presse, éditeur ou bibliothèque ne pouvait donner jusqu'ici: rapidité de propagation des informations, accès immédiat à de nombreux sites d'information, liens vers des articles et sources connexes, énormes capacités documentaires allant du général au spécialisé et réciproquement (cartes géographiques, notices biographiques, textes officiels, informations d'ordre politique, économique, social, culturel, etc.), grande variété d'illustrations (photos, graphiques, tableaux, vidéos, etc.), possibilité d'archivage avec moteur de recherche, etc.
Certains s'inquiètent des dérives commerciales du réseau. Lucie de Boutiny, romancière multimédia, relate en juin 2000: «Des stratégies utopistes avaient été mises en place mais je crains qu'internet ne soit plus aux mains d'internautes comme c'était le cas. L'intelligence collective virtuelle pourtant se défend bien dans divers forums ou listes de discussions, et ça, à défaut d'être souvent efficace, c'est beau. Dans l'utopie originelle, on aurait aimé profiter de ce nouveau média, notamment de communication, pour sortir de cette tarte à la crème qu'on se reçoit chaque jour, merci à la société du spectacle, et ne pas répéter les erreurs de la télévision qui n'est, du point de vue de l'art, jamais devenue un média de création ambitieux.»
Xavier Malbreil, auteur hypermédia, est plus optimiste. «Concernant l'avenir de l'internet, je le crois illimité, explique-t-il en mars 2001. Il ne faut pas confondre les gamelles que se prennent certaines start-up trop gourmandes, ou dont l'objectif était mal défini, et la réalité du net. Mettre des gens éloignés en contact, leur permettre d'interagir, et que chacun, s'il le désire, devienne son propre fournisseur de contenu, c'est une révolution dont nous n'avons pas encore pris toute la mesure.»
Cet optimisme est partagé par Christian Vandendorpe, professeur à l'Université d'Ottawa, qui écrit à la même date: «Cet outil fabuleux qu'est le web peut accélérer les échanges entre les êtres, permettant des collaborations à distance et un épanouissement culturel sans précédent. Mais cet espace est encore fragile. (…) Il existe cependant des signes encourageants, notamment dans le développement des liaisons de personne à personne et surtout dans l'immense effort accompli par des millions d'internautes partout au monde pour en faire une zone riche et vivante.»
12.5. Ecriture et édition en ligne
De l'avis de Jean-Pierre Balpe, directeur du département hypermédias de l'Université Paris 8, interviewé en février 2002, «les technologies numériques sont une chance extraordinaire du renouvellement du littéraire». Depuis 1998, de nombreux genres ont vu le jour: sites d'écriture hypermédia, oeuvres de fiction hypertexte, romans multimédias, hyper-romans, mail-romans, etc. Le texte fusionne avec l'image et le son en intégrant dessins, graphiques, photos, chansons, musique ou vidéos.
Lucie de Boutiny, qui participe à ce vaste mouvement, écrit en juin 2000: «Depuis l'archaïque minitel si décevant en matière de création télématique, c'est bien la première fois que, via le web, dans une civilisation de l'image, l'on voit de l'écrit partout présent 24 h / 24, 7 jours / 7. Je suis d'avis que si l'on réconcilie le texte avec l'image, l'écrit avec l'écran, le verbe se fera plus éloquent, le goût pour la langue plus raffiné et communément partagé.»
L'internet renouvelle aussi la manière d'écrire. Webmestre du site hypermédia cotres.net, Jean-Paul relate en juin 2000: «L'internet n'a pas changé ma vie, mais mon rapport à l'écriture. On n'écrit pas de la même manière pour un site que pour un scénario, une pièce de théâtre, etc. (…) Depuis, j'écris (compose, mets en page, en scène) directement à l'écran.»
Chose qu'on oublie trop souvent, il rappelle que toutes les fonctionnalités de l'internet étaient déjà en gestation dans le Macintosh - couramment appelé Mac - lancé en 1984 par Apple. Premier ordinateur personnel à disposer d'une interface graphique intuitive facilement utilisable par le non spécialiste, le Mac remporte un succès colossal parce qu'il facilite le rapport entre l'utilisateur et l'information.
«En fait, ce n'est pas sur la toile, c'est dans le premier Mac que j'ai découvert l'hypermédia à travers l'auto-apprentissage d'Hypercard, écrit Jean-Paul. Je me souviens encore de la stupeur dans laquelle j'ai été plongé, durant le mois qu'a duré mon apprentissage des notions de boutons, liens, navigation par analogies, par images, par objets. L'idée qu'un simple clic sur une zone de l'écran permettait d'ouvrir un éventail de piles de cartes dont chacune pouvait offrir de nouveaux boutons dont chacun ouvrait un nouvel éventail dont… bref l'apprentissage de tout ce qui aujourd'hui sur la toile est d'une banalité de base, cela m'a fait l'effet d'un coup de foudre (il paraît que Steve Jobs et son équipe eurent le même choc lorsqu'ils découvrirent l'ancêtre du Mac dans les laboratoires de Rank Xerox). Depuis, j'écris (compose, mets en page, en scène) directement à l'écran. L'état "imprimé" de mon travail n'est pas le stade final, le but; mais une forme parmi d'autres, qui privilégie la linéarité et l'image, et qui exclut le son et les images animées.»
Quelles sont les perspectives quelques années après? En janvier 2007, «l'hypermédia est maintenant une évidence. (…) La partie du public formée à cette école et s'intéressant à la littérature demandera de nouvelles formes de récit. Entre-temps, les juristes auront remplacé le "droit d'auteur" par un "droit d'entoileur", libérant mes ayant-droits de tout souci de royautés. L'argent commencera à circuler. Et les "auteurs" (?) pourront enfin prendre au corps la seule vraie question de cette histoire : le remplacement de la linéarité par la simultanéité, l'ubiquité. Ce que font déjà les jeux de stratégie, dans leur domaine. Et ce sera banzaï pour un siècle au moins de littérature hypermédiatique, avant de souffler un peu pour se regarder dans le rétroviseur.»
De même que la littérature numérique contribue au renouvellement du littéraire, l'édition électronique contribue au renouvellement de l'édition. Nombre d'auteurs mettent leurs espoirs dans l'édition électronique, commerciale ou non, pour bousculer une édition traditionnelle qui aurait fort besoin d'une cure de rajeunissement.
Selon Lucie de Boutiny, interviewée en juin 2000, la littérature hypertextuelle, «qui passe par le savoir-faire technologique, rapproche donc le techno-écrivain du scénariste, du dessinateur BD, du plasticien, du réalisateur de cinéma. Quelles en sont les conséquences au niveau éditorial? Faut-il prévoir un budget de production en amont? Qui est l'auteur multimédia? Qu'en est-il des droits d'auteur? Va-t-on conserver le copyright à la française? L'HTX (hypertext literature) sera publiée par des éditeurs papier ayant un département multimédia? De nouveaux éditeurs vont émerger et ils feront un métier proche de la production? Est-ce que nous n'allons pas assister à un nouveau type d'oeuvre collective? Bientôt le sampling littéraire protégé par le copyleft?»
Anne-Bénédicte Joly, écrivain auto-éditant ses oeuvres, écrit en mai 2001: «Certains éditeurs on line tendent à se comporter comme de véritables éditeurs en intégrant des risques éditoriaux comme le faisaient au début du siècle dernier certains éditeurs classiques. Il est à ma connaissance absolument inimaginable de demander à des éditeurs traditionnels d'éditer un livre en cinquante exemplaires. L'édition numérique offre cette possibilité, avec en plus réédition à la demande, presque à l'unité. (…) Je suis ravie que des techniques (internet, édition numérique, ebook…) offrent à des auteurs des moyens de communication leur permettant d'avoir accès à de plus en plus de lecteurs.»
Pour les documentaires également, on commence à utiliser les formes d'écriture et de lecture devenues courantes dans le domaine de l'hyperfiction. Outre plusieurs possibilités de lecture, linéaire, non linéaire, par thèmes, etc., le documentaire hypermédia offre de réels avantages par rapport au documentaire imprimé. Il permet l'accès immédiat aux documents cités. Les erreurs peuvent être aussitôt corrigées. Le livre peut être régulièrement actualisé, en y incluant par exemple les développements les plus récents sur tel sujet ou les derniers chiffres et statistiques. Ces horripilants index en fin d'ouvrage - mais combien pratiques, au moins quand ils existent - sont remplacés par un moteur de recherche ou une base interactive.
Tout comme pour l'hyperfiction, il reste à inventer un nouveau type de maison d'édition spécialisée dans ce type de documentaire, avec actualisation immédiate. Si ceci vaut pour tous les sujets, cela paraît d'autant plus indispensable pour les nouvelles technologies, l'internet et le web. La place des livres traitant du web n'est-elle pas sur le web? L'auteur pourrait choisir de mettre son livre en consultation payante ou gratuite. La question du droit d'auteur serait également entièrement à revoir. Copyright ou copyleft? Paiement à la source ou paiement à la consultation? Et comment l'éditeur serait-il rémunéré?
A l'heure de l'internet, pour les documentaires comme pour la fiction, il s'avère peut-être nécessaire de créer de toutes pièces une structure éditoriale entièrement numérique se démarquant des schémas traditionnels. De nombreux auteurs seraient certainement heureux d'expérimenter un nouveau système, au lieu de se plier à un système traditionnel très contraignant, qui n'est peut-être plus de mise maintenant qu'on dispose d'un moyen de diffusion à moindres frais échappant aux frontières. Ces nouveaux éditeurs seraient différents des éditeurs en ligne, électroniques ou numériques apparus ces dernières années, qui sont souvent issus de l'édition traditionnelle et la copient encore. Il s'agirait d'éditeurs qui repenseraient la chaîne éditoriale de fond en comble tout en faisant un véritable travail d'éditeur (découverte, sélection, diffusion et promotion).
Ces nouveaux éditeurs pourraient adopter des méthodes originales spécifiques au réseau: envoi des manuscrits sous forme électronique, délais de réponse courts, critères de sélection transmis par courrier électronique, publication rapide, droits d'auteur plus élevés avec montant disponible en ligne, vente simultanée de la version imprimée (impression à la demande) et de la version numérique en plusieurs formats, véritable diffusion et véritable promotion de l'oeuvre selon une méthode qui reste à mettre au point et ne se limiterait pas à un descriptif avec un extrait en téléchargement libre, versions revues et corrigées facilement envisageables sinon encouragées dans le domaine des sciences et techniques, etc.
Tous arguments bien théoriques peut-être, mais il existe certainement de nouvelles pistes à explorer.
Journaliste et infographiste, Marc Autret a derrière lui dix ans de journalisme multi-tâches et d'hyper-formation dans le domaine de l'édition, du multimédia et du droit d'auteur. «C'est un "socle" irremplaçable pour mes activités d'aujourd'hui, qui en sont le prolongement technique, explique-t-il en décembre 2006. Je suis un "artisan" de l'information et je travaille essentiellement avec des éditeurs. Ils sont tellement en retard, tellement étrangers à la révolution numérique, que j'ai du pain sur la planche pour pas mal d'années. Aujourd'hui je me concentre sur le conseil, l'infographie, la typographie, le pré-presse et le webdesign, mais je sens que la part du logiciel va grandir. Des secteurs comme l'animation 3D, l'automatisation des tâches de production, l'intégration multi-supports, la base de données et toutes les technologies issues de XML vont s'ouvrir naturellement. Les éditeurs ont besoin de ces outils, soit pour mieux produire, soit pour mieux communiquer. C'est là que je vois l'évolution, ou plutôt l'intensification, de mon travail.»
12.6. Numérique versus imprimé
Les documents imprimés récents sont issus d'une version électronique sur traitement de texte, tableur ou base de données. Il est fréquent qu'un même document soit disponible en deux versions, numérique et imprimée. Pour des raisons budgétaires, de plus en plus de publications n'existent qu'en version électronique. Outre sa facilité d'accès et son faible coût, le document électronique peut être régulièrement actualisé. Point n'est besoin d'attendre une nouvelle édition imprimée soumise aux contraintes commerciales ou aux exigences de l'éditeur, notamment pour les ouvrages et périodiques scientifiques et techniques, dans lesquels l'information récente est primordiale.
Document électronique? Document numérique? Livre électronique? Livre numérique? Un vocabulaire adapté reste à définir. Comme expliqué en 1995 par Jean-Gabriel Ganascia, directeur du Groupement d'intérêt scientifique (GIS) Sciences de la cognition, dans un compte-rendu du cycle de « réflexion de prospective » consacré au livre électronique, le terme «livre électronique», souvent utilisé en français, est «à la fois restrictif et inopportun». Ce terme est restrictif parce que le livre désigne «un support particulier de l'écrit qui est advenu à un moment donné dans l'histoire» alors que le document électronique comporte à la fois de l'écrit, de l'image et du son. Ce terme est également inopportun parce qu'on ne peut guère juxtaposer au terme «livre» le terme «électronique», «un nouvel objet immatériel défini par un ensemble de procédures d'accès et une structuration logique». De plus, qu'il s'agisse de sa forme exacte ou de sa fonction exacte, le statut même de ce qu'on appelle «livre électronique» n'est pas encore déterminé.
C'est aussi l'avis de Pierre Schweitzer, inventeur du projet @folio, une tablette numérique de lecture nomade, qui écrit en juillet 2002: «J'ai toujours trouvé l'expression "livre électronique" très trompeuse, piégeuse même. Car quand on dit "livre", on voit un objet trivial en papier, tellement courant qu'il est devenu anodin et invisible… alors qu'il s'agit en fait d'un summum technologique à l'échelle d'une civilisation. Donc le terme "livre" renvoie sans s'en rendre compte à la dimension éditoriale - le contenu -, puisque "l'objet technique", génial, n'est pas vraiment vu, réalisé… Et de ce point de vue, cette dimension-là du livre, comme objet technique permettant la mise en page, le feuilletage, la conservation, la distribution, la commercialisation, la diffusion, l'échange, etc., des oeuvres et des savoirs, est absolument indépassable. Quand on lui colle "électronique" ou "numérique" derrière, cela renvoie à tout autre chose: il ne s'agit pas de la dimension indépassable du codex, mais de l'exploit inouï du flux qui permet de transmettre à distance, de recharger une mémoire, etc., et tout ça n'a rien à voir avec le génie originel du codex! C'est autre chose, autour d'internet, de l'histoire du télégraphe, du téléphone, des réseaux…»
Nous vivons une période transitoire quelque peu inconfortable, marquée par la généralisation des documents numériques et la numérisation à grande échelle des documents imprimés, mais qui reste encore fidèle au papier. Pour des raisons aussi bien pratiques que sentimentales, les amoureux du livre peuvent difficilement se passer du livre imprimé et de ce matériau qu'est le papier, dont certains nous prédisent régulièrement la mort prochaine mais dont la longévité risque de nous surprendre.
Il ne semble d'ailleurs pas opportun d'opposer livre numérique et livre imprimé, comme le rappelle Olivier Pujol, promoteur du Cybook, une tablette électronique de lecture. «Le livre électronique, permettant la lecture numérique, ne concurrence pas le papier, écrit-il en décembre 2000. C'est un complément de lecture, qui ouvre de nouvelles perspectives pour la diffusion de l'écrit et des oeuvres mêlant le mot et d'autres médias (image, son, image animée…). Les projections montrent une stabilité de l'usage du papier pour la lecture, mais une croissance de l'industrie de l'édition, tirée par la lecture numérique, et le livre électronique. De la même façon que la musique numérique a permis aux mélomanes d'accéder plus facilement à la musique, la lecture numérique supprime, pour les jeunes générations comme pour les autres, beaucoup de freins à l'accès à l'écrit.»
Après avoir sonné un peu vite le glas du papier, on ne parle plus du «tout numérique» pour le proche avenir, mais plutôt de la juxtaposition «papier et pixel», et de la publication simultanée d'un livre en deux versions. Il reste au livre numérique à faire ses preuves face au livre imprimé, un modèle économique qui a plus de cinq cents ans et qui est parfaitement rôdé. Le travail est gigantesque et comprend entre autres la constitution des collections, la mise en place d'un réseau de distribution, l'amélioration des supports de lecture et la baisse de leur prix. Plus important encore, les lecteurs doivent s'habituer à lire des livres à l'écran. Si elle offre des avantages certains (recherche textuelle, sommaire affiché en permanence, etc.), de l'avis général, l'utilisation d'une machine - ordinateur, assistant personnel, téléphone portable, smartphone ou tablette électronique - n'égale pas encore le confort procuré par le livre imprimé. Toutefois, malgré les difficultés rencontrées, les adeptes de la lecture numérique sont de plus en plus nombreux. Ils attendent patiemment des appareils de lecture plus satisfaisants, ou encore des livres et journaux électroniques sur support souple.
Pour les livres et revues scientifiques et techniques, qu'il est nécessaire d'actualiser régulièrement, les technologies numériques conduisent à repenser complètement la signification même de publication, et à s'orienter vers une diffusion en ligne. Les tirages papier restent toujours possibles à titre ponctuel. Des universités diffusent désormais des manuels « sur mesure » composés d'un choix de chapitres et d'articles sélectionnés dans une base de données, auxquels s'ajoutent les commentaires des professeurs. Pour un séminaire, un très petit tirage peut être fait à la demande à partir de documents transmis par voie électronique à un imprimeur. Quant aux revues en ligne, elles passent souvent un partenariat avec une société spécialisée dans l'impression à la demande.
Enseignante-chercheuse à l'Ecole pratique des hautes études (EPHE, Paris-Sorbonne), Marie-Joseph Pierre écrit en février 2003: «Il me paraît évident que la publication des articles et ouvrages au moins scientifiques se fera de plus en plus sous forme numérique, ce qui permettra aux chercheurs d'avoir accès à d'énormes banques de données, constamment et immédiatement évolutives, permettant en outre le contact direct et le dialogue entre les auteurs. Nos organismes de tutelle, comme le CNRS (Centre national de la recherche scientifique) par exemple, ont déjà commencé à contraindre les chercheurs à publier sous ce mode, et incitent fortement les laboratoires à diffuser ainsi leurs recherches pour qu'elles soient rapidement disponibles. Nos rapports d'activité à deux et à quatre ans - ces énormes dossiers peineux résumant nos labeurs - devraient prochainement se faire sous cette forme. Le papier ne disparaîtra pas pour autant, et je crois même que la consommation ne diminuera pas… Car lorsque l'on veut travailler sur un texte, le livre est beaucoup plus maniable. Je m'aperçois dans mon domaine que les revues qui ont commencé récemment sous forme numérique commencent à être aussi imprimées et diffusées sur papier dignement relié. Le passage de l'un à l'autre peut permettre des révisions et du recul, et cela me paraît très intéressant.»
Editeur puis consultant en édition électronique, Nicolas Pewny écrit en février 2003: «Je vois le livre numérique du futur comme un "ouvrage total" réunissant textes, sons, images, vidéo, interactivité: une nouvelle manière de concevoir et d'écrire et de lire, peut-être sur un livre unique, sans cesse renouvelable, qui contiendrait tout ce que l'on a lu, unique et multiple compagnon.»
Marc Autret, journaliste et infographiste, écrit pour sa part en décembre 2006 : «Sans vouloir faire dans la divination, je suis convaincu que l'e-book (ou "ebook": impossible de trancher!) a un grand avenir dans tous les secteurs de la non-fiction. Je parle ici de livre numérique en termes de "logiciel", pas en terme de support physique dédié (les conjectures étant plus incertaines sur ce dernier point). Les éditeurs de guides, d'encyclopédies et d'ouvrages informatifs en général considèrent encore l'e-book comme une déclinaison très secondaire du livre imprimé, sans doute parce que le modèle commercial et la sécurité de cette exploitation ne leur semblent pas tout à fait stabilisés aujourd'hui. Mais c'est une question de temps. Les e-books non commerciaux émergent déjà un peu partout et opèrent d'une certaine façon un défrichage des possibles. Il y a au moins deux axes qui émergent: 1) une interface de lecture/consultation de plus en plus attractive et fonctionnelle (navigation, recherche, restructuration à la volée, annotations de l'utilisateur, quizz interactif…); 2) une intégration multimédia (vidéo, son, infographie animée, base de données, etc.) désormais fortement couplée au web. Aucun livre physique n'offre de telles fonctionnalités. J'imagine donc l'e-book de demain comme une sorte de wiki cristallisé, empaqueté dans un format. Quelle sera alors sa valeur propre? Celle d'un livre: l'unité et la qualité du travail éditorial!»
Pierre Schweitzer, inventeur du projet @folio, fait à nouveau le point en janvier 2007: «La lecture numérique dépasse de loin, de très loin même, la seule question du "livre" ou de la presse, Le livre et le journal restent et resteront encore, pour longtemps, des supports de lecture techniquement indépassables pour les contenus de valeur ou pour ceux dépassant un seuil critique de diffusion. Bien que leur modèle économique puisse encore évoluer (comme pour les "gratuits" la presse grand public), je ne vois pas de bouleversement radical à l'échelle d'une seule génération. Au-delà de cette génération, l'avenir nous le dira. On verra bien. Pour autant, d'autres types de contenus se développent sur les réseaux. Internet défie l'imprimé sur ce terrain-là : celui de la diffusion en réseau (dématérialisée = coût marginal nul) des oeuvres et des savoirs. Là où l'imprimé ne parvient pas à équilibrer ses coûts. Là où de nouveaux acteurs peuvent venir prendre leur place.
Or, dans ce domaine nouveau, les équilibres économiques et les logiques d'adoption sont radicalement différents de ceux que l'on connaît dans l'empire du papier - voir par exemple l'évolution des systèmes de validation pour les archives ouvertes dans la publication scientifique. Ou les modèles économiques émergents de la presse en ligne. Il est donc vain, dangereux même, de vouloir transformer au forceps l'écologie du papier - on la ruinerait à vouloir le faire! À la marge, certains contenus très spécifiques, certaines niches éditoriales, pourraient être transformées - l'encyclopédie ou la publication scientifique le sont déjà: de la même façon, les guides pratiques, les livres d'actualité quasi-jetables et quelques autres segments qui envahissent les tables des librairies pourraient l'être, pour le plus grand bonheur des libraires. Mais il n'y a là rien de massif ou brutal selon moi: nos habitudes de lecture ne seront pas bouleversées du jour au lendemain, elles font partie de nos habitudes culturelles, elles évoluent lentement, au fur et à mesure de leur adoption (= acceptation) par les générations nouvelles.»
13. CONCLUSION
Une conclusion est difficile pour un tel sujet. On parlera plutôt de perspectives. Trois termes paraissent essentiels : stockage, organisation et diffusion. Dans un proche avenir, on devrait disposer de l'ensemble du patrimoine mondial stocké sous forme numérique, d'une organisation effective de l'information et du réseau internet adapté pour y accéder.
Au milieu des années 1990, le texte est omniprésent sur le web, par défaut peut-être, à cause des problèmes de bande passante. Il est ensuite mis de côté au profit de l'image et du son. Dix ans après, le texte revient en force, avec le livre numérique dans son sillage. On n'a jamais tant écrit, y compris dans les wikis et les blogs. Confidentiel en 2000, puis parent pauvre des fichiers musicaux et vidéo, le livre numérique est désormais en bonne place à côté de la musique et des films. Signe des temps, en 2005, il devient un objet convoité par les géants de l'internet pour la constitution de leurs bibliothèques planétaires.
Le futur sera-t-il le cyberespace décrit par Timothy Leary, philosophe, dans son livre Chaos et cyberculture (éditions du Lézard, 1998)? «Toute l'information du monde est à l'intérieur (de gigantesques bases de données, ndlr). Et grâce au cyberespace, tout le monde peut y avoir accès. Tous les signaux humains contenus jusque-là dans les livres ont été numérisés. Ils sont enregistrés et disponibles dans ces banques de données, sans compter tous les tableaux, tous les films, toutes les émissions de télé, tout, absolument tout.»
On n'en est pas encore là. Mais, en quelques années seulement, on ne court plus désespérément après l'information dont on a besoin. Cette information est à notre portée, disponible à l'écran, et souvent en accès libre. Un million de livres est disponible sur le web en janvier 2006, et 2,5 millions de livres en mai 2007, en ne comptant que les livres lisibles et téléchargeables gratuitement sans restriction aucune. Il existerait au moins 25 millions de livres appartenant au domaine public, toutes éditions confondues. Il reste donc beaucoup à faire.
Fondateur du Projet Gutenberg en 1971, Michael Hart précise souvent dans ses écrits que, si Gutenberg a permis à chacun d'avoir ses propres livres, jusque-là réservés à une élite, le Projet Gutenberg permet à chacun d'avoir une bibliothèque complète, jusque-là réservée à la collectivité, sur un support qu'on peut glisser dans sa poche, le support optimal actuel étant la clé USB.
Apparue en 2000, la première clé USB a une capacité de 32 mégaoctets, et elle est toujours disponible au prix de 5 dollars US. En 2006, une clé USB de 4 gigaoctets - le standard à un prix abordable - permet de stocker 10.000 livres zippés. Apparue en 2006, la clé USB de 32 gigaoctets devrait devenir le standard d'ici 2010. En décembre 2006, la capacité maximale d'une clé USB est 64 gigaoctets (à 5.000 dollars l'unité). On devrait disposer en 2020 d'une clé USB de 32 téraoctets permettant de stocker l'intégralité du patrimoine écrit de l'humanité.
Tim Berners-Lee est l'inventeur du web en 1990. A la question de Pierre Ruetschi, journaliste à la Tribune de Genève: «Sept ans plus tard, êtes-vous satisfait de la façon dont le web a évolué?», il répond en décembre 1997 que, s'il est heureux de la richesse et de la variété de l'information disponible, le web n'a pas encore la puissance prévue dans sa conception d'origine. Il aimerait «que le web soit plus interactif, que les gens puissent créer de l'information ensemble», et pas seulement consommer celle qui leur est proposée. Le web doit devenir un véritable «média de collaboration, un monde de connaissance que nous partageons». C'est chose faite quelques années plus tard.
Si, à l'origine, le web ressemble un peu à un grand livre composé de pages reliées entre elles par des liens hypertextes, et reproduisant les modèles connus de l'édition papier, le concept de web 2.0, lancé en 2004, met en avant les notions de communauté et de participation, avec un contenu alimenté par les utilisateurs, y compris une nouvelle génération de sites interactifs, par exemple les blogs et les wikis. Le web ne vise plus seulement à utiliser l'information, mais il incite les usagers à échanger et collaborer en ligne, par exemple sur Wikipedia, grande encyclopédie coopérative en ligne. La paternité du terme «web 2.0» revient d'ailleurs à un éditeur, Tim O'Reilly, qui utilise cette expression comme titre pour une série de conférences. Certains parlent de World Live Web au lieu de World Wide Web, le nom d'origine du web.
En 2007, on parle déjà d'un possible web 3.0. Ce web du futur serait un web sémantique capable d'apporter une réponse complète à une requête exprimée en langage courant, en faisant appel à des procédés d'intelligence artificielle qui seraient appliqués à large échelle. D'après la société Radar Networks, il s'agirait d'«un web doté d'une forme d'intelligence artificielle globale et collective». Des données pourraient être rassemblées sur les nombreux réseaux sociaux et participatifs existant sur le web. Elles pourraient être traitées automatiquement après avoir été structurées sur la base du langage descriptif RDF (resource description framework) développé par le W3C (World Wide Web Consortium), l'organisme international chargé du développement du web. Cette définition du web 3.0 est d'ailleurs loin de faire l'unanimité.
En ce qui concerne l'infrastructure, la connexion au réseau sera permanente, les technologies WiFi (wireless fidelity) et WiMAX (worldwide interoperability for microwave access) n'étant que des étapes intermédiaires. La prochaine génération de l'internet serait un réseau pervasif permettant de se connecter en tout lieu et à tout moment sur tout type d'appareil à travers un réseau unique et omniprésent. Le concept de réseau pervasif est développé depuis plusieurs années par Rafi Haladjian, fondateur de la société Ozone. «La nouvelle vague touchera notre monde physique, notre environnement réel, notre vie quotidienne dans tous les instants, explique-t-il sur le site de la société. Nous n'accéderons plus au réseau, nous l'habiterons.» Les composantes futures de ce réseau (parties filiaires, parties non filiaires, opérateurs) seront transparentes à l'utilisateur final. Il sera toujours ouvert, assurant une permanence de la connexion en tout lieu. Il sera également agnostique en terme d'application(s), puisque fondé sur les protocoles mêmes de l'internet.
Webmestre du site hypermédia cotres.net, Jean-Paul résume la situation en janvier 2007: «J'ai l'impression que nous vivons une période "flottante", entre les temps héroïques, où il s'agissait d'avancer en attendant que la technologie nous rattrape, et le futur, où le très haut débit va libérer les forces qui commencent à bouger, pour l'instant dans les seuls jeux.»
«La chance qu'on a tous est de vivre là, ici et maintenant cette transformation fantastique», écrit à la même date Pierre Schweitzer, inventeur du projet @folio, une tablette numérique de lecture nomade. «Quand je suis né en 1963, les ordinateurs avaient comme mémoire quelques pages de caractères à peine. Aujourd'hui, mon baladeur de musique pourrait contenir des milliards de pages, une vraie bibliothèque de quartier. Demain, par l'effet conjugué de la loi de Moore et de l'omniprésence des réseaux, l'accès instantané aux oeuvres et aux savoirs sera de mise. Le support de stockage lui-même n'aura plus beaucoup d'intérêt. Seules importeront les commodités fonctionnelles d'usage et la poétique de ces objets.»
Selon Denis Zwirn, président de la librairie numérique Numilog, interviewé en août 2007, «2008 pourrait sans doute marquer un premier point d'inflexion dans la courbe de croissance du marché des livres numériques. Plusieurs facteurs sont réunis pour cela: (1) le développement de vastes catalogues en ligne utilisant pleinement les fonctionnalités de la recherche plein texte dans les livres numérisés, comme ceux de la future Bibliothèque numérique européenne, de VolltextSuche Online, de Google et d'Amazon. Une fois le contenu trouvé dans un des ouvrages ainsi "sondé" par ce type de recherche révolutionnaire pour le grand public, il est naturel de vouloir accéder à la totalité de l'ouvrage… dans sa version numérique. (2) Des progrès techniques cruciaux tels que la proposition commerciale d'appareils de lecture à base d'encre électronique améliorant radicalement l'expérience de lecture finale pour l'usager en la rapprochant de celle du papier. Par exemple l'iLiad d'Irex ou le Sony Reader, mais bien d'autres appareils s'annoncent. Le progrès concerne toutefois tout autant le développement des nouveaux smartphones multifonctions comme les BlackBerry ou l'iPhone, ou la proposition de logiciels de lecture à l'interface fortement améliorée et pensée pour les ebooks sur PC, comme Adobe Digital Edition. (3) Enfin, le changement important d'attitude de la part des professionnels du secteur, éditeurs, et probablement bientôt aussi libraires. Les éditeurs anglo-saxons universitaires ont massivement tracé une route que tous les autres sont en train de suivre, en tout cas aux Etats-Unis, en Europe du Nord et en France : proposer une version numérique de tous les ouvrages. Même pour les plus réticents encore il y a quelques années, ce n'est plus une question de "pourquoi?", c'est simplement devenu une question de "comment?". Les libraires ne vont pas tarder à considérer que vendre un livre numérique fait partie de leur métier normal.
Le livre numérique n'est plus une question de colloque, de définition conceptuelle ou de divination par certains "experts": c'est un produit commercial et un outil au service de la lecture. Il n'est pas besoin d'attendre je ne sais quel nouveau mode de lecture hypermoderne et hypertextuel enrichi de multimédias orchestrant savamment sa spécificité par rapport au papier, il suffit de proposer des textes lisibles facilement sur les supports de lecture électronique variés qu'utilisent les gens, l'encre électronique pouvant progressivement envahir tous ces supports. Et de les proposer de manière industrielle. Ce n'est pas et ne sera jamais un produit de niche (les dictionnaires, les guides de voyage, les non voyants…): c'est en train de devenir un produit de masse, riche de formes multiples comme l'est le livre traditionnel.»
Volume imprimé ou fichier numérique, le livre est d'abord un ensemble de mots émanant d'une personne voulant communiquer ses pensées, ses sentiments ou son savoir à large échelle. Souvent appelé le père de l'internet parce que co-fondateur en 1974 des protocoles du réseau, Vinton Cerf aime à rappeler que l'internet relie moins des ordinateurs que des personnes et des idées. Ce fut le cas pour la préparation du présent livre. Merci à tous - professionnels du livre et apparentés - pour leur participation, pour leur temps et pour leur amitié.
14. CHRONOLOGIE COMMENTEE
[14.1. Les étapes essentielles // 14.2. En résumé]
Si le livre numérique naît en juillet 1971, il ne prend son essor qu'au milieu des années 1990, parallèlement à celui du web, avec une accélération sensible à partir de l'an 2000. Cette chronologie détaille une cinquantaine d'étapes, de 1971 à 2007.
14.1. Les étapes essentielles
Juillet 1971 - Genèse du Projet Gutenberg, première bibliothèque numérique au monde
Fondé par Michael Hart en juillet 1971 alors qu'il était étudiant à l'Université d'Illinois (Etats-Unis), le Projet Gutenberg a pour but de diffuser gratuitement par voie électronique le plus grand nombre possible d'oeuvres du domaine public. Il est le premier site d'information sur un internet encore embryonnaire, qui débute véritablement en 1974 et prend son essor en 1983. Vient ensuite le web (sous-ensemble de l'internet), opérationnel en 1991, puis le premier navigateur, qui apparaît en novembre 1993. Lorsque l'utilisation du web se généralise, le Projet Gutenberg trouve un second souffle et un rayonnement international. Au fil des ans, des centaines d'oeuvres sont patiemment numérisées en mode texte par des milliers de volontaires. D'abord essentiellement anglophones, les collections deviennent peu à peu multilingues. Le Projet Gutenberg Europe débute en janvier 2004*. Le Projet Gutenberg franchit la barre des 20.000 titres en décembre 2006.
Janvier 1991 - Création de l'Unicode, système d'encodage permettant de traiter toutes les langues de la planète
Créé en janvier 1991, l'Unicode Consortium a pour tâche de développer l'Unicode, un système d'encodage «universel» sur 16 bits spécifiant un nombre unique pour chaque caractère. Ce nombre est lisible quels que soient la plateforme, le logiciel et la langue utilisés. L'Unicode peut traiter 65.000 caractères uniques et prendre en compte tous les systèmes d'écriture de la planète. A la grande satisfaction des linguistes, il remplace progressivement l'ASCII (American standard code for information interchange), un système d'encodage sur 7 bits ne pouvant traiter que 128 caractères, et donc uniquement l'anglais, avec des extensions prenant en compte les lettres accentuées de quelques langues européennes.
Janvier 1993 - Lancement de The Online Books Page, un répertoire d'oeuvres anglophones en accès libre
The Online Books Page est créée en janvier 1993 par John Mark Ockerbloom pour répertorier les textes électroniques de langue anglaise en accès libre sur le web. A cette date, John Mark Ockerbloom est doctorant à l'Université Carnegie Mellon (Pittsburgh, Pennsylvanie). En 1999, il rejoint l'Université de Pennsylvanie pour travailler à la R&D (recherche et développement) de la bibliothèque numérique de l'université. A la même époque, il y transfère The Online Books Page, tout en gardant la même présentation, très sobre, et il poursuit son travail d'inventaire dans le même esprit. En 2003, ce répertoire fête ses dix ans et recense plus de 20.000 textes électroniques, dont 4.000 textes publiés par des femmes, à savoir 20% de sa liste de liens. En décembre 2006, il recense 25.000 titres, dont 6.300 titres du Projet Gutenberg.
Avril 1993 - Création d'ABU: la bibliothèque universelle, première bibliothèque numérique francophone
Créée en avril 1993, ABU: la bibliothèque universelle (ABU signifiant: Association des bibliophiles universels) est la première bibliothèque numérique francophone à voir le jour, à l'initiative de l'association du même nom, basée à Paris. Ses membres bénévoles scannent ou dactylographient eux-mêmes des oeuvres francophones du domaine public. En janvier 2002, les collections comprennent 288 textes de 101 auteurs. Il ne semble pas que d'autres textes aient été ajoutés depuis.
Juin 1993 - Lancement par Adobe de l'Acrobat Reader, premier logiciel de lecture
En juin 1993, la société Adobe lance l'Acrobat Reader, premier logiciel de lecture du marché, qui permet de lire des documents au format PDF (portable document format). L'attrait de ce format est de conserver la présentation du document source, quelle que soit la plateforme utilisée pour le créer (au moyen du logiciel Adobe Acrobat) et pour le lire. Le format PDF devient la norme internationale de diffusion des documents électroniques. L'Acrobat Reader est disponible en plusieurs langues et pour diverses plateformes (Windows, Macintosh, Linux, Unix). En 2001, Adobe lance un Acrobat Reader pour assistant personnel (PDA), utilisable sur le Palm Pilot (en mai 2001) puis sur le Pocket PC (en décembre 2001). En mai 2003, l'Acrobat Reader devient l'Adobe Reader.
Novembre 1994 - Naissance des Chroniques de Cybérie, première lettre d'information électronique francophone
En novembre 1994, Jean-Pierre Cloutier, journaliste québécois, crée Les Chroniques de Cybérie, une chronique hebdomadaire des actualités de l'internet, sous la forme d'une lettre envoyée par courrier électronique. A partir d'avril 1995, sa chronique est présente sur le web. Au fil des ans, elle devient une référence dans la communauté francophone, y compris dans le domaine du livre. En 2002, les Chroniques comptent 5.600 abonnés. Faute de financement, elles cessent en avril 2003 pour laisser place au blogue de Jean-Pierre Cloutier.
Février 1995 - Lancement du site web du Monde diplomatique, premier site d'un périodique imprimé français
En février 1995 est mis en ligne le site web du mensuel Le Monde diplomatique, premier site d'un périodique imprimé français. Monté dans le cadre d'un projet expérimental avec l'Institut national de l'audiovisuel (INA), ce site est inauguré lors du forum des images Imagina. Quelques mois après, plusieurs quotidiens imprimés mettent en ligne un site web: Libération à la fin de 1995, Le Monde et L'Humanité en 1996, etc.
Avril 1995 - Création d'Editel, site pionnier de l'édition littéraire francophone
En avril 1995, Pierre François Gagnon, poète et essayiste québécois, crée Editel, site pionnier de l'édition littéraire francophone. Après avoir été le premier site web d'auto-édition collective de langue française, Editel devient un site de cyberédition non commerciale, en partenariat avec quelques auteurs maison, ainsi qu'un webzine littéraire.
Juillet 1995 - Création de la librairie en ligne Amazon.com, futur géant du commerce électronique
En juillet 1995, Jeff Bezos fonde à Seattle (Etat de Washington, Etats-Unis) la librairie en ligne Amazon.com, futur géant du commerce électronique. Suite à une étude de marché démontrant que les livres sont les meilleurs «produits» à vendre sur l'internet, Amazon.com débute avec dix salariés et trois millions d'articles. Cinq ans plus tard, en novembre 2000, la société compte 7.500 salariés, 28 millions d'articles, 23 millions de clients et quatre filiales (Royaume-Uni, Allemagne, France, Japon), auxquelles s'ajoute une cinquième filiale au Canada en juin 2002 puis une sixième filiale en Chine en septembre 2004.
Février 1996 - Lancement de la lettre d'information électronique LMB Actu (Le
Micro Bulletin Actu)
En février 1996, François Vadrot, directeur des systèmes d'information du CNRS (Centre national de la recherche scientifique, France), crée LMB Actu (Le Micro Bulletin Actu), une lettre d'information hebdomadaire consacrée à l'actualité de l'internet et des nouvelles technologies. En août 1999, il fonde la société de cyberpresse FTPress (French Touch Press), basée à Paris. En septembre 1999, il lance Internet Actu, qui remplace LMB Actu. D'autres publications suivent, ainsi que des réalisations multimédias et des émissions de télévision, dont certaines suivent de près l'actualité du livre. En avril 2002, Internet Actu est racheté par INIST Diffusion (INIST: Institut de l'information scientifique et technique). FTPress cesse ses activités en mai 2003.
Avril 1996 - Fondation de l'Internet Archive pour archiver la totalité du web tous les deux mois
Fondée en avril 1996 par Brewster Kahle à San Francisco (Californie), l'Internet Archive a pour but de constituer, stocker, préserver et gérer une bibliothèque de l'internet, en archivant la totalité du web tous les deux mois. L'objectif est d'offrir un outil de travail aux universitaires, chercheurs et historiens, et de préserver un historique de l'internet pour les générations futures. En octobre 2001*, l'Internet Archive met ses archives en accès libre sur le web grâce à la Wayback Machine. En 2004, les archives du web représentent plus de 300 téraoctets de données, avec une croissance de 12 téraoctets par mois. Les archives du web représentent 30 millions de pages web en 1996, 65 milliards de pages web (provenant de 50 millions de sites web) en décembre 2006 et 85 milliards de pages web en mai 2007.
Mai 1996 - Création du DAISY Consortium pour définir un standard de livre audionumérique
Fondé en mai 1996, le DAISY Consortium (DAISY signifiant d'abord «digital audio information system» puis «digital accessible information system») est un consortium international chargé d'assurer la transition entre le livre audio analogique (sur bande magnétique ou sur cassette) et le livre audionumérique. Sa tâche est de définir une norme internationale, déterminer les conditions de production, d'échange et d'utilisation du livre audionumérique, et organiser la numérisation du matériel audio à l'échelle mondiale. La norme DAISY se base sur le format DTB (digital talking book), qui permet l'indexation du livre audio et l'ajout de signets pour une navigation facile au niveau du paragraphe, de la page et du chapitre. En août 2003, près de 41.000 livres audionumériques répondent à cette norme. En août 2005, ils sont au nombre de 129 650.
Juin 1996 - Lancement de Zazieweb, site indépendant suivant l'actualité du livre
Fondé en juin 1996 par Isabelle Aveline, Zazieweb est un site indépendant conçu pour tous les amoureux du livre, professionnels et amateurs. Le succès est immédiat. Suivant de près l'actualité du livre sur le réseau, le site devient peu à peu un portail avec un espace de documentation, d'orientation et de ressources internet. L'annuaire de Zazieweb recense plus de 5.000 sites littéraires. Zazieweb offre aussi «des espaces d'échanges et de rencontres pour lecteurs communicants et actifs». Y participe une communauté active de plus de 10.000 membres ou e-lecteurs. «Qu'est-ce qu'un e-lecteur? Un e-lecteur est un lecteur actif et communicant qui souhaite échanger, discuter, polémiquer avec d'autres lecteurs.»
Août 1996 - Création de CyLibris, pionnier francophone de l'édition électronique commerciale
Fondé en août 1996 à Paris par Olivier Gainon, CyLibris (de Cy, cyber et Libris, livre) est le pionnier francophone de l'édition électronique commerciale. CyLibris est la première maison d'édition à utiliser l'internet et le numérique pour publier de nouveaux auteurs littéraires. Vendus uniquement sur le web, les livres sont imprimés à la commande et envoyés directement au client, ce qui permet d'éviter le stock et les intermédiaires. Au printemps 2000, CyLibris devient membre du Syndicat national de l'édition (SNE). En 2001, certains titres sont également distribués par un réseau de librairies traditionnelles et numériques. En 2003, le catalogue de CyLibris comprend une cinquantaine de titres.
Octobre 1996 - Genèse d'@folio, défini comme un baladeur de texte ou un support de lecture nomade
Architecte designer, Pierre Schweitzer crée en octobre 1996 le concept d'@folio (qui se prononce: a-folio) dans le cadre d'un projet de design déposé à l'Ecole d'architecture de Strasbourg. Défini comme un baladeur de textes ou encore comme un support de lecture nomade, @folio permet de lire des textes glanés sur l'internet. De petite taille, il cherche à mimer, sous forme électronique, le dispositif technique du livre, afin d'offrir une mémoire de fac-similés reliés en hypertexte pour faciliter le feuilletage. En juillet 2002, Pierre Schweitzer fonde la start-up iCodex pour promouvoir son projet. En 2007, la commercialisation d'@folio est encore du domaine de l'avenir.
Avril 1997 - Création de la société E Ink pour développer une technologie d'encre électronique
En avril 1997, des chercheurs du Media Lab du MIT (Massachusetts Institute of Technology) créent la société E Ink afin de développer et commercialiser une technologie d'encre électronique. Très schématiquement, la technologie est la suivante : prises entre deux feuilles de plastique souple, des millions de microcapsules contiennent chacune des particules noires et blanches en suspension dans un fluide clair. Un champ électrique positif ou négatif permet de faire apparaître le groupe de particules souhaité à la surface du support, afin d'afficher, de modifier ou d'effacer les données. En juillet 2002, E Ink présente le prototype du premier écran utilisant cette technologie. Développé en partenariat avec les sociétés Toppan et Philips, cet écran est commercialisé en 2004. Suivent d'autres écrans pour diverses tablettes électroniques de lecture, puis les premiers écrans souples (papier électronique) en noir et blanc. En mai 2007, E Ink annonce sa nouvelle technologie d'encre électronique, le Vizplex.
Octobre 1997 - Mise en ligne de Gallica, bibliothèque numérique de la
Bibliothèque nationale de France
En octobre 1997, la Bibliothèque nationale de France (BnF) met en ligne sa bibliothèque numérique Gallica. En accès libre, elle devient rapidement l'une des plus importantes bibliothèques numériques du réseau. On y trouve les documents libres de droits du fonds numérisé de la BnF, qui vont du Moyen-Age au début du 20e siècle. Pour des raisons de coût, les documents sont essentiellement numérisés en mode image. En décembre 2006, ces collections comprennent 90.000 ouvrages (fascicules de presse compris), 80.000 images et des dizaines d'heures de ressources sonores. Gallica débute la conversion en mode texte des livres numérisés en mode image pour favoriser l'accès à leur contenu.
Mai 1998 - Lancement des éditions 00h00, premier éditeur au monde à vendre des livres numériques
En mai 1998 sont lancées à Paris les éditions 00h00, premier éditeur au monde à vendre des livres numériques. Les deux fondateurs de 00h00 (qui se prononce : zéro heure), Jean-Pierre Arbon et Bruno de Sa Moreira, choisissent ce nom à dessein pour évoquer «cette idée d'origine, de nouveau départ», en faisant le pari de concilier édition électronique et commerce. Pas de stock, pas de contrainte physique de distribution, mais un très beau site, sur lequel on lit: «Internet est un lieu sans passé, où ce que l'on fait ne s'évalue pas par rapport à une tradition. Il y faut inventer de nouvelles manières de faire les choses.» En 2000, le catalogue comprend 600 titres, qui comprennent une centaine d'oeuvres originales et des rééditions électroniques d'ouvrages publiés par d'autres éditeurs. Les versions numériques représentent 85% des ventes, les 15% restants étant des versions imprimées à la demande du client. En septembre 2000*, 00h00 est racheté par la société américaine Gemstar.
Septembre 1999 - Création du format Open eBook (OeB) pour offrir un standard de livre numérique
En septembre 1999 est créé le format Open eBook (OeB), un standard de livre numérique basé sur le langage XML (extensible markup language) et défini par l'OeBPS (open ebook publication structure). Le format OeB est développé par l'Open eBook Forum (OeBF), un consortium industriel international fondé en janvier 2000 pour regrouper constructeurs, concepteurs de logiciels, éditeurs, libraires et spécialistes du numérique (85 participants en 2002). En avril 2005, l'Open eBook Forum change de nom pour devenir l'International Digital Publishing Forum (IDPF).
Décembre 1999 - Mise en ligne de WebEncyclo, première encyclopédie francophone en accès libre
En décembre 1999, les éditions Atlas mettent en ligne WebEncyclo, qui est la première grande encyclopédie francophone en accès libre. La recherche est possible par mots-clés, thèmes, médias (médias signifiant : cartes, liens internet, photos, illustrations) et idées. La section «WebEncyclo contributif» regroupe les articles régulièrement envoyés par des spécialistes. En 2002, l'accès est soumis à une inscription gratuite au préalable.
Décembre 1999 - Mise en ligne de Britannica.com, première encyclopédie anglophone en accès libre
En décembre 1999, Britannica.com propose l'équivalent numérique des 32 volumes de la 15e édition imprimée de l'Encyclopædia Britannica, qui devient ainsi la première grande encyclopédie anglophone en accès libre sur le web. L'encyclopédie en ligne est complétée par un choix d'articles provenant de 70 titres de presse, un guide des meilleurs sites web, une sélection de livres, etc., le tout étant accessible à partir d'un moteur de recherche unique. En septembre 2000, Britannica.com fait partie des cent sites les plus visités au monde. En juillet 2001, la consultation devient payante sur la base d'un abonnement mensuel ou annuel.
Janvier 2000 - Lancement du Million Book Project dans le but de numériser un million de livres
Lancé en janvier 2000 par cinq professeurs (Jaime Carbonnel, Raj Reddy, Michael Shamos, Gloriana St Clair et Robert Thibadeau) de la Carnegie Mellon University (Pennsylvanie, Etats-Unis), le Million Book Project a pour but de numériser un million de livres. Cette bibliothèque numérique est hébergée sur le site de l'Internet Archive. Les livres sont scannés puis convertis au format texte en utilisant la technologie OCR (optical character recognition). Les collections du Million Book Project comprennent 10 612 livres en avril 2005. Le projet cède ensuite la place à l'Open Content Alliance (OCA), lancée par l'Internet Archive en octobre 2005*.
Mars 2000 - Lancement du concept du lyber par les éditions de l'Eclat
Le concept du lyber est lancé en mars 2000 par Michel Valensi, directeur des éditions de l'Eclat. Le lyber est un terme «construit à partir du mot latin liber qui signifie à la fois: libre, livre, enfant, vin». Dans le Petit traité plié en dix sur le lyber, Michel Valensi définit le lyber comme un livre numérique disponible gratuitement sur l'internet dans son intégralité, selon le principe du shareware (partagiciel), avec invitation d'acheter un exemplaire pour soi ou ses amis, possibilité de signaler l'adresse de la librairie locale, et possibilité pour les lecteurs de laisser des commentaires sur le texte en ligne. En novembre 2001, sur les 180 titres que comprend le catalogue des éditions de l'Eclat, une vingtaine de titres est disponible sous forme de lyber.
Mars 2000 - Création de la société Mobipocket, spécialisée dans les livres numériques pour assistant personnel
Créée en mars 2000 par Thierry Brethes et Nathalie Ting, la société Mobipocket, basée à Paris, est spécialisée dans la lecture et la distribution sécurisée de livres numériques sur assistant personnel (PDA). Son logiciel de lecture, le Mobipocket Reader, est «universel», c'est-à-dire utilisable sur tout assistant personnel (Palm Pilot, Pocket PC, eBookMan, Psion, etc.). En avril 2002, la société lance un Mobipocket Reader pour ordinateur. Au printemps 2003, le Mobipocket Reader équipe les premiers smartphones de Nokia et Sony Ericsson. A la même date, le nombre de livres lisibles sur le Mobipocket Reader est de 6.000 titres dans plusieurs langues (français, anglais, allemand, espagnol), distribués soit sur le site de Mobipocket soit dans les librairies partenaires. En avril 2005, Mobipocket est racheté par la librairie en ligne Amazon.com.
Mai 2000 - Création du Net des études françaises (NEF), réseau francophone de diffusion libre du savoir
En mai 2000, Russon Wooldridge, professeur au département d'études françaises de l'Université de Toronto (Canada), crée le Net des études françaises (NEF), suite au colloque qu'il organise à la même date à Toronto (Colloque international sur les études françaises favorisées par les nouvelles technologies d'information et de communication). Le NEF se veut à la fois un site d'édition non commerciale et un réseau dont les auteurs partagent librement leur savoir et leurs produits avec autrui. «Le NEF est un site web consacré à divers aspects des études françaises, notamment les outils critiques, réflexions et autres ressources, ainsi que le World Wide Web comme répositoire de textes et de bases de données textuelles, en même temps qu'objet d'étude et d'analyse critique.» (Russon Wooldridge) Le NEF organise ensuite un deuxième colloque en mai 2002 à Lisieux (Normandie).
Juillet 2000 - Auto-publication en ligne d'un roman de Stephen King, premier auteur de best-sellers à tenter l'expérience
En juillet 2000 débute l'auto-publication électronique de The Plant, roman épistolaire de Stephen King. Premier auteur de best-sellers à se lancer dans un tel pari, Stephen King commence d'abord par distribuer en mars 2000 sa nouvelle Riding The Bullet uniquement en version numérique. 400.000 exemplaires sont téléchargés en vingt-quatre heures. Suite à ce succès à la fois médiatique et financier, il crée un site web spécifique pour auto-publier The Plant en épisodes. Les chapitres paraissent à intervalles réguliers et sont téléchargeables dans plusieurs formats (PDF, OeB, HTML, texte, etc.). En décembre 2000, après la parution du sixième chapitre, l'auteur décide d'interrompre cette expérience, le nombre de téléchargements et de paiements ayant régulièrement baissé au fil des chapitres.
Août 2000 - Lancement du Microsoft Reader, logiciel de lecture pour plateforme
Windows
En août 2000, Microsoft aborde le marché naissant du livre numérique en lançant son propre logiciel de lecture, le Microsoft Reader, pour équiper le Pocket PC, l'assistant personnel de Microsoft lancé à la même date. Le Microsoft Reader est ensuite disponible pour toute plateforme Windows. Microsoft passe aussi des partenariats avec Barnes & Noble.com (en janvier 2000) et Amazon.com (en août 2000) pour débuter la vente de livres numériques lisibles sur le Microsoft Reader. Barnes & Noble.com ouvre son secteur numérique en août 2000, suivi par Amazon.com en novembre 2000. En octobre 2001, le Pocket PC troque le système d'exploitation Windows CE contre le Pocket PC 2002, qui permet la lecture de livres numériques sous droits.
Septembre 2000 - Rachat des éditions 00h00 par Gemstar-TV Guide International
En septembre 2000, les éditions 00h00 - fondées en mai 1998* - sont rachetées par Gemstar-TV Guide International, société américaine spécialisée dans les produits et services numériques pour les médias. Cette acquisition fait suite au rachat par Gemstar en janvier 2000 des sociétés californiennes NuvoMedia et Softbook Press, à l'origine des premiers modèles de tablettes électroniques de lecture. Le rachat de 00h00 permet à Gemstar d'étendre ses activités à l'Europe et d'accéder à l'édition numérique francophone, dont 00h00 est le site de référence avec 600 titres. 00h00 cesse ses activités en juin 2003, tout comme la branche eBook de Gemstar.
Septembre 2000 - Mise en ligne du Grand dictionnaire terminologique (GDT) par l'Office québécois de la langue française (OQLF)
Mis en ligne en septembre 2000 et disponible en accès libre, le Grand dictionnaire terminologique (GDT) est un vaste dictionnaire bilingue français-anglais comprenant 3 millions de termes du vocabulaire industriel, scientifique et commercial. La taille du GDT équivaut à 3.000 ouvrages de référence imprimés. Cette mise en ligne est le résultat d'un partenariat entre l'Office québécois de la langue française (OQLF), auteur du dictionnaire, et de la société Semantix, spécialisée dans les solutions logicielles linguistiques. Dès le premier mois, le dictionnaire est consulté par 1,3 million de personnes, avec des pointes de 60.000 requêtes quotidiennes. En février 2003, les requêtes sont au nombre de 3,5 millions par mois. En mars 2003, une nouvelle version du GDT est mise en ligne, avec gestion par l'OQLF lui-même et non plus par une société prestataire.
Septembre 2000 - Lancement de Numilog, première librairie francophone à vendre exclusivement des livres numériques
Lancée en septembre 2000, la librairie Numilog est la première librairie francophone à vendre exclusivement des livres numériques, par téléchargement et dans plusieurs formats. Fondée à Paris en avril 2000 par Denis Zwirn, la société Numilog est à la fois une librairie en ligne, un studio de fabrication et un diffuseur de livres numériques. En 2003, le catalogue comprend 3.500 titres (livres et périodiques) en français et en anglais, aux formats PDF (pour lecture sur l'Acrobat Reader puis l'Adobe Reader), LIT (pour lecture sur le Microsoft Reader) et PRC (pour lecture sur le Mobipocket Reader), grâce à un partenariat avec une quarantaine d'éditeurs. En décembre 2006, le catalogue de Numilog comprend 35.000 livres numériques grâce à un partenariat avec 200 éditeurs, dont 60 éditeurs francophones.
Septembre 2000 - Lancement du portail Handicapzéro, destiné aux personnes francophones ayant un problème visuel
Mis en ligne en septembre 2000 par l'association du même nom, Handicapzéro devient en février 2003 un portail généraliste offrant un accès adapté à l'information (actualités, programmes de télévision, météo, services divers pour la santé, l'emploi, la consommation, les loisirs, les sports, la téléphonie, etc.) pour tous les Francophones ayant un problème visuel, à savoir plus de 10% de la population. Les personnes aveugles peuvent accéder au site au moyen d'une plage braille ou d'une synthèse vocale. Les personnes malvoyantes peuvent paramétrer sur la page d'accueil la taille et la police des caractères ainsi que la couleur du fond d'écran pour une navigation confortable. Les personnes voyantes peuvent correspondre en braille avec des aveugles par le biais du site. En octobre 2006, le portail enrichit encore son contenu et se dote de nouvelles fonctionnalités.
Octobre 2000 - Fondation de la Public Library of Science (PLoS) dans le but de créer un service gratuit d'archives en ligne
Fondée en octobre 2000 par un groupe de chercheurs des universités de Stanford et de Berkeley (Californie) pour contrer les pratiques des éditeurs spécialisés, la Public Library of Science (PLoS) propose de regrouper tous les articles scientifiques et médicaux au sein d'archives en ligne en accès libre, avec point d'accès unique, moteur de recherche multicritères et système d'hyperliens entre les articles. La réponse de la communauté scientifique internationale est remarquable. Au cours des deux années suivantes, la lettre ouverte de PLoS est signée par 34.000 chercheurs dans 180 pays. Le réponse des éditeurs est beaucoup moins enthousiaste, si bien que ce projet ne voit pas le jour. Mais PLoS décide de devenir lui-même éditeur de périodiques scientifiques et médicaux, et lance sa maison d'édition en janvier 2003*.
Octobre 2000 - Création de Distributed Proofreaders pour aider à la numérisation des livres du domaine public
Conçu en octobre 2000 par Charles Franks pour aider à la numérisation des livres du domaine public, Distributed Proofreaders (DP) est mis en ligne en mars 2001. Le concept est de permettre la correction partagée en fragmentant les livres en pages pouvant être relues par des correcteurs différents. Destiné à intensifier la production de livres pour le Projet Gutenberg, Distributed Proofreaders en devient rapidement la principale source. Il est officiellement affilié au Projet Gutenberg en 2002. Les volontaires n'ont aucun quota à respecter. A titre indicatif, il est suggéré de relire une page par jour. Distributed Proofreaders compte 10.000 livres numérisés par ses soins en décembre 2006. Distributed Proofreaders Europe (DP Europe) voit le jour en janvier 2004*, en même temps que le Projet Gutenberg Europe.
Octobre 2000 - Lancement des tablettes électroniques de lecture Gemstar eBook
En octobre 2000 sont lancés à New York les deux premiers modèles de Gemstar eBook, successeurs du Rocket eBook (créé par la société NuvoMedia) et du Softbook Reader (créé par la société Softbook Press), suite au rachat des deux sociétés par Gemstar-TV Guide International en janvier 2000. Commercialisés en novembre 2000 aux Etats-Unis, ces deux modèles - le REB 1100 (écran noir et blanc, successeur du Rocket eBook) et le REB 1200 (écran couleur, successeur du Softbook Reader) - sont construits sous le label RCA, appartenant à Thomson Multimedia. Courant 2002, ces deux modèles sont remplacés par le GEB 1150 et le GEB 2150, construits sous le label Gemstar. En Europe, le GEB 2200 (proche du REB 1200) est lancé en octobre 2001 en commençant par l'Allemagne. Suite à des ventes très inférieures aux pronostics, la commercialisation de toutes ces tablettes de lecture cesse en juin 2003.
Novembre 2000 - Mise en ligne de la version numérisée de la Bible de Gutenberg par la British Library
En novembre 2000, la version numérique de la Bible de Gutenberg est mise en ligne sur le site de la British Library. Datée de 1454 ou 1455, cette Bible est le premier ouvrage imprimé par Gutenberg dans son atelier de Mayence, en Allemagne. Sur les 180 exemplaires d'origine, 48 exemplaires, dont certains incomplets, existeraient toujours. La British Library en possède deux versions complètes et une partielle. La numérisation est l'oeuvre de chercheurs et experts techniques de l'Université Keio de Tokyo et de NTT (Nippon Telegraph and Telephone Communications), venus travailler dans les locaux de la British Library pour numériser les deux versions complètes.
Décembre 2000 - Création de la société Gyricon Media pour développer un modèle de papier électronique
En décembre 2000, des chercheurs de PARC (Palo Alto Research Center), le centre Xerox de la Silicon Valley, créent la société Gyricon Media dans le but de commercialiser le SmartPaper, un modèle de papier électronique basé sur une technologie d'affichage dénommée gyricon (elle-même développée depuis 1997). Très schématiquement, la technologie est la suivante : prises entre deux feuilles de plastique souple, des millions de micro-alvéoles contiennent des microbilles bicolores en suspension dans un liquide clair. Chaque bille est pourvue d'une charge électrique. Une impulsion électrique extérieure permet la rotation des billes, et donc le changement de couleur, afin d'afficher, de modifier ou d'effacer des données. En 2004, le marché pressenti est d'abord celui de l'affichage commercial, avec vente d'affichettes fonctionnant sur piles. La société disparaît en 2005, et les activités de recherche et développement se poursuivent au sein de Xerox.
Janvier 2001 - Création de Wikipedia, grande encyclopédie collaborative en ligne
Créée en janvier 2001 à l'initiative de Jimmy Wales et de Larry Sanger, Wikipedia est une encyclopédie gratuite écrite collectivement et dont le contenu est librement réutilisable. Cette encyclopédie coopérative est rédigée par des milliers de volontaires, avec possibilité pour tout un chacun de corriger ou compléter les articles. Elle est financée par des dons et sans publicité. En décembre 2004, Wikipedia compte 1,3 million d'articles rédigés par 13.000 contributeurs dans une centaine de langues. Deux ans après, en décembre 2006, elle compte 5 millions d'articles dans 250 langues. Des centaines de milliers de visiteurs apportent quotidiennement des corrections et compléments. Les articles restent la propriété de leurs auteurs. La libre utilisation des articles est régie par la licence GFDL (GNU free documentation license).
Janvier 2001 - Lancement par la société Cytale du Cybook, première tablette électronique de lecture européenne
Première tablette électronique de lecture européenne, le Cybook est lancé en janvier 2001 par Cytale, une société française dirigée par Olivier Pujol. Le téléchargement des livres et journaux numériques s'effectue à partir d'une librairie en ligne propre à Cytale, suite à des partenariats passés avec des éditeurs. La société développe aussi le Cybook Pro, à destination des gros consommateurs de documents, et le Cybook Vision, à destination des personnes malvoyantes. Les ventes des trois modèles étant très inférieures aux pronostics, Cytale, mis en liquidation judiciaire, se voit contraint de cesser ses activités en juillet 2002. La commercialisation du Cybook est ensuite reprise par la société Bookeen, fondée en 2003. La deuxième génération de Cybook est disponible en juin 2004. La troisième génération de Cybook, disponible en octobre 2007, exploite la technologie d'encre électronique E Ink.
Janvier 2001 - Lancement par Adobe de l'Acrobat eBook Reader, logiciel de lecture pour livres numériques sous droits
En janvier 2001, Adobe lance deux nouveaux produits en complément de l'Acrobat Reader (qui permet de lire des documents au format PDF) et de l'Adobe Acrobat (qui permet de les créer). L'Acrobat eBook Reader, gratuit, est un logiciel de lecture pour les livres numériques sous droits, avec gestion des droits par l'Adobe Content Server. L'Adobe Content Server, payant, est un système de DRM destiné aux éditeurs et distributeurs pour la gestion des droits numériques, à savoir le conditionnement, la protection, la distribution et la vente sécurisée des livres numériques au format PDF. En mai 2003, l'Acrobat eBook Reader fusionne avec l'Acrobat Reader pour devenir l'Adobe Reader.
Mars 2001 - Lancement du Palm Reader, logiciel de lecture destiné au Palm Pilot
En mars 2001, la société Palm fait l'acquisition de Peanutpress.com, éditeur et distributeur de livres numériques pour assistant personnel (PDA), qui appartenait jusque-là à la société netLibrary. Le Peanut Reader devient le Palm Reader, utilisable aussi bien sur le Palm Pilot que sur le Pocket PC, et les 2.000 titres de Peanutpress.com sont transférés dans la librairie numérique Palm Digital Media. En juillet 2002, le Palm Reader est utilisable sur ordinateur. A la même date, Palm Digital Media distribue 5.500 titres dans plusieurs langues. En 2003, le catalogue approche les 10.000 titres.
Octobre 2001 - Lancement par l'Internet Archive de la Wayback Machine, qui permet de voir l'historique d'un site web à différentes dates
En octobre 2001, l'Internet Archive met ses archives en accès libre grâce à la Wayback Machine, qui permet à tout un chacun de voir l'historique d'un site web, à savoir la présentation et le contenu d'un site web donné à différentes dates, en général tous les deux mois, à partir de 1996. Fondée en avril 1996* par Brewster Kahle à San Francisco (Californie), l'Internet Archive a pour but de constituer, stocker, préserver et gérer une bibliothèque de l'internet, en archivant régulièrement la totalité du web. En 2004, les archives du web représentent plus de 300 téraoctets (To) de données, avec une croissance de 12 téraoctets par mois. Le nombre de pages web visibles avec la Wayback Machine est de 65 milliards en décembre 2006 et 85 milliards en mai 2007.
Février 2002 - Mise en ligne de Bookshare.org, grande bibliothèque numérique pour personnes aveugles et malvoyantes
En février 2002 est mis en ligne Bookshare.org, grande bibliothèque numérique à l'intention des personnes aveugles et malvoyantes résidant aux Etats-Unis. Bookshare.org est créé et financé par Benetech, une société de la Silicon Valley ayant pour objectif de mettre la technologie au service de tous les êtres humains, et pas seulement de quelques-uns. Scannés par une centaine de volontaires, 7 620 titres sont disponibles en deux formats : le format BRF (braille format), destiné à une lecture sur plage braille ou une impression sur imprimante braille, et le format DAISY (digital accessible information system), qui permet l'écoute du texte sur synthèse vocale. Le nombre de livres et de volontaires augmente rapidement. En février 2003, un an après l'ouverture, Bookshare.org compte 11.500 titres et 200 volontaires. Fin 2006, la bibliothèque propose 30.000 livres et 150 quotidiens à 5.000 adhérents. En mai 2007, Bookshare.org lance un service international.
Janvier 2003 - Débuts des activités d'édition de la Public Library of Science
(PLoS) pour lancer des périodiques scientifiques et médicaux en ligne
En janvier 2003, la Public Library of Science (PLoS) - fondée en octobre 2000* - devient un éditeur non commercial de périodiques scientifiques et médicaux en ligne. Une équipe éditoriale de haut niveau est constituée pour lancer des périodiques de qualité (PLoS Biology en octobre 2003 puis PLoS Medicine en 2004) selon un nouveau modèle d'édition en ligne basé sur la diffusion libre du savoir. Trois nouveaux titres voient le jour en 2005: PLoS Genetics, PLoS Computational Biology et PLoS Pathogens. PLoS Clinical Trials est lancé en mai 2006. PLoS Neglected Tropical Diseases est lancé en automne 2007. Librement accessibles en ligne, tous les articles peuvent être diffusés et réutilisés ailleurs, y compris pour des traductions, selon les termes de la licence Creative Commons, la seule contrainte étant la mention des auteurs et de la source.
Septembre 2003 - Mise en ligne gratuite du MIT OpenCourseWare, un ensemble de cours du Massachusetts Institute of Technology
Le MIT (Massachusetts Institute of Technology) décide de publier ses cours en ligne, avec accès libre et gratuit, pour les mettre à la disposition de tous. Disponible en septembre 2002, la version pilote du MIT OpenCourseWare (MIT OCW) offre en accès libre le matériel d'enseignement de 32 cours représentatifs des cinq départements du MIT: textes des conférences, travaux pratiques, exercices et corrigés, bibliographies, documents audio et vidéo, etc. Le lancement officiel du site a lieu en septembre 2003, avec accès à quelques centaines de cours. En mai 2006, 1 400 cours émanent de 34 départements appartenant aux cinq écoles du MIT. La totalité des cours dispensés par le MIT, soit 1.800 cours, est disponible en 2008. En décembre 2005 est lancé en parallèle l'OpenCourseWare Consortium (OCW Consortium), qui propose les cours en accès libre de nombreuses universités.
Janvier 2004 - Lancement du Projet Gutenberg Europe et de Distributed
Proofreaders Europe
En janvier 2004, le Projet Rastko, basé à Belgrade (Serbie), lance le Projet Gutenberg Europe et Distributed Proofreaders Europe (DP Europe), calqué sur Distributed Proofreaders (DP), qui opère aux Etats-Unis depuis octobre 2000*. Le concept est de permettre la correction partagée en fragmentant les livres en pages pouvant être relues par des correcteurs différents. La présence de plusieurs langues reflète la diversité linguistique prévalant en Europe. En juin 2005, 100 livres sont numérisés. En décembre 2006, ce nombre s'élève à 400. Quand il aura atteint sa vitesse de croisière, le Projet Gutenberg Europe devrait se répartir en plusieurs bibliothèques numériques nationales et/ou linguistiques, avec respect du copyright en vigueur dans le pays donné.
Octobre 2004 - Lancement de Google Print, le projet de bibliothèque numérique mondiale de Google
En octobre 2004, Google lance la première partie de son programme Google Print, établi en partenariat avec les éditeurs pour consulter à l'écran des extraits de livres, puis commander les livres auprès d'une librairie en ligne. La version bêta de Google Print est mise en ligne en mai 2005. En décembre 2004, Google lance la deuxième partie de son programme Google Print, cette fois à destination des bibliothèques, le but étant de numériser 15 millions de livres, à commencer par ceux des bibliothèques de plusieurs universités (Harvard, Stanford, Michigan, Oxford) et de la ville de New York. En août 2005, le programme est suspendu pour cause de conflit avec les éditeurs de livres sous droits. Il reprend en août 2006* sous le nom de Google Book Search (Google Livres).
Octobre 2005 - Lancement de l'Open Content Alliance (OCA), projet public et coopératif de bibliothèque numérique mondiale
Lancé en octobre 2005 à l'instigation de l'Internet Archive, l'Open Content Alliance (OCA) est un projet public et coopératif de bibliothèque numérique mondiale. L'OCA regroupe de nombreux partenaires: bibliothèques, universités, organisations gouvernementales, associations à but non lucratif, organismes culturels, sociétés informatiques. Les premiers participants sont les bibliothèques des Universités de Californie et de Toronto, l'European Archive, les Archives nationales du Royaume-Uni, O'Reilly Media et Prelinger Archives. L'OCA souhaite s'inspirer de l'initiative de Google en évitant ses travers, à savoir la numérisation des livres sous droits sans l'accord préalable des éditeurs, tout comme la consultation et le téléchargement impossibles sur un autre moteur de recherche.
Janvier 2006 - Lancement de la Bibliothèque numérique pour le Handicap (BnH) à destination de toutes les personnes en situation de handicap
En janvier 2006 est lancée la Bibliothèque numérique pour le Handicap (BnH) à l'initiative de la ville de Boulogne-Billancourt (région parisienne) et sous l'égide d'Alain Patez, bibliothécaire numérique chargé de mission pour la BnH. «Projet à vocation nationale, la BnH repose sur la conviction que l'édition numérique est le moyen d'accès à l'information et à la culture le mieux adapté aux personnes en situation de handicap. L'objectif de la BnH est de permettre à toute personne confrontée à un handicap de télécharger à distance des livres numériques. Ces documents sont commercialisés dans le public, donc non libres de droit de reproduction.» (Alain Patez) La plateforme technique est entièrement gérée par la société Numilog. En septembre 2007, l'accès de la BnH est généralisé à toute personne en situation de handicap.
Août 2006 - Lancement de Google Book Search (Google Livres) en remplacement de
Google Print
En août 2006, Google lance Google Book Search (Google Livres) pour remplacer le très controversé Google Print, lancé en octobre 2004* et suspendu en août 2005 pour cause de conflit avec les éditeurs de livres sous droits. Google souhaite repartir sur de nouvelles bases. La numérisation des fonds de grandes bibliothèques se poursuit, tout comme le développement de partenariats avec les éditeurs qui le souhaitent. Le conflit avec les éditeurs se poursuit lui aussi, puisque Google continue de numériser des livres sous droits sans l'autorisation préalable des éditeurs en invoquant le droit de citation pour présenter des extraits sur le web. L'Authors Guild et l'Association of American Publishers (AAP) invoquent pour leur part le non respect de la législation relative au copyright pour attaquer Google en justice.
Décembre 2006 - Lancement de Live Search Books, le projet de bibliothèque numérique mondiale de Microsoft
En décembre 2006 est lancée la version bêta de Live Search Books, qui permet de faire des recherches par mots-clés dans les livres du domaine public scannés par Microsoft. Les premiers fonds scannés sont la British Library et les bibliothèques des Universités de Californie et de Toronto, suivies en janvier 2007 par la New York Public Library et par la bibliothèque de l'Université Cornell. Microsoft compte ajouter des livres sous droits avec l'accord préalable des éditeurs. Microsoft participe aussi à l'Open Content Alliance (OCA), une initiative lancée en octobre 2005* par l'Internet Archive pour créer un répertoire libre et multilingue de livres numérisés et documents multimédias.
Décembre 2006 - Développement d'une bibliothèque numérique planétaire dans la
Text Archive, sous l'égide de l'Internet Archive
Suite à la création de l'Open Content Alliance (OCA) en octobre 2005*, l'Internet Archive franchit la barre des 100.000 livres numérisés en décembre 2006, avec un rythme de 12.000 nouveaux livres par mois. Ces livres sont disponibles dans la collection Text Archive de l'Internet Archive. A la même date, l'Internet Archive reçoit une subvention importante de la Sloan Foundation pour numériser cinq collections historiques appartenant à des établissements réputés (Metropolitan Museum of Art, Boston Public Library, Getty Research Institute, John Hopkins University, Université de Californie à Berkeley). La barre des 200.000 livres numérisés est franchie en mai 2007.
Mars 2007 - Lancement de Citizendium, grande encyclopédie collaborative en ligne
Citizendium (qui se veut l'abrégé de: The Citizens' Compendium) est une grande encyclopédie collaborative en ligne conçue en novembre 2006 et lancée en mars 2007 (en version bêta) par Larry Sanger, co-fondateur de Wikipedia en janvier 2001*, mais qui quitte ensuite l'équipe de Wikipedia suite à des problèmes de qualité de contenu. Citizendium est basé sur le même modèle que Wikipedia (collaborative et gratuite) tout en évitant ses travers (vandalisme et manque de rigueur). Les auteurs signent les articles de leur vrai nom et les articles sont édités par des experts («editors») titulaires d'une licence universitaire et âgés d'au moins 25 ans. De plus, des «constables» sont chargés de la bonne marche du projet et du respect du règlement. Le jour de son lancement (25 mars 2007), Citizendium comprend 820 auteurs et 180 experts.
Mai 2007 - Lancement de l'Encyclopedia of Life, grande encyclopédie collaborative des sciences de la vie
Projet débuté en mai 2007, l'Encyclopedia of Life est une vaste encyclopédie collaborative en ligne rassemblant les connaissances existantes sur toutes les espèces animales et végétales connues (1,8 million), y compris les espèces en voie d'extinction, avec l'ajout de nouvelles espèces au fur et à mesure de leur identification (il en existerait de 8 à 10 millions). Ce projet collaboratif est mené par plusieurs grandes institutions (Field Museum of Natural History, Harvard University, Marine Biological Laboratory, Missouri Botanical Garden, Smithsonian Institution, Biodiversity Heritage Library). Le financement initial est assuré par la MacArthur Foundation et la Sloan Foundation. La réalisation des pages web débute courant 2007. L'encyclopédie fait ses débuts à la mi-2008. Opérationnelle d'ici trois à cinq ans, elle devrait être complète - c'est-à-dire à jour - dans dix ans.
14.2. En résumé
1971 (juillet): Genèse du Projet Gutenberg, première bibliothèque numérique au monde.
1991 (janvier): Création de l'Unicode, système d'encodage permettant de traiter toutes les langues de la planète.
1993 (janvier): Lancement de The Online Books Page, un répertoire d'oeuvres anglophones en accès libre.
1993 (avril): Création d'ABU : la bibliothèque universelle, première bibliothèque numérique francophone.
1993 (juin): Lancement par Adobe de l'Acrobat Reader, premier logiciel de lecture.
1994 (novembre): Naissance des Chroniques de Cybérie, première lettre d'information électronique francophone.
1995 (février): Lancement du site web du Monde diplomatique, premier site d'un périodique imprimé français.
1995 (avril): Création d'Editel, site pionnier de l'édition littéraire francophone.
1995 (juillet): Création de la librairie en ligne Amazon.com, futur géant du commerce électronique.
1996 (février): Lancement de la lettre d'information électronique LMB Actu (Le Micro Bulletin Actu).
1996 (avril): Fondation de l'Internet Archive pour archiver la totalité du web tous les deux mois.
1996 (mai): Création du DAISY Consortium pour définir un standard de livre audionumérique.
1996 (juin): Lancement de Zazieweb, site indépendant suivant l'actualité du livre.
1996 (août): Création de CyLibris, pionnier francophone de l'édition électronique commerciale.
1996 (octobre): Genèse d'@folio, défini comme un baladeur de texte ou un support de lecture nomade.
1997 (avril): Création de la société E Ink pour développer une technologie d'encre électronique.
1997 (octobre): Mise en ligne de Gallica, bibliothèque numérique de la Bibliothèque nationale de France.
1998 (mai): Lancement des éditions 00h00, premier éditeur au monde à vendre des livres numériques.
1999 (septembre): Création du format Open eBook (OeB) pour offrir un standard de livre numérique.
1999 (décembre): Mise en ligne de WebEncyclo, première encyclopédie francophone en accès libre.
1999 (décembre): Mise en ligne de Britannica.com, première encyclopédie anglophone en accès libre.
2000 (janvier): Lancement du Million Book Project dans le but de numériser un million de livres.
2000 (mars): Lancement du concept du lyber par les éditions de l'Eclat.
2000 (mars): Création de la société Mobipocket, spécialisée dans les livres numériques pour assistant personnel.
2000 (mai): Création du Net des études françaises (NEF), réseau francophone de diffusion libre du savoir.
2000 (juillet): Auto-publication en ligne d'un roman de Stephen King, premier auteur de best-sellers à tenter l'expérience.
2000 (août): Lancement du Microsoft Reader, logiciel de lecture pour plateforme Windows.
2000 (septembre): Rachat des éditions 00h00 par Gemstar-TV Guide International.
2000 (septembre): Mise en ligne du Grand dictionnaire terminologique (GDT) par l'Office québécois de la langue française (OQLF).
2000 (septembre): Lancement de Numilog, première librairie francophone à vendre exclusivement des livres numériques.
2000 (septembre): Lancement du portail Handicapzéro, destiné aux personnes francophones ayant un problème visuel.
2000 (octobre): Fondation de la Public Library of Science (PLoS) dans le but de créer un service gratuit d'archives en ligne.
2000 (octobre): Création de Distributed Proofreaders pour aider à la numérisation des livres du domaine public.
2000 (octobre): Lancement des tablettes électroniques de lecture Gemstar eBook.
2000 (novembre): Mise en ligne de la version numérisée de la Bible de Gutenberg par la British Library.
2000 (décembre): Création de la société Gyricon Media pour développer un modèle de papier électronique.
2001 (janvier): Création de Wikipedia, grande encyclopédie collaborative en ligne.
2001 (janvier): Lancement par la société Cytale du Cybook, première tablette électronique de lecture européenne.
2001 (janvier): Lancement par Adobe de l'Acrobat eBook Reader, logiciel de lecture pour livres numériques sous droits.
2001 (mars): Lancement du Palm Reader, logiciel de lecture destiné au Palm Pilot.
2001 (octobre): Lancement par l'Internet Archive de la Wayback Machine, qui permet de voir l'historique d'un site web à différentes dates.
2002 (février): Mise en ligne de Bookshare.org, grande bibliothèque numérique pour personnes aveugles et malvoyantes.
2003 (janvier): Débuts des activités d'édition de la Public Library of Science (PLoS) pour lancer des périodiques scientifiques et médicaux en ligne.
2003 (septembre): Mise en ligne gratuite du MIT OpenCourseWare, une série de cours du Massachusetts Institute of Technology.
2004 (janvier): Lancement du Projet Gutenberg Europe et de Distributed Proofreaders Europe.
2004 (octobre): Lancement de Google Print, le projet de bibliothèque numérique mondiale de Google.
2005 (octobre): Lancement de l'Open Content Alliance (OCA), projet public et coopératif de bibliothèque numérique mondiale.
2006 (janvier): Lancement de la Bibliothèque numérique pour le Handicap (BnH) à destination de toutes les personnes en situation de handicap.
2006 (août): Lancement de Google Book Search (Google Livres) en remplacement de Google Print.
2006 (décembre): Lancement de Live Search Books, le projet de bibliothèque numérique mondiale de Microsoft.
2006 (décembre): Développement d'une bibliothèque numérique planétaire dans la Text Archive, sous l'égide de l'Internet Archive.
2007 (mars): Lancement de Citizendium, grande encyclopédie collaborative en ligne.
2007 (mai): Lancement de l'Encyclopedia of Life, grande encyclopédie collaborative des sciences de la vie.
15. REMERCIEMENTS
Ce livre doit beaucoup à tous les professionnels du livre - et apparentés - ayant accepté de répondre par courriel à mes questions, dans certains pendant plusieurs années depuis 1998. La quasi-totalité des entretiens est publiée en ligne sur le Net des études françaises (www.etudes-francaises.net/entretiens/).
- Nicolas Ancion (Madrid), écrivain et responsable éditorial de Luc Pire électronique, le secteur numérique de l'éditeur belge Luc Pire.
- Alex Andrachmes (Europe), producteur audiovisuel, écrivain et explorateur d'hypertexte.
- Guy Antoine (New Jersey), créateur de Windows on Haiti, site de référence sur la culture haïtienne.
- Silvaine Arabo (Poitou-Charentes), poète et plasticienne, créatrice de la cyber-revue Poésie d'hier et d'aujourd'hui.
- Arlette Attali (Paris), responsable de l'équipe "Recherche et projets internet" à l'Institut national de la langue française (INaLF).
- Marc Autret (région parisienne), rédacteur en chef d'Ecrire&Editer, journaliste et infographiste.
- Isabelle Aveline (Lyon), créatrice de Zazieweb, site consacré à l'actualité littéraire.
- Jean-Pierre Balpe (Paris), directeur du département hypermédias de l'Université Paris 8, chercheur et écrivain.
- Emmanuel Barthe (Paris), documentaliste juridique du cabinet d'avocats
Coutrelis & Associés, et modérateur de la liste de discussion Juriconnexion.
- Robert Beard (Lewisburg, Pennsylvanie), co-fondateur de yourDictionary.com, portail de référence pour les langues.
- Michael Behrens (Bielefeld, Allemagne), responsable du secteur numérique de la
Bibliothèque universitaire de Bielefeld.
- Michel Benoît (Montréal), auteur de romans policiers, utilise l'internet comme outil de recherche, de communication et d'ouverture sur le monde.
- Guy Bertrand (Montréal), directeur scientifique du Centre d'expertise et de veille inforoutes et langues (CEVEIL).
- Olivier Bogros (Lisieux, Normandie), directeur de la Médiathèque municipale et créateur de la Bibliothèque électronique de Lisieux.
- Christian Boitet (Grenoble), directeur du Groupe d'étude pour la traduction automatique (GETA).
- Bernard Boudic (Rennes), responsable éditorial du site internet du quotidien
Ouest-France.
- Bakayoko Bourahima (Abidjan), documentaliste à l'Ecole nationale supérieure de statistique et d'économie appliquée (ENSEA).
- Marie-Aude Bourson (Lyon), créatrice de la Grenouille Bleue et de Gloupsy, sites littéraires destinés aux nouveaux auteurs.
- Lucie de Boutiny (Paris), écrivain papier et pixel, auteur de NON, roman multimédia publié en feuilleton sur le web.
- Anne-Cécile Brandenbourger (Bruxelles), auteur de La malédiction du parasol, hyper-roman publié aux éditions 00h00.
- Alain Bron (Paris), consultant en systèmes d'information et écrivain, met en scène l'internet dans son roman Sanguine sur toile.
- Patrice Cailleaud (Paris), membre fondateur et directeur de la communication de l'association Handicapzéro, qui propose un portail destiné aux personnes aveugles et malvoyantes.
- Tyler Chambers (Boston, Massachusetts), créateur de The Human-Languages Page et de The Internet Dictionary Project.
- Pascal Chartier (Lyon), libraire d'ancien et créateur de Livre-rare-book, site professionnel de livres d'occasion.
- Richard Chotin (Paris), professeur à l'Ecole supérieure des affaires (ESA) de
Lille.
- Alain Clavet (Ottawa), analyste de politiques au Commissariat aux langues officielles du Canada.
- Jean-Pierre Cloutier (Montréal), auteur des Chroniques de Cybérie, chronique hebdomadaire des actualités de l'internet.
- Jacques Coubard (Paris), responsable du site web du quotidien L'Humanité.
- Luc Dall'Armellina (Paris), co-auteur et webmestre d'oVosite, espace d'écritures hypermédias.
- Kushal Dave (Yale), étudiant puis professeur à l'Université de Yale.
- Cynthia Delisle (Montréal), consultante au Centre d'expertise et de veille inforoutes et langues (CEVEIL).
- Catherine Desbuquois (Paris), conservateur en chef des bibliothèques, chargée de mission à la Direction du livre et de la lecture (Ministère de la culture et de la communication), en mission auprès de l'association BrailleNet.
- Emilie Devriendt (Paris), élève professeur à l'Ecole normale supérieure (ENS) de Paris, doctorante à l'Université Paris 4-Sorbonne et responsable du site Translatio.
- Bruno Didier (Paris), webmestre de la médiathèque de l'Institut Pasteur.
- Catherine Domain (Paris), fondatrice de la librairie Ulysse, première librairie de voyage au monde.
- Helen Dry (Michigan), modératrice de The Linguist List.
- Bill Dunlap (Paris & San Francisco), fondateur de Global Reach, société spécialisée dans le marketing international en ligne.
- Pierre-Noël Favennec (Paris & Lannion, Bretagne), expert à la direction scientifique de France Télécom R&D.
- Gérard Fourestier (Nice), créateur de Rubriques à Bac, ensemble de bases de données destinées aux lycéens et aux étudiants.
- Pierre François Gagnon (Montréal), créateur d'Editel, pionnier de l'édition littéraire francophone en ligne.
- Olivier Gainon (Paris), fondateur et gérant de CyLibris, pionnier francophone de l'édition électronique commerciale.
- Jacques Gauchey (San Francisco), journaliste, spécialiste en industrie des technologies de l'information et "facilitator" entre les Etats-Unis et l'Europe.
- Raymond Godefroy (Valognes, Normandie), écrivain-paysan, diffuse son recueil
Fables pour l'an 2000 sur le web avant la parution du recueil imprimé.
- Muriel Goiran (Rhône-Alpes), libraire à la librairie Decitre.
- Marcel Grangier (Berne, Suisse), responsable de la section française des services linguistiques centraux de l'Administration fédérale suisse.
- Barbara Grimes (Hawaii), directrice de publication de l'Ethnologue: Languages of the World, grande encyclopédie des langues.
- Michael Hart (Illinois), fondateur du Projet Gutenberg, première bibliothèque numérique au monde.
- Roberto Hernández Montoya (Caracas), responsable de la bibliothèque numérique du magazine électronique Venezuela Analítica.
- Randy Hobler (Dobbs Ferry, New York), consultant en marketing internet de produits et services de traduction.
- Eduard Hovy (Marina del Rey, Californie), directeur du Natural Language Group de l'USC/ISI (University of Southern California / Information Sciences Institute), et spécialiste de la traduction automatique et du traitement naturel des langues.
- Christiane Jadelot (Nancy), ingénieur d'études à l'Institut national de la langue française (INaLF).
- Gérard Jean-François (Caen), directeur du centre de ressources informatiques de l'Université de Caen.
- Jean-Paul (Paris), webmestre du site hypermédia cotres.net.
- Anne-Bénédicte Joly (Antony, région parisienne), écrivain auto-éditant ses oeuvres et utilisant le web pour les faire connaître.
- Brian King (monde), directeur du WorldWide Language Institute, à l'origine de
NetGlos, un glossaire multilingue de la terminologie de l'internet.
- Geoffrey Kingscott (Londres), co-directeur du magazine en ligne Language
Today.
- Steven Krauwer (Utrecht, Pays-Bas), coordinateur d'ELSNET (European Network of
Excellence in Human Language Technologies).
- Gaëlle Lacaze (Paris), ethnologue et professeur d'écrit électronique dans un institut universitaire professionnalisé.
- Michel Landaret (Strasbourg), responsable du site web des Dernières nouvelles d'Alsace.
- Hélène Larroche (Paris), fondatrice de la librairie Itinéraires, spécialisée dans les voyages.
- Pierre Le Loarer (Grenoble), directeur du centre de documentation de l'Institut d'études politiques de Grenoble et chargé de mission TICE.
- Claire Le Parco (Paris), de la société Webnet, société qui crée le site Poésie française.
- Annie Le Saux (Paris), rédactrice du Bulletin des bibliothèques de France
(BBF).
- Fabrice Lhomme (Bretagne), créateur d'Une Autre Terre, site consacré à la science-fiction.
- Philippe Loubière (Paris), traducteur littéraire et dramatique, et spécialiste de la Roumanie.
- Pierre Magnenat (Lausanne), responsable de la cellule «gestion et prospective» du centre informatique de l'Université de Lausanne.
- Xavier Malbreil (Ariège, Midi-Pyrénées), auteur multimédia, créateur du site www.0m1.com et modérateur de la liste e-critures.
- Alain Marchiset (Paris), libraire d'ancien et président du Syndicat national de la librairie ancienne et moderne (SLAM).
- Maria Victoria Marinetti (Annecy), professeur d'espagnol en entreprise et traductrice.
- Michael Martin (Berkeley, Californie), créateur de Travlang, site consacré aux voyages et aux langues.
- Tim McKenna (Genève), écrivain, s'interroge sur la notion complexe de «vérité» dans un monde en mutation constante.
- Emmanuel Ménard (Paris), directeur des publications de CyLibris, maison d'édition littéraire en ligne.
- Yoshi Mikami (Fujisawa, Japon), créateur du site The Languages of the World by Computers and the Internet, et co-auteur du livre Pour un web multilingue paru chez O'Reilly.
- Jacky Minier (Orléans), créateur de Diamedit, site de promotion d'inédits artistiques et littéraires.
- Jean-Philippe Mouton (Paris), fondateur et gérant de la société d'ingénierie
Isayas.
- John Mark Ockerbloom (Pennsylvanie), fondateur de The Online Books Page, répertoire d'oeuvres anglophones en accès libre sur le web.
- Caoimhín Ó Donnaíle (Ile de Skye, Ecosse), webmestre du principal site d'information en gaélique écossais, avec une section consacrée aux langues européennes minoritaires.
- Jacques Pataillot (Paris), conseiller en management chez Cap Gemini Ernst &
Young.
- Alain Patez (Boulogne-Billancourt, région parisienne), responsable des éditions numériques à la Médiathèque Landowski de Boulogne-Billancourt, et chargé de mission pour la Bibliothèque numérique pour le Handicap (BnH).
- Nicolas Pewny (Annecy), fondateur des éditions du Choucas, spécialisées dans les romans policiers, puis consultant en édition électronique.
- Marie-Joseph Pierre (Argentan, Normandie), enseignante-chercheuse à l'Ecole pratique des hautes études (EPHE, section Sciences religieuses, Paris-Sorbonne).
- Hervé Ponsot (Toulouse), webmestre des éditions du Cerf, spécialisées en théologie.
- Olivier Pujol (Paris), PDG de la société Cytale et promoteur du Cybook, première tablette électronique de lecture européenne.
- Anissa Rachef (Londres), bibliothécaire et professeur de français langue étrangère à l'Institut français de Londres.
- Peter Raggett (Paris), directeur du centre de documentation et d'information
(CDI) de l'Organisation de coopération et de développement économiques (OCDE).
- Patrick Rebollar (Tokyo), professeur de littérature française et d'informatique dans des universités japonaises, créateur d'un site web de recherches et activités littéraires, et modérateur de la liste de diffusion LITOR (littérature et ordinateur).
- Philippe Renaut (Paris), gérant des éditions du Presse-Temps, et rédacteur en chef d'Edition-actu, la lettre d'information électronique de CyLibris.
- Jean-Baptiste Rey (Aquitaine), webmestre et rédacteur de Biblio On Line, site web destiné aux bibliothèques.
- Philippe Rivière (Paris), rédacteur au Monde diplomatique et responsable du site web.
- Blaise Rosnay (Paris), webmestre du site du Club des Poètes.
- Bruno de Sa Moreira (Paris), co-fondateur des éditions 00h00, premier éditeur au monde à vendre des livres numériques.
- Pierre Schweitzer (Strasbourg), architecte designer, inventeur du projet @folio, une tablette numérique de lecture nomade, et de Mot@mot, un logiciel de remise en page de fac-similés numériques.
- Henri Slettenhaar (Genève), professeur en technologies de la communication à la Webster University et directeur exécutif de la Silicon Valley Association (SVA) suisse.
- Murray Suid (Palo Alto, Californie), écrivain spécialisé dans les logiciels éducatifs en ligne et le matériel pédagogique multimédia.
- June Thompson (Hull, Royaume-Uni), directeur du C&IT (Communications &
Information Technology) Centre, basé à l'Université de Hull.
- Zina Tucsnak (Nancy), ingénieur d'études en informatique à l'ATILF (Analyse et traitement informatique de la langue française).
- François Vadrot (Paris), fondateur et PDG de la société de cyberpresse FTPress
(French Touch Press).
- Christian Vandendorpe (Ottawa), professeur à l'Université d'Ottawa et spécialiste des théories de la lecture.
- Robert Ware (Colorado), créateur de Onelook Dictionaries, un moteur de recherche pour les dictionnaires.
- Russon Wooldridge (Toronto), professeur au département d'études françaises de l'Université de Toronto, créateur de ressources littéraires librement accessibles en ligne, et fondateur du Net des études françaises (NEF).
- Denis Zwirn (Paris), président de la société Numilog, fondateur d'une grande librairie numérique francophone, spécialiste de la distribution de livres numériques, et prestataire de services auprès d'éditeurs et de bibliothèques.
16. COMMENTAIRES
Ce travail de recherche a vu le jour dès 1995. Il s'est d'abord intitulé De l'imprimé à Internet, avec une première synthèse disponible en 1999 aux éditions 00h00 (version PDF et version imprimée) puis en 2001 sur le Net des études françaises (version web). Il s'est poursuivi au fil des ans avec deux nouveaux titres: Entretiens (1998-2001), qui regroupe une centaine d'entretiens avec des professionnels du livre et apparentés, et Le Livre 010101 (1993-2003), un ouvrage de synthèse en deux volumes. L'ensemble est publié en ligne sur le Net des études françaises (NEF), basé à l'Université de Toronto (Canada), tout comme nombre d'enquêtes et d'articles connexes. A la demande des adeptes du format PDF, Le Livre 010101 est également distribué par la librairie numérique Numilog. Quatre ans plus tard suit un nouveau livre de synthèse, Les mutations du livre à l'heure de l'internet, disponible en septembre 2007 au format PDF sur le NEF et chez Numilog.
Marc Autret, journaliste et infographiste: «C'est tout naturellement chez Numilog que la journaliste Marie Lebert a mis en circulation sa remarquable enquête: Le Livre 010101 (version 2002, 158 pp., 1 Mo, ndlr). En quelque 158 pages, elle présente d'innombrables acteurs de l'édition numérique, leur démarche, leurs problèmes, leurs espoirs. Une somme d'entretiens et d'analyses qui, par sa densité et sa qualité, tient de la prouesse. A découvrir.» (Ecrire & Editer nº 41, décembre-janvier 2003)
Anne-Bénédicte Joly, écrivain, qui auto-édite ses oeuvres et les promeut sur son site web: «J'ai collaboré à trois reprises avec Marie Lebert dans le cadre de ses travaux de recherche. Non seulement l'expérience s'est parfaitement déroulée grâce au très grand professionnalisme dont Marie Lebert a su faire preuve tout au long de nos travaux (tant durant la phase analyse que durant la phase restitution avant validation), mais aussi elle a accompagné ces démarches d'un soutien et d'une communication de tous les instants. Une fois les travaux effectués et les données rassemblées dans un ouvrage, dont la qualité et la pertinence font aujourd'hui référence (dans le monde de l'édition numérique), Marie Lebert a attaché une grande importance au retour d'information auprès des personnes interviewées. Participer dans ces conditions à de tels travaux d'analyse et collaborer de cette manière ont été des étapes particulièrement intéressantes à de nombreux égards.» (février 2005)