L`auteur oulipien est un rat qui construit lui-même le - jean
Transcription
L`auteur oulipien est un rat qui construit lui-même le - jean
« L’auteur oulipien est un rat qui construit lui-même le labyrinthe dont il se propose de sortir. » Raymond Queneau (1903-1976), co-fondateur de l’OuLiPo Signifier – Le traitement des mots et des phrases Si l’écriture numérique produit du sens statistique en tant que séquence de symboles, il n’en demeure pas moins qu’elle retranscrit la parole et fait signe par l’assemblage des mots et des phrases. Tandis que l’ordinateur démontre sa suprématie dans le traitement statistique de l’écrit numérique, la prise en compte de la dimension sémantique questionne d’emblée la capacité de l’ordinateur à faire le lien entre le langage binaire et le langage naturel. Le Traitement Automatique du Langage Naturel (TALN) s’inscrit dans cette problématique. Cette discipline, à la frontière de la linguistique, de l’informatique et de l’intelligence artificielle, a émergé avec l’essor de l’informatique au milieu du XXe siècle. Les débuts des recherches en TALN sont marqués par le célèbre test de Turing (1950), érigeant en critère d’intelligence la capacité pour un programme informatique à imiter (par écrit) la conversation d’un humain de sorte qu’un interlocuteur humain soit incapable de déceler s’il converse en effet avec un ordinateur ou un autre être humain. Les recherches menées en TALN dès les années 1950-1960 investissent tous les compartiments du langage humain (à ce titre, on parle parfois d’« ingénierie linguistique ») : agents conversationnels, traduction 159 automatique, correction orthographique et grammaticale, résumé automatique de texte, génération automatique de textes, recherche d’information et fouille de textes, catégorisation de documents, etc. Les premiers résultats, obtenus en simulation du langage et en traduction automatique, sont prometteurs et laissent penser que les ordinateurs seront capables de reproduire et manipuler le langage humain à court terme. Cela étant, ces résultats sont produits pour des champs lexicaux et des bases de connaissance restreints, et force est de constater aujourd’hui que la recherche en TALN a encore de beaux jours devant elle. S’agissant de reproduire, interpréter et manipuler le langage naturel, l’enjeu du TALN est de produire des ontologies conceptuelles, c’est-àdire d’organiser l’information (structurée par le langage) de sorte qu’elle soit compréhensible par l’ordinateur (structuré par son architecture logique)91. Pour ce faire, la discipline s’appuie sur des méthodes mathématiques – notamment statistiques et probabilistes – adaptées à l’apprentissage automatique et à la fouille de données : en clair, l’ordinateur est sollicité pour opérer des quantités d’analyses sur des bases de données grammaticales et lexicales extrêmement volumineuses, afin de « désambiguïser » les formulations en langage naturel, les interpréter correctement et, in fine, les manipuler pour répondre à des applications données. Du dictionnaire à la base de données La palette des applications concernées par le TALN s’échelonne sur des niveaux de complexité très variés, selon que le langage naturel est appréhendé à l’échelle du mot, de la phrase voire du texte tout entier – par exemple pour corriger l’orthographe d’un mot, traduire une phrase ou résumer un texte. De fait, lorsqu’il est découpé, déstructuré, fragmenté en une succession de mots, le langage naturel est un média que l’ordinateur parvient à apprivoiser aisément. Le raisonnement logique et la capacité à gérer de grandes quantités de données s’accomodent effectivement 91. « [...] la représentation des connaissances est indispensable pour traiter sur ordinateur les objets du monde réel, c’est une correspondance entre le monde extérieur et un système symbolique permettant de raisonner. » (Chaty, 1998) Le texte de Guy Chaty sur le TALN et ses applications en littérature (notamment avec l’OuLiPo et l’Alamo) illustre, à partir de nombreux exemples, les difficultés pour faire comprendre à l’ordinateur les figures du langage (expressions, métonymies, synecdoques, métaphores, etc.) 160 bien des règles de syntaxe et des lexiques qui régissent les mots dans une phrase. Les opérations associées s’affranchissent souvent du contexte sémantique de la phrase et se réduisent simplement à la consultation de dictionnaires92 ou de règles de langage. Les outils de correction fournis avec les traitements de texte entrent dans cette catégorie. Le plus simple d’entre eux – le correcteur orthographique – analyse le texte mot par mot, détecte et corrige éventuellement les fautes d’orthographe et les coquilles : pour cela, l’ordinateur procède à une simple comparaison des mots du texte avec les mots d’un dictionnaire. La correction est automatique ou semi-automatique, selon que l’utilisateur autorise l’ordinateur à appliquer toutes les transformations sans lui demander son avis (lors des corrections à la volée ou sur demande) ou que l’utilisateur demande à l’ordinateur de lui soumettre les mots litigieux et des propositions de correction. En appui du correcteur orthographique, le vérificateur grammatical pointe les erreurs de grammaire (syntaxe, accords, ordre des mots). En ce sens, cet outil opère à l’échelle de la phrase, avec toutes les difficultés que cela représente en termes d’intelligence artificielle pour analyser la structure de la phrase et identifier la fonction des mots. Malgré leur faible rayon d’action, ces outils de correction n’arrivent pas à arbitrer certaines situations pour lesquelles le contexte est déterminant. Les recheches menées actuellement autour de ces outils se concentrent sur la détection du contexte, notamment pour gérer les homonymies et choisir la bonne orthographe, ou encore pour identifier les liens entre pronoms et noms et accorder correctement verbes et adjectifs. L’efficacité des méthodes de détection s’obtient par apprentissage, à partir de la consultation de corpus se chiffrant en centaines de millions de mots. Il est intéressant de noter à ce titre que l’ordinateur compense son ignorance du langage naturel en surinvestissant le calcul et l’analyse d’un nombre considérable de mots ou d’échantillons de phrase. Ce mode de fonctionnement explique la constante nécessité pour l’utilisateur d’intervenir et de lever les ambiguïtés qui demeurent dans les options proposées par l’ordinateur. Et quand bien même l’ordinateur serait 92. La consultation de dictionnaires – pour vérifier l’orthographe d’un mot, trouver un synonyme ou une traduction dans une langue étrangère – est facilitée par l’outil informatique, car l’ordinateur automatise la recherche et le croisement des informations grâce à l’indexation des mots. En revanche, ces opérations nécessitent un travail de l’utilisateur dans la mesure où celui-ci doit opérer un choix parmi les orthographes, les synonymes ou les traductions en fonction du contexte de la phrase. Cela étant, ce travail est inhérent à son activité d’écriture : il procèderait de même s’il écrivait avec un papier et un stylo et consultait un dictionnaire imprimé. 161 capable d’assister l’écriture en produisant ex nihilo du langage naturel, il revient toujours à l’utilisateur d’opérer un choix, ne serait-ce que pour accorder l’écriture avec son intention. Cette marge de correction laissée à l’initiative de l’utilisateur structure de fait la grande majorité des outils actuels d’assistance à l’écriture, notamment au sein des navigateurs et des messageries. Le caractère semi-automatique des outils (l’ordinateur propose, l’utilisateur dispose) et la mise en retrait des suggestions de correction – souvent présentées dans des fenêtres contextuelles ou en marge des écrans – permet à l’utilisateur de se concentrer sur sa saisie et, le cas échéant, de consulter les suggestions du correcteur d’un simple coup d’œil. Il arrive cependant que certains dispositifis numériques imposent par défaut la correction automatique à la volée (c’est notamment le cas sur les appareils Apple). Le confort d’écriture procuré par ces outils dissuade souvent les utilisateurs de désactiver leur fonction automatique, malgré les erreurs et aberrations que ceux-ci occasionnent parfois (cf Figure 48). Figure 48 : Les situations décalées que provoquent les correcteurs automatiques alimentent certains sites communautaires, tels que « Dawn you autocorrect » pour la communauté anglophone (source : « Dawn You Auto Correct! » – iPhone Fails and Autocorrect Horror Stories, http://www.correctionautomatique.com – site aujourd’hui fermé) Le caractère semi-automatique des outils d’assistance à l’écriture laisse planer le doute quant à leur finalité : s’agit-il d’outils de correction ou bien d’outils de suggestion ? En soumettant des choix à l’utilisateur, l’ordinateur canalise d’une certaine façon l’écriture que celui-ci produit à l’écran. Si ce procédé est explicite dans certaines interfaces93, l’ouverture des choix proposés dans d’autres interfaces reste ambigu. Le terme de 93. c’est par exemple le cas avec les bornes d’achat de billets de train, évoquées en bas de page 88 : ce type d’interface opère un pré-traitement en bloquant certaines saisies afin d’éviter à l’utilisateur de formuler des requêtes sans objet 162 Figure 49 : Exemple de saisie automatique sur Google. Le moteur suggère des termes pour compléter la requête « prix réduit ». Rien ne permet de savoir dans quelle mesure ces suggestions sont sélectionnées compte tenu de leur popularité, du lieu géographique depuis lequel la requête est envoyée ou de contrats commerciaux (requête effectuée à Paris le 11 mai 2013). Figure 50 : De la même manière qu’un utilisateur peut enrichir le dictionnaire à partir duquel le traitement de texte opère les corrections (semi-)automatiques d’un texte, Google utilise les requêtes des internautes pour enrichir sa base de données pour la saisie semi-automatique. Ainsi, lorsque l’on tape une requête dans la barre de recherche, le moteur affiche automatiquement des requêtes « populaires » selon un algorithme gardé secret. Le blog « Comment devenir un ninja gratuitement » en propose un florilège surprenant (source : « Comment devenir un ninja gratuitement – Anthologie de recherches Internet authentiquement tapées », extrait du billet du 16 décembre 2011). 163 « saisie semi-automatique » que Google emploie pour désigner son outil d’assistance à la saisie de requêtes est éloquent : les éclaircissements apportés en marge par Google94 ne permettent effectivement pas de savoir dans quelle mesure les paramètres de traitement sont censés faciliter la saisie, corriger l’orthographe, anticiper l’intention de l’utilisateur, voire rediriger son attention (cf Figure 49 et Figure 50). Avec les outils de traitement à la volée, le mot, la formule et la requête se confrontent à l’opacité des algorithmes exécutés en arrière-plan par l’ordinateur. En pilotant l’écriture par des algorithmes et en la canalisant dans des bases de données préétablies, l’ordinateur assume en partie le travail d’écriture numérique. Inversement, l’ordinateur offre un environnement de calcul que l’utilisateur peut prendre à son compte pour opérer lui-même des traitements sur les mots et extraire des connaissances. S’appuyer sur la forme et la nature des mots permet ainsi de coder des outils de fouille de textes95 particulièrement utiles dans le domaine de la lexicologie. Cette « science des mots », pour reprendre l’expression de Ferdinand de Saussure96, s’intéresse à l’étude des lexiques utilisés dans la langue. Confiés à la puissance de calcul des ordinateurs, les textes peuvent être analysés de manière statistique et révéler des informations intéressantes quant à l’emploi des mots et à leur flucuations d’un domaine à un autre, d’un auteur à un autre ou à travers les époques97. La description des techniques associées de lexicométrie 94. Selon les termes officiels de Google, la saisie automatique permet d’alléger la saisie, corriger l’orthographe, réitérer d’anciennes recherches (mémorisées par le moteur lorsque les requêtes sont effectuées avec un compte d’utilisateur) ou encore découvrir de nouvelles informations – voir : http://support.google.com/websearch/bin/answer.py?hl=fr&answer=106230. En pratique, la « saisie semi-automatique » ne se réduit pas à une question de saisie (qu’il faudrait faciliter ou corriger à la volée), mais fait se rencontrer des mots, accompagnés de leur sens. Google a été récemment condamné au Japon pour une saisie semi-automatique embarrassante, associant automatiquement le patronyme d’un homme au nom d’un groupe de malfaiteurs condamné pour des viols en série (source : dépêche AFP du 16 avril 2013). Pour plus d’informations sur la question de la l’économie de la langue, voir la section « Cotation et marché linguistique de l’écriture » en page 316. 95. Ici aussi, le site dCode fournit de très nombreux outils que l’internaute peut expérimenter en ligne : ces outils vont des simples solveurs pour les jeux de lettres (mots-croisés, Boggle, anagrammes, etc.) aux outils avancés de recherche d’expressions régulières (http://www.dcode.fr/ recherche-de-mots.html) et d’expressions rationnelles (http://www.dcode.fr/regexp-expressionsrationnelles.html) consistant, entre autre, à chercher des mots en fonction de la position de certaines lettres ou en fonction de leur formatage (par exemple une date, une adresse mail, une balise HTML, etc.) 96. de Saussure Ferdinand, 1916. Cours de linguistique générale. Édition originale : 1916 (posthume), édition 1979 : Payot, Paris 97. De fait, la question de savoir « comment on parle » à une époque ou dans un contexte donné est indissociable des sujets débattus et des mots utilisés. 164 dépasse le cadre de ce travail. À titre d’illustration, la Figure 51 présente le travail d’Étienne Brunet sur la proximité lexicale des œuvres de Molière, Corneille et Racine (ce travail questionne notamment la thèse selon laquelle certaines pièces de Molière auraient été écrites par Corneille). En dressant les listes de lemmes98 utilisés dans chacune des pièces et en comparant ces listes deux à deux, l’ordinateur permet de mesurer des distances entre les œuvres et d’apprécier les ressemblances lexicales entre les auteurs et leurs productions (Brunet, 2004). Figure 51 : Analyse arborée de la distance lexicale mesurée parmi les œuvres de Molière, Corneille et Racine. Le traitement statistique opéré par ordinateur sur les milliers de lemmes de plus de soixante-dix œuvres permet de représenter, sous forme arborescente, les ressemblances entre les œuvres et d’identifier les proximités lexicales des trois auteurs (Brunet, 2004) 98. un lemme est une unité sémantique qui, pour faire simple, fait l’objet d’une entrée dans le dictionnaire : un nom commun au singulier, l’infinitif d’un verbe, un adjectif au masculin singulier, etc. 165 Ce type de travail démontre le potentiel de l’outil informatique dans le traitement de l’écrit et l’analyse des pratiques de langage associées. En s’appuyant sur les dizaines de millions de livres numérisés au titre du projet Google Books (soit 125 millions de livres numérisés au début des années 2010), Google met à la disposition de l’utilisateur l’outil Ngrams, permettant de mesurer la fréquence d’utilisation des mots à travers les époques (cf Figure 52). Figure 52 : Analyse conjointe des mots « électrique » et « électronique » dans l’interface Ngrams de Google. Les courbes traduisent la fréquence d’apparition de chacun de ces mots année par année (la fréquence d’un mot au cours d’une année donnée est mesurée à partir des livres datés de cette année dans le fonds Google Books). Dans cet esprit, une analyse fréquentielle à grande échelle a été menée par une équipe de chercheurs de l’université de Harvard (Lieberman et al., 2007, cités par Yong, 2010 et de La Porte, 2013)99. La richesse du corpus constitué par Google Books fournit une matière très riche pour procéder à à une étude diachronique des changements de langue, de la notoriété – 99. voir aussi (Michel et al., 2011) et le site de cette équipe de chercheurs à l’adresse : http:// www.culturomics.org 166 ou au contraire de la censure – dont certains mots font l’objet et, en un sens, de la culture humaine100. D’une certaine manière, ce type d’étude rejoint le travail de Golan Levin (2002) sur la fréquence d’apparition des nombres sur la toile (cf page 156) : le traitement statistique fait émerger des tendances qui, ici associées au contenu sémantique des mots, raconte la manière dont on écrit, et finalement dont on parle101. Cela étant, l’analyse fréquentielle des corpus reste limitée par les données utilisées et par leur mise en œuvre statistique. Outre le fait que le corpus n’est pas forcément représentatif de la culture102, les auteurs de cette recherche pointent le fait que l’analyse fréquentielle décontextualise le mot : elle ne prend effectivement pas en compte la manière dont le mot est utilisé dans la phrase – seule son occurrence est relevée. Cette limite est révélatrice du fossé qu’il existe entre le traitement du mot et celui de la phrase. De fait, la phrase reste une structure grammaticale difficile à décortiquer. Les applications associées de TALN, telles que la traduction automatique ou le résumé automatique (sans parler des agents conversationnels), ne permettent pas encore de produire des textes avec autant de pertinence et de nuances qu’un être humain103. À défaut de supplanter l’homme, l’ordinateur met à disposition des outils qui répondent néanmoins à des usages circonscrits. Par exemple, dans l’environnement web, les outils de traduction automatique 100. En référence à la génomique – science dédiée au décodage du génome humain – l’équipe de recherche a donné le nom de « culturomique » à ce champ d’étude. 101. Les résultats de cette étude, circonscrite à la langue en anglaise, mettent en évidence des changements notables. Entre autre : – la langue anglaise s’enrichit : le nombre de mots a presque doublé en un siècle ; – la grammaire évolue : 16% des verbes sont devenus réguliers en deux siècles ; – les années sont peu mentionnées dans les livres avant leur survenue, puis sont différemment citées dans la durée lorsqu’elles entrent dans le passé ; – la durée de la notoriété diminue : une personne célèbre l’est plus aujourd’hui, mais moins longtemps ; – certains mots ont des fréquences d’occurrence très variables en fonction des époques (par exemple : les champs lexicaux de la politique, de l’alimentation, des sciences, etc.) 102. Même si le corpus tend à l’exhaustivité, les productions imprimées des siècles passées sont limitées à un petit nombre d’auteurs. Aussi, pour être rigoureux, faudrait-il prendre en compte les productions manuscrites sous toutes ses formes. 103. Le traitement de la phrase – et plus généralement du texte – se heurte notamment aux ambiguïtés lexicales dont un simple dictionnaire ne peut venir à bout (polysémie, homonymie), aux difficultés grammaticales de la langue (notamment à l’identification des pronoms) et, bien sûr, à l’interprétation du contexte. Dans le cas du résumé automatique, la difficulté réside notamment dans le discernement des assertions, des exemples et des opinions. Dans le cas de la traduction automatique, ces problèmes sont doublés car l’ordinateur doit gérer simultanément deux langues. 167 « dégrossissent » le sens des textes rédigés dans des langues inconnues et les outils de résumé automatique opèrent, dans une certaine mesure, un premier tri des informations. Actuellement, le traitement du langage à l’échelle du texte ou de la phrase est efficace lorsque les structures grammaticales restent bien maîtrisées. La méthode de text-spinning en est une bonne illustration : s’agissant de diffuser le plus largement possible un texte sur la toile tout en évitant les redondances (celles-ci sont souvent ignorées par les moteurs de recherche104), le text-spinning consiste à générer semi-automatiquement des variations d’un même texte en remplaçant ponctuellement certains mots par des synonymes. Pour cela, l’internaute rédige son texte en utilisant des balises qui font apparaître la structure des phrases et en isolant des mots pour lesquels il fournit des listes de synonymes105. Cette structure est alors interprétée par un code, lequel opère arbitrairement des choix parmi les listes de synonymes pour produire une nouvelle occurrence du texte (cf Figure 53). Figure 53 : La syntaxe du spinning fonctionne par imbrications. Dans cet exemple, les trois alternatives codées entre accolades produisent six occurrences approchantes d’une même phrase (d’après le site b1n.sp1n, Content Spinning : Qu’est ce qu’un spin ? Définition et algorithmie. http://b1n.sp1n.me/seo/content-spinning-est-spin-definitionalgorithmie.195.html) 104. Google met cependant en œuvre des algorithmes pour détecter les contenus créés par text spinning et les déprécier dans ses résultats de recherche : « Tout contenu proposé sur un site web doit être avant tout être créé pour les utilisateurs et non pour les moteurs de recherche. Le "content spinning" n’offre rien de nouveau aux internautes (si ce n’est un contenu déjà existant, rendu illisible) et est clairement destiné aux moteurs de recherche plutôt qu’aux utilisateurs. Par conséquent, des actions peuvent être prises sur les sites qui proposent ce genre de contenus et de pratiques. Il en va de même pour tout contenu réécrit, traduit automatiquement, ou modifié de façon à vouloir le faire apparaître comme unique au robot Googlebot. » (source : Andrieu Olivier, 2011. Google et le Content Spinning (Questions/réponses avec Google #13). Site Internet Abondance, billet du 3 juin 2011. http://www.abondance.com/actualites/20110603-8966-google-et-lecontent-spinning-questionsreponses-avec-google-13.html) 105. Cette syntaxe est codifiée par un système de balises et de séparateurs que de petits outils en ligne permettent de manipuler facilement – voir par exemple EffiSpin, Uspin ou Content Spinner. 168 Cette façon d’envisager l’écriture s’appuie sur les possibilités de calcul de l’ordinateur pour valoriser une forme d’efficacité du texte et de son contenu au détriment de l’expression elle-même. Cette notion d’efficacité peut répondre à différentes motivations. Le text-spinning valorise ainsi la volonté de contourner les algorithmes des moteurs de recherche pour augmenter la visibilité d’un contenu sur la toile. Dans un autre registre, les possibilités combinatoires de l’ordinateur peuvent servir la narration et introduire un paramétrage du texte par le jeu des substitutions106. Dans ce type d’applications, la question n’est pas tant de produire du langage naturel que de s’appuyer sur la puissance de calcul de l’ordinateur pour explorer une forme programmatique de l’écriture. Les moteurs de l’écriture La frontière entre les outils d’assistance à l’écriture et l’écriture ellemême est ténue. En dehors des usages qui invoquent les algorithmes pour résoudre des problèmes ponctuels d’écriture, l’ordinateur offre un environnement programmable dans lequel l’algorithme est lui-même source de création. En marge des travaux réalisés en informatique et en intelligence artificielle pour améliorer le traitement automatique du langage naturel, le code offre une plastique à l’écriture que les écrivains, les artistes et désormais les internautes s’emparent aujourd’hui pour explorer les nouvelles dimensions de l’écriture. Avant l’apparition et la diffusion de l’outil informatique, les avantgardes littéraires et artistiques expérimentent « manuellement » cette plasticité à travers des textes dont les structures combinatoires semblent inviter tout naturellement à une adaptation informatique107. En France, ce mouvement est porté par l’OuLiPo – « Ouvroir de Littérature Potentielle » : ce collectif d’auteurs et de mathématiciens, créé au début des années 1960 par Raymond Queneau et François Le Lionnais, expérimente la « littérature potentielle », c’est-à-dire les structures 106. Cavazza (2010) imagine ainsi la possibilité de « nettoyer » un texte des mots qui pourraient heurter un lectorat sensible, de changer le point de vue narratif du texte en « basculant » la personne à laquelle est racontée l’histoire (par exemple basculer d’une narration à la 1e personne vers une narration à la 3e personne), ou encore de paramétrer les noms propres (personnages, lieux, etc.) en fonction de l’endroit où le lecteur souhaite localiser l’intrigue. 107. Magné (2000) qualifie de « littérature préinformatique » l’ensemble de ces textes pour la période antérieure à l’existence et à l’utilisation des ordinateurs. 169 L’OuLiPo et l’écriture sous contrainte En plus de cinquante ans d’activités, les contraintes explorées par les OuLiPiens se comptent par dizaines, dont voici quelques exemples. Le lipogramme Il s’agit d’écrire un texte en s’interdisant l’emploi d’une ou de plusieurs lettres de l’alphabet. Le lipogramme le plus célèbre est certainement La Disparition de Georges Perec (1969), écrit sans la lettre E. Anton Voyl n’arrivait pas à dormir. Il alluma. Son Jaz marquait minuit vingt. Il poussa un profond soupir, s’assit dans son lit, s’appuyant sur son polochon. Il prit un roman, il l’ouvrit, il lut ; mais il n’y saisissait qu’un imbroglio confus, il butait à tout instant sur un mot dont il ignorait la signification. Il abandonna son roman sur son lit. Il alla à son lavabo ; il mouilla un gant qu’il passa sur son front, sur son cou. Son pouls battait trop fort. Il avait chaud. Il ouvrit son vasistas, scruta la nuit. Il faisait doux. Un bruit indistinct montait du faubourg. Un carillon, plus lourd qu’un glas, plus sourd qu’un tocsin, plus profond qu’un bourdon, non loin, sonna trois coups. Du canal Saint-Martin, un clapotis plaintif signalait un chaland qui passait. Sur l’abattant du vasistas, un animal au thorax indigo, à l’aiguillon safran, ni un cafard, ni un charançon, mais plutôt un artison, s’avançait, traînant un brin d’alfa. Il s’approcha, voulant l’aplatir d’un coup vif, mais l’animal prit son vol, disparaissant dans la nuit avant qu’il ait pu l’assaillir. Figure 54 : Extrait de La Disparition, Georges Perec (1969) 170 Le monovocalisme À l’inverse, le monovocalisme consiste à écrire un texte en bannissant toutes les voyelles sauf une. Exemples de monovocalismes : What a man! de Georges Perec (1981), Ce fêlé de mec d’Olivier Salon (2007) ou encore Oh ! L’ostrogoth de Jacques Jouet (1993). C’est l’été. En béret, spencer en stretch pervenche, veste de tweed empesée genre Hermès et revers de tweed, bretelles crème, vêtement percé de perles grèges, semelles de crêpe légères, Serge est en Grèce. Serge rêve de belles femmes, de déesses et d’êtres de légende, tels Hélène, Hermès, Égée, Thésée et Enée. Bref, Serge recherche Hélène et les mecs ! Ses errements le mènent en Crète. Près des cendres de Médée, Serge repère Greg, bel éphèbe, genre berbère, et le hèle. Figure 55 : Extrait de Ce fêlé de mec, Olivier Salon (2007) L’anagramme Dans un poème anagrammatique, tous les vers sont composés avec exactement les mêmes lettres (les vers sont les anagrammes les uns des autres). Tristes tropiques – La pensée sauvage pesés ratés – logiques épaves – un trait – visages atlantiques et repos épurés signes soue et presque piste l’avatar qu’ils seront – vagues étapes piratées. Figure 56 : Anagramme de Michelle Grangaud (In OuLiPo (collectif), 2002. Abrégé de Littérature Potentielle. Éditions des Mille et Une Nuits) 171 La méthode S+7 Cette méthode consiste à remplacer chaque substantif (ou chaque verbe, chaque adjectif) par le septième substantif (resp. verbe, adjectif) situé sept positions plus loin dans le dictionnaire. L’étranger L’étreinte – Qui aimes-tu le mieux, homme enigmatique, dis ? ton père, ta mère, ta soeur ou ton frère – Je n’ai ni père, ni mère, ni soeur, ni frère. – Tes amis ? – Vous vous servez là d’une parole dont le sens m’est resté jusqu’à ce jour inconnu. – Ta patrie ? – J’ignore sous quelle latitude elle est située. – La beauté ? – Je l’aimerais volontiers, déesse et immortelle. –L’or ? – Je le hais comme vous haïssez Dieu. – Qui aimes-tu le mieux, homochromie ennéagonale, dis ? ta perfection, ton mérinos, ta soif ou ton frétillement ? – Je n’ai ni perfection, ni mérinos, ni soif, ni frétillement. – Tes amidons ? – Vous vous servez là d’un paros dont la sensiblerie m’est restée jusqu’à ce jouteur inconnu. – Ton patron ? – J’ignore sous quel laudanum il est situé. – Le bécard ? – Je l’aimerais volontiers, défaut et immortel. –L’orangeade ? – Je la hais, comme vous haïssez Différenciation. – Eh ! qu’aimes-tu donc, extraordinaire étreinte ? – J’aime les nucléarisations… les nucléarisations qui passent… làbas… là-bas… les merveilleuses nucléarisations ! – Eh ! qu’aimes-tu donc, extraordinaire étranger ? – J’aime les nuages... les nuages qui passent... là-bas... là-bas... les merveilleux nuages ! Figure 57 : L’étreinte (contrainte S+7, appliquée à L’Étranger de Charles Baudelaire, 1869. Petits poèmes en prose, I) par Jean Lescure en 1961 (source : http://www.oulipo.net/ contraintes/docs/s-7) 172 Les locutions introuvables Une locution introuvable s’obtient en croisant ou en imbriquant des fragments de locutions familières. – – – – – – – – – tirer le diable en Espagne bâtir des châteaux par la queue tuer la poule dans le plat tuer la poule devant les bœufs tuer la poule sur le feu comme un chien dans un bas de soie chien qui aboie vendredi dimanche est à moitié pardonné la nuit, tous les rois sont nus il faut battre la campagne tant qu’elle est chaude, etc. Figure 58 : Locutions introuvables (In OuLiPo (collectif), 2002. Abrégé de Littérature Potentielle. Éditions des Mille et Une Nuits) Le lecteur trouvera un répertoire de plus de 130 contraintes dans le site du collectif, à l’adresse : http://www.OuLiPo.net/contraintes 173 littéraires susceptibles de produire de la littérature en quantités infinies. Les structures explorées par les OuLiPiens reposent principalement sur des contraintes, c’est-à-dire des règles et des systématismes d’écriture que doivent respecter les textes (cf encart p. 170). Les relations entre mathématiques et littérature, entraînées par l’essor de l’informatique, conduisent, en 1982, à la création de l’Alamo (Atelier de Littérature Assistée par la Mathématique et les Ordinateurs) sous l’égide de Paul Braffort et Jacques Roubaud, eux-mêmes membres de l’OuLiPo. Ce collectif entreprend d’explorer les relations entre les contraintes littéraires et l’outil informatique. Il s’inscrit, en ce sens, dans le prolongement de l’OuLiPo qui avait été fondé en dehors du contexte informatique. Portée notamment par ces deux mouvements, la littérature combinatoire revêt des formes qui invitent à la modélisation mathématique et à l’implémentation (Magné, 2000). Monsieur Jourdain : Par ma foi ! il y a plus de quarante ans que je dis de la prose sans que j’en susse rien, et je vous suis le plus obligé du monde de m’avoir appris cela. Je voudrais donc lui mettre dans un billet : Belle Marquise, vos beaux yeux me font mourir d’amour ; mais je voudrais que cela fût mis d’une manière galante, que cela fût tourné gentiment. […] Maître de philosophie : On les peut mettre premièrement comme vous avez dit : Belle Marquise, vos beaux yeux me font mourir d’amour. Ou bien : D’amour mourir me font, belle Marquise, vos beaux yeux. Ou bien : Vos yeux beaux d’amour me font, belle Marquise, mourir. Ou bien : Mourir vos beaux yeux, belle Marquise, d’amour me font. Ou bien : Me font vos yeux beaux mourir, belle Marquise, d’amour. Monsieur Jourdain : Mais de toutes ces façons-là, laquelle est la meilleure ? Maître de philosophie : Celle que vous avez dite : Belle Marquise, vos beaux yeux me font mourir d’amour. Figure 59 : Molière, 1670. Le Bourgeois Gentilhomme. Acte II, scène 4 (extrait) 174 Figure 60 : Les 148 feuillets de Composition n°1 de Marc Saporta (1962) se lisent dans n’importe quel ordre et produisent potentiellement 148 x 147 x 146 x (...) x 2 x 1 histoires (autant dire une infinité) (source de l’image : Visual Editions. http://www. visual-editions.com/) La plus simple d’entre elle – la « littérature factorielle » – fonctionne sur le principe des permutations. Non content de faire de la prose sans le savoir, Monsieur Jourdain pouvait aussi se vanter de faire de la « littérature factorielle » (cf Figure 59). Le roman Composition n°1 de Marc Saporta (1962), conçu comme un jeu de cartes que l’on peut lire dans l’ordre que l’on souhaite, reprend ce principe à l’échelle de la page (cf Figure 60). Une deuxième forme de littérature combinatoire fait écho à la théorie des graphes, développée par le mathématicien et OuLiPien Claude Berge au début des années 1970. La « littérature ambulatoire » consiste à écrire une narration sous la forme d’une arborescence dont les embranchements correspondent à des choix de lecture. Un conte à votre façon de Raymond Queneau (1967) repose sur ce principe : à chaque étape du conte, le lecteur est invité à choisir entre deux possibilités numérotées d’une 175 alternative et bâtit ainsi son propre récit jusqu’au dénouement (cf la retranscription du conte en page 237, et le graphe bifurcant ci-après, en Figure 61). Figure 61 : Modélisation de Un conte à votre façon (Queneau, 1967) par un graphe bifurcant. Par le principe des choix que le lecteur doit opérer à chaque proposition, la lecture du conte consiste à emprunter un chemin du graphe, depuis le nœud n°1 jusqu’au nœud n°21 (source de l’image : Infolipo, Arts et littérature numériques. http:// www.infolipo.org/ambroise/cours/immediat/images/queneau_cavf.pdf) La littérature « exponentielle », enfin, repose sur le principe des combinaisons mathématiques et constitue à ce titre la forme de littérature combinatoire la plus riche et également la plus expérimentée. Elle consiste à recombiner des fragments de texte préconstruits, à assembler des phrases extraites d’autres textes ou à compléter des phrases à trous – le plus souvent de manière aléatoire108 (Bootz, 2006). Cet exercice est 108. La génération combinatoire de texte est un procédé très ancien, qui n’a pas attendu l’invention de l’ordinateur pour inspirer les poètes et les écrivains : Bootz (2006) cite à ce propos l’oraison de Jean Meschinot (XVe siècle) dont la combinatoire produit 43 008 litanies différentes. Au cours du XXe siècle, cette littérature a revêtu des formes très diverses. À la fin des années 1950, Theo Lutz (1959) produit la première œuvre informatique combinatoire, Stochastische Texte, à partir de la liste des cent premiers mots du Château de Kafka (les textes générés sont construits selon des structures prenant en compte la fonction des mots – sujet, verbe, objet, négation, conjonction, disjonction). Dans le même temps, Nanni Balestrini (1961) recompose des textes 176 complexe, car on ne produit pas aléatoirement une phrase de la même manière que l’on tire aléatoirement un nombre. La phrase est en effet régie par une syntaxe que l’écrivain ou le concepteur du programme doit prendre en compte dans la construction. La machine à écrire, œuvre créée par l’informaticien québecois Jean Baudot (1964), illustre bien les contraintes que le programmeur rencontre dans la conception d’un générateur de phrases. Avant de tirer aléatoirement les mots qui seront insérés dans la structure (comme dans le remplissage d’une phrase à trous), le programme doit en effet échafauder cette structure en s’assurant de sa cohérence syntaxique. Le choix de la structure et des mots ne suffit pas à produire le texte : le programme doit, en sortie, composer la phrase en respectant les règles d’écriture (orthographe, accord, élisions, etc.) Parmi les œuvres de littérature exponentielle produite par l’OuLiPo, les Cent mille milliards de poèmes de Raymond Queneau (1961) et les Deux cent quarante-trois cartes postales de Georges Perec (1978a) sont intéressants tant par la façon dont ils appréhendent la combinatoire que par les développements informatiques dont ils ont pu faire l’objet après leur parution. Les Cent mille milliards de poèmes de Queneau est un livre construit autour de dix sonnets répartis en dix pages, elles-mêmes découpées en quatorze bandes horizontales (une bande par vers). Le lecteur compose un poème en assemblant quatorze bandes sélectionnées une à une parmi les dix pages (cf Figure 62), ce qui offre un choix parmi 1014 possibilités, soit cent mille milliards comme le souligne l’auteur avec humour dans la préface de l’ouvrage : « Ce petit ouvrage permet à tout un chacun de composer à volonté cent mille milliards de sonnets, tous réguliers bien entendu. C’est somme toute une sorte de machine à fabriquer des poèmes, mais aléatoires sur un ordinateur IBM à partir d’extraits de Tao Te King (Lao Tseu), de The Mystery of the Elevator (Paul Goldwin) et de Hiroshima Diary (Michihito Hachiya). Les écrivains francophones ne sont pas en reste – citons entre autre : – les aphorismes de Marcel Bénabou (1980), composés à partir de tirages aléatoires opérés dans le champ lexical des aphorismes ; – les maximes issues des Mémoires d’un (mauvais) coucheur de Bernard Magné (1997), qu’un programme génère aléatoirement à partir de têtes de chapitre de romans du XIXe siècle et de poèmes de Baudelaire ; –les Comptines du même auteur (1992), dans lesquelles les mots tirés aléatoirement viennent s’organiser en des structures empruntant au genre de la comptine enfantine (des extraits de ces œuvres sont consultables sur le site de Bootz, 2006). 177 Figure 62 : Les Cent Mille Milliards de Poèmes de Raymond Queneau (1961) sont présentés dans leur matrice virtuelle, prenant la forme de volets que le lecteur feuillette et agence pour éditer des occurrences de poème. Curieusement, dans la version de l’œuvre reprise dans l’anthologie de Queneau (collection La Pléiade), seuls les dix sonnets originels sont reproduits sans possibilité de les manipuler physiquement (source de l’image : Classes, le site pédagogique de la Bibliothèque nationale de France. http://classes.bnf.fr/livre/grand/452.htm) en nombre limité ; il est vrai que ce nombre, quoique limité, fournit de la lecture pour près de deux cent millions d’années (en lisant vingt-quatre heures sur vingt-quatre)109». 109. ce qui, si l’on effectue le calcul à l’envers, consiste à consacrer soixante-trois secondes par sonnet 178 En déclinant chacune des bandes selon une scansion et une rime donnée, Queneau assure la régularité de tous les sonnets potentiellement éditables par le lecteur. Bien que les dix sonnets originels présentent chacun une cohérence lexicale, l’intérêt de l’œuvre réside dans la création aléatoire de nouveaux poèmes et le mélange des dix univers pré-écrits par Queneau. En ce sens, Cent mille milliards de poèmes préfigure la littérature combinatoire assistée par ordinateur, dans laquelle l’ordinateur est utilisé pour sa capacité à gérer des bases de données – ici des « bases de vers », dans lesquelles l’ordinateur vient piocher aléatoirement pour former un nouveau poème, comme le ferait le lecteur en sélectionnant quatorze bandes de papier au hasard110. Dans ce processus, l’ordinateur agit comme un simulateur : il n’écrit pas un poème à proprement parler, mais il permet de produire un texte selon les règles que lui a apprises l’auteur. De nombreuses versions des Cent mille milliards de poèmes ont été réalisées quelques années après leur parution. La première d’entre elles, orchestrée par l’OuLiPien Paul Braffort à l’exposition Europalia Figure 63 : Adaptation à l’écran des Cent mille milliards de poèmes de Raymond Queneau par Tibor Papp (1989a). Chacun des dix sonnets est associé une couleur et à une lettre (de a à j). Grâce aux touches du clavier, le lecteur peut procéder à un tirage aléatoire ou changer un vers en spécifiant son rang et la lettre du sonnet dont il veut l’extraire (source de l’image : Bootz, 2006) 110. Le lecteur peut consulter une version numérique de l’œuvre de Queneau sur le site Bibm@th (renseigné avec la référence de l’œuvre en fin d’ouvrage). Cette version permet non seulement de sélectionner manuellement les vers (reprenant ainsi le principe des volets) mais également de laisser le soin à l’ordinateur de procéder aléatoirement à cette sélection grâce au bouton « Ordi ! » 179 de Bruxelles en 1975, marque l’entrée de la littérature française dans l’environnement numérique. Parmi les autres adaptations à l’écran, citons la version de Tibor Papp (1989a, cf Figure 63) et celle d’Antoine Denize dans son CDRom Machines à écrire (1999) consacré aux procédés littéraires de l’OuLiPo111. Dans cette adaptation, Denize propose des modes d’exploration hypermédiatiques que seul l’environnement numérique rend possibles : entre autre, le mode « Chrono » sélectionne une occurrence à partir d’une règle de calcul sur l’heure affichée par l’ordinateur, le mode « Perso » calcule un poème à partir d’un mot entré par le lecteur (par exemple son prénom) et le mode « Bingo » propose au lecteur de reconstituer les sonnets originaux à partir d’occurrences mélangées sur un principe proche du jeu de Mastermind. Bien que reposant sur une règle combinatoire analogue aux Cent mille milliards de poèmes, le projet d’écriture programmatique Deux cent quarante-trois cartes postales en couleurs véritables (1978a) de Georges Perec s’en distingue clairement par la manière de mettre en scène cette règle. Tandis que Queneau offre potentiellement à voir ses milliards de poèmes, Perec écrit toutes les cartes postales et actualise de fait toutes les combinaisons du programme : la littérature « potentielle » devient, en ce sens, une littérature « exhaustive ». Pour créer une carte postale (cf Figure 64), l’écrivain détermine, dans l’ordre, les cinq entrées que sont la localisation, les considérations, les satisfactions, les mentions et les salutations. Pour chacune des entrées, il a le choix entre trois possibilités, organisées dans un tableau : 111. Ce CDRom propose un parcours dans les différents procédés littéraires de l’OuLiPo autour de sept ensembles : « la littérature factorielle », « un texte peut en cacher un autre », « la littérature exponentielle », « la littérature ambulatoire », « les précurseurs », « écrire est une combinatoire » et un index. Il n’est malheureusement plus édité et reste quasiment introuvable sur le marché de l’occasion. Certaines médiathèques le proposent en consultation. À défaut, le lecteur pourra en avoir un aperçu assez détaillé sur le site du laboratoire NT2 (renseigné avec la référence du CDRom en fin d’ouvrage). Antoine Denize s’est par ailleurs intéressé à d’autres dimensions de l’écriture programmatique. Le lecteur trouvera sur son site personnel des expérimentations plus récentes, telles que la Machine à rimes, petite fabrique multimédia de comptines (Denize, 2000). 180 et associées à des lettres : Chacune des cinq étapes donnant lieu à trois choix, le programme d’écriture débouche sur 3 x 3 x 3 x 3 x 3 = 243 combinaisons possibles. Le matériau linguistique (les toponymes, les champs lexicaux, etc.) sont déterminés par Perec à partir de listes alphabétiques de noms de villes, de régions et d’hôtels ainsi que d’expressions propres au genre112. Afin d’éviter les répétitions dans l’énumération raisonnée des combinaisons, Perec brouille les pistes en sélectionnant les amorces et en ordonnant les combinaisons à partir de critères en apparence aléatoires, mais en réalité fortement structurées par des règles mathématiques113. Nous campons près d’Ajaccio. Il fait très beau. On mange bien. J’ai pris un coup de soleil. Bons baisers. Figure 64 : Première des Deux cent quarante-trois cartes postales en couleurs véritables de George Perec (1978a) 112. En particulier, Perec crée chacune des listes de 81 noms (villes, régions, hôtels) à partir de trois alphabets de 27 lettres – un alphabet de 27 lettres étant produit en doublant aléatoirement une des 26 lettres de l’alphabet – et établit une liste de 9 amorces (« nous campons près de… », « nous avons atterri à… », « nous voilà à… », « une lettre de… », « un grand bonjour de… », « nous voici à… », « un petit mot de… », « dernières nouvelles de… », « nous avons planté nos piquets à côté de… »). 113. On retrouve ici le goût de l’OuLiPo pour la modélisation mathématique des problèmes posés par la littérature potentielle – et, en perspective, toutes les ouvertures que celle-ci offre dans l’environnement numérique. Partant des 243 combinaisons de lettres rigoureusement énumérées par un arbre décisionnel, Perec leur associe alternativement chacune des 9 amorces qu’il a auparavant « mélangées » grâce à un protocole construit à partir de carrés magiques. Perec mélange à leur tour les 243 combinaisons en les sélectionnant de 5 en 5 jusqu’à épuisement. Ces règles peuvent être consultées en détail sur le CDRom de Denize (1999) et sur le site de l’enseignant Jean-Marc Muller « Écrire ensemble des cartes postales : mais d’où venait donc l’idée ? », à l’adresse : http://j-marc.muller.pagesperso-orange.fr/perec_commentcp.htm 181 Par exemple, la combinaison ALCIJ correspond à la contrainte Ville + Bronzage + Nourriture + Activités + Pensées, à partir de laquelle Perec construit la carte postale n°98 : « Un petit mot de Quimperlé ! On se dore au soleil. Fruits de mer à gogo. J’ai appris à faire les crêpes. Mille pensées. » De par leur caractère exhaustif, les Deux cent quarante-trois cartes postales questionnent la manière de présenter des combinaisons, tant dans la linéarité du papier – à la faveur des règles mathématiques que Perec met en œuvre pour produire un mode exploratoire singulier – que dans l’interactivité de l’environnement numérique. Dans son CDRom Machines à écrire (1999), Antoine Denize expérimente une adaptation consistant à associer aléatoirement une illustration à chacune des cartes. Au lieu de proposer des associations fixes, Denize imagine un dispositif dans lequel les éléments de l’illustration de la carte sont générés aléatoirement à chaque visionnage114 (cf Figure 65). Premier plan, second plan, ciel, couleurs, bordures et mentions sont ainsi piochés dans des bibliothèques graphiques, en respectant des contraintes visuelles et thématiques en relation avec le contenu de la carte. Ces jeux combinatoires – pourtant initiés en dehors de l’environnement numérique – traduisent une forme d’attraction pour le nombre et la puissance du calcul dans les processus de production et de création littéraire (cf encart p. 184). Le nombre n’est cependant pas la seule manifestation du programme : celui-ci se révèle également par sa capacité à reproduire les processus mentaux. Portée dans les années 1980 par l’auteur français Jean-Pierre Balpe115, la génération automatique de textes constitue le deuxième versant de la littérature générative. Contrairement à la génération combinatoire qui explore les combinaisons produites par la sélection aléatoire de mots 114. Le site mentionné en bas de page 181 donne un aperçu du travail de Denize sur les cartes postales de Perec. À défaut de pouvoir les lire ou d’en apprécier cette adaptation numérique, le site amateur http://243postcards.canalblog.com en propose une interprétation visuelle, construite à partir de contraintes plus simples (en l’occurrence, les illustrations – extraites du web – ont pour simple obligation d’établir un rapport avec le texte). 115. Balpe étudie la génération automatique de textes dès 1975, et se consacre dans un premier temps à la poésie dont les contraintes sémantiques sont moins complexes que la prose. Lors de l’exposition Les Immatériaux au Centre Pompidou en 1985, il propose au public d’interagir avec un générateur automatique. Plus de 30 000 textes sont produits et imprimés lors des trois mois et demi qu’a duré l’exposition. Paradoxalement, les programmes à l’origine de ces textes n’ont pas été archivés par les organisateurs de l’exposition. Ce choix pose en filigrane la question de l’œuvre : se situe-t-elle dans le texte produit (et imprimé ou archivé) ou dans le dispositif (et dans sa mise en scène) ? (Bootz, 2006) 182 Figure 65 : Une carte postale de Perec, interprétée par les « machines à écrire » de Denize (1999). Le contenu textuel de la carte oriente le choix du programme parmi une collection d’éléments graphiques, allant de l’aspect du ciel à la mention manuscrite de la carte. 183 La combinatoire, à l’interface du nombre et de la production littéraire La rencontre entre le systématisme du programme et la dimension créatrice de l’écriture confère à la littérature combinatoire des statuts variés, selon la manière dont le nombre est mis au service du texte. (Barras, 1998) identifie à ce propos trois attitudes face à la combinatoire – trois modalités qui éclairent la dimension programmatique de l’écriture. Le « déni du nombre » consiste, pour l’auteur, à dénicher les « heureux hasards » de la production de l’ordinateur noyés sous une masse indistincte de déchets (Levin, 1963). Il s’agit de sélectionner pour extraire un résultat consistant : en réduisant la quantité à la qualité, l’auteur intervient pour enlever le bruit statistique produit par la combinatoire et faire émerger le sens. L’outil est ici envisagé dans son rapport à l’unité textuelle traditionnelle. Le « fantasme de totalisation » consiste à assumer les nouvelles formes induites par l’ordinateur et répondre à la consommation de masse par la production de masse. Il s’agit d’épuiser le stock, d’exploiter de manière exhaustive les possibilités de l’ordinateur pour faire coïncider la quantité à un art de consommation. Avec ce protocole, les occurrences produites par le générateur s’invalident les unes après les autres, elles n’existent qu’à travers l’enchaînement et le rythme, et font disparaître le sentiment de perte liée à l’unicité puisque la génération est inépuisable : la totalité du sens de l’œuvre est « capitalisée » par l’ensemble des possibles. Le « fantasme de continuité », enfin, se situe à mi-chemin entre le déni et le fantasme du nombre. Il consiste à évoquer explicitement le nombre dans la mise en scène de l’œuvre. Tout en exigeant du lecteur un recul, une forme de dérision, ce protocole donne du sens au nombre et conduit l’auteur à imaginer des stratégies de médiation pour le « théâtraliser », tant dans les titres (Cent mille milliards de poèmes, Un peu plus de 4000 poèmes en prose, Éternité d’épithalames...) que dans la numérotation (Poème no. 25.211, Tirage [16r] [9v] [4v] [18r] [1r] [13r] [8v] [15r] [5r] [20r], Palabras 23.432 a 23.584 del texto no. 657, Chapitre 37 page 2703...) Il s’agit bien d’un fantasme en ce sens que l’on souhaiterait que « la production littéraire ne cesse jamais, que le texte, à l’infini, éternellement, engendre du texte » (Balpe, 1993). 184 ou de fragments de texte dans une structure prédéfinie, la génération automatique prend en charge la syntaxe du texte en intégrant les règles d’assemblage des mots dans l’algorithme. La génération automatique n’a pas pour objet d’épuiser toutes les combinaisons d’un texte, mais de produire une occurrence de texte. L’intégration de règles d’assemblage complexes dans la génération permet de produire des romans complets (Balpe s’y attelle dès 1991 – voir l’extrait présenté en Figure 66) ou des textes « à la manière de »116 (Bootz, 2006). Ils ont à faire la part des choses, il leur semble que leur tête est pleine de confusion et de bruits, que le trouble absolu des événements qui les entourent perturbe leur faculté de penser normalement. Marc, lui, ne parvient pas à faire une différence bien nette entre souvenir et invention du passé et s’il lui semble par moments que ses souvenirs relèvent de l’imaginaire, il lui semble aussi que son imaginaire relève du souvenir. Divers mondes se mélangent dans son esprit créant des confusions de plans et d’espaces : la fillette d’autrefois est soudainement à ses côtés, avec sa petite robe de velours rose, des jets d’embruns se projettent vers le ciel comme s’ils voulaient en éteindre la fureur... Il lui semble avoir déjà vécu plusieurs fois cette même scène, il connaît par avance l’essentiel des paroles qui vont être dites, des faits qui vont se produire. La réalité a par moments été si belle, riche, intéressante... Un autre souvenir lui revient soudain en mémoire : quelque chose comme une chambre ouverte, un crâne d’animal blanchi sur une plage — orbites pleines de sable — une coquille vidée ! Figure 66 : Extrait de Un roman inachevé (1994), œuvre générative programmée par Jean-Pierre Balpe. Le passage reproduit ci-dessus est le premier des vingt fragments de l’histoire de Marc et Cerise (fragments du 20 juin 1995 —14 heures 23-15 heures 11), p. 3121. Pour apprécier les bifurcations narratives, le lecteur trouvera dans (Balpe, 2000) les dix-neuf autres fragments. La génération automatique exploite explicitement les possibilités de l’outil informatique : elle envisage le texte comme un matériau qui n’est plus figé, un flux sur lequel peuvent être mises en œuvre des techniques génératives propres à l’informatique (processus aléatoires, arborescences, etc.) Au-delà des schémas génératifs consistant à « customiser » les 116. Balpe relate à ce titre l’anecdote qu’il a eue avec un collègue spécialiste de Flaubert : « Je lui avais fait lire une page générée et il m’avait dit : "oui, c’est du Flaubert, mais je n’arrive pas à savoir de quel texte". Il était très embêté car il connaît Flaubert par cœur. » Balpe Jean-Pierre, 1994. Débat. In Bootz, Philippe (dir.), A:\LITTÉRATURE Villeneuve-d’Ascq : Mots-VOir et Gerico-Circav, université de Lille 3, 98 185 éléments du roman (Balpe parle de « variations de décor ») ou à offrir au lecteur des options parmi une arborescence préétablie par l’auteur (à l’image des Livres dont on est le héros), Balpe démontre que l’ordinateur peut intégrer la gestion des possibles dans l’assemblage des éléments et opérer des bifurcations narratives. Par ce principe, l’ordinateur « ouvre » la trajectoire de la fiction et entraîne l’auteur vers des possibles qu’il n’aurait pu imaginer autrement. Pour ce faire, la génération de fiction par ordinateur repose sur l’agencement de prototypes – en quelque sorte des « briques » représentant des personnages, des lieux, des événements... Ce processus est fortement contraint par la syntaxe de la langue et par la nécessité de produire des textes cohérents117 en regard d’une « encyclopédie pragmatique » que le lecteur est supposé détenir (Balpe, 2000). L’introduction de contraintes – qu’elle soient gérées ou non par une machine – offre finalement un cadre pour imaginer de nouvelles formes de langage et d’expression, pour faire sortir la littérature d’une conception traditionnelle que Perec pointait déjà dans son Histoire du lipogramme : « L’histoire littéraire semble délibérément ignorer l’écriture comme pratique, comme travail, comme jeu. »118 Les contraintes posent, en creux, la question de la contribution humaine dans l’écriture, et ce d’autant plus lorsque celles-ci sont assumées par un ordinateur. D’une certaine manière, « faire faire » de la littérature à une machine devrait être considéré comme un sacrilège puisque, en un sens, on confie la part de l’humain – de la création – à la machine. Dans ce débat, le positionnement de Jean Baudot et de son œuvre La machine à écrire (déjà évoquée en page 177) est singulier : par le choix de rassembler les textes produits aléatoirement dans un recueil papier, il associe la notion d’œuvre au recueil et non au générateur à l’origine des textes. Cela étant, la majorité des expérimentations de littérature assistée par ordinateur placent l’exploration des possibilités combinatoires de l’outil informatique au centre du dispositif et relèguent, en ce sens, l’ordinateur au rang de « prothèse mentale119 ». Pour Bootz (2006), l’automatisation 117. Partant d’éléments généraux codés informatiquement, le générateur automatique doit en pratique procéder à un travail de réduction, c’est-à-dire convertir ces différents éléments en un énoncé en langage naturel dans lequel ne réside plus aucune incertitude linguistique. Il s’agit ainsi de passer d’un « ensemble d’états non-finis » (la collection initiale d’éléments ouvrant une multitude de possibles) à une « chaîne d’états finis » (le texte lui-même) (Bootz, 2006). 118. in OuLiPo (collectif), 1973. La littérature potentielle (Créations Re-créations Récréations). Paris, Gallimard, p. 79 (cité par Magné, 2000) 119. pour reprendre le mot d’Abraham Moles, 1971. Art et ordinateur. Tournai : Casterman, réédition : Paris : Blusson, 1990 (cité par Bootz, 2006) 186 déplace de fait l’activité littéraire vers de nouvelles problématiques, qui étaient parfois inaccessibles sans l’aide de la machine. L’acte créateur réside dans l’implémentation du programme dans la machine : pour reprendre la figure du robot-poète évoquée (et redoutée) par Boris Vian120, « le véritable auteur n’est pas le robot-poète mais le concepteur du robot-poète ». Enfin, pour Weissberg (2000), qui porte son regard sur l’écriture générative et les travaux de Jean-Pierre Balpe, le concepteur du programme se situe encore plus en retrait : il « ne fait que » engendrer des théories d’œuvre et ne participe pas à proprement parler à la production de sa littéralité. À des degrés divers, l’intrusion de l’ordinateur dans la production littéraire met le lecteur aux prises avec la difficulté de distinguer l’intentionnalité du créateur de ce qui relève de la production automatique. Cette interrogation, palpable dans le domaine de la création littéraire, a tendance à s’estomper dans l’environnement numérique actuel fortement imprégné de la présence des robots, notamment sur le web121. Pour Paloques-Berges (2012), les ressorts de la production de textes (assistée) par ordinateur sont explicites pour le lecteur averti, tant les textes produits sont soit trop évidents, soit trop obscurs122. Les générateurs automatiques qui fleurissent sur Internet sont des exemples éloquents de moteurs « évidents », dont le lecteur n’attend d’autre production que d’heureux hasards – la fameuse « sérendipité » propre à la toile que l’on pourrait relier au « désir du nombre » évoqué par Barras (1998) (cf encart p. 184). Le « Pipotron », déjà présent sur la toile dans les années 1990, est un exemple de générateur automatique produit par la rencontre de l’écriture combinatoire et de l’environnement Internet. Par la combinaison de mots et de tournures galvaudés, le Pipotron génère des phrases « creuses » destinées – en théorie – à toute présentation ou tout travail de synthèse, 120. Vian Boris, 1953. Un robot-poète ne nous fait pas peur. Arts 10-16, avril 1953, p. 219-226 121. L’impact des robots sur la langue – et en particulier sur l’économie de la langue dans l’environnement web – est détaillé plus avant en page 316. 122. L’ordinateur, lorsqu’il est utilisé pour sa capacité à reproduire et à imiter en respectant des règles strictes aboutit à des textes peu originaux, confinés dans des cadres pré-déterminés (génération combinatoire de textes). Par ailleurs, la conversation des robots-parleurs – ou « chatbots » – qui, dotés d’une intelligence artificielle, tentent de donner le change avec les humains, démontrent encore aujourd’hui leur incapacité à adapter leur discours à l’interlocuteur. En se conformant à des situations figées à défaut de comprendre véritablement ce qu’il dit, le robot produit parfois des séquences étranges. 187 Figure 67 : Le Pipotron génère des phrases pour « personnes en manque d’inspiration » en combinant neuf blocs dans une phrase pré-construite. L’internaute peut demander au moteur de produire une phrase aléatoirement ou choisir lui-même chacun des neuf blocs. pourvu qu’ils évoquent la « situtation actuelle » et ses « perspectives ». La version du Pipotron présentée en Figure 67 est intéressante car elle révèle les rouages du moteur. De très nombreux générateurs reprennent le principe combinatoire du Pipotron sur Internet. Le Blablator, « générateur de phrases inutiles et creuses pour briller en société » produit des textes plus étoffés et plus abscons. L’opacité du mécanisme sous-jacent et le soin apporté à la mise en forme graphique (intégration dans la page, utilisation de lettrines, etc.) soulignent l’absurdité du contenu et des situations ciblées par le dispositif. Le site Charabia.net « industrialise » le concept en déclinant plus de 300 générateurs automatiques, investissant non seulement les champs d’expérimentation chers aux OuLiPiens (générateurs d’aphorismes, de poésie, de cartes postales) mais également de nouveaux registres (cf Figure 68). 188 À mi-chemin entre divertissement et utilitaire, le site Samuel L. Ipsum propose un générateur de Lorem Ipsum123 inspiré des dialogues du film Pulp Fiction (Quentin Tarantino, 1994) et de son personnage Jules Winnfield, interprété par Samuel L. Jackson. Loin de se réduire à un énième générateur à la manière du Pipotron, le Samuel L. Ipsum remplit son office de faux-texte et présente les avantages supplémentaires d’être formulé en anglais et d’intégrer des balises HTML pour tester la mise en page des titres et des paragraphes dans une page web. Comme le souligne le poète Charles O. Hartman124, « le langage se crée tout seul à partir d’un simple parasitage statistique » : par sa force de calcul, l’outil informatique est capable de produire ce bruitage et de créer des arrangements qui occasionnent une perte de contrôle, propice à la créativité. La puissance combinatoire de l’outil informatique n’est cependant qu’une facette des possibilités de l’ordinateur dans le façonnage de l’écriture. Au-delà de sa capacité à manipuler les lexiques et à traiter le langage, le code constitue un outil de création en tant que tel. Il peut en effet devenir matière, être interrogé dans sa capacité à perturber, altérer voire dérégler les écritures et révéler ainsi l’illusion de la transparence et l’immatérialité des informations numériques (Stiegler, 2008, cité par Boisnard, 2012). La première œuvre web de l’artiste français Christophe Bruno s’inscrit dans ce registre. Sur le site d’Épiphanies, l’internaute est invité à créer une « épiphanie » à partir d’un morceau de texte qu’il saisit dans un champ. L’épiphanie est ici à prendre au sens de James Joyce125, c’est-àdire l’assemblage signifiant de conversations captées dans la rue, entre différentes personnes et différents contextes. Dans l’œuvre de Bruno, 123. Un Lorem Ipsum est un faux-texte « sans valeur sémantique, permettant de remplir des pages lors d’une mise en forme afin d’en calibrer le contenu en l’absence du texte définitif » (Wikipédia, Faux-texte) Le Loren Ipsum est traditionnellement écrit en latin pour distraire le lecteur du fond et attirer son attention sur la mise en forme graphique. Cela étant, il est parfois reproché au latin de ne pas être toujours représentatif de la longueur des mots et des phrases que l’on emploie aujourd’hui. 124. Hartman Charles O., 1996. Virtual Muse: Experiments in Computer Poetry. Wesleyan University Press, 152 p. (cité par Paloques-Berges, 2012) 125. En référence à : Joyce James, 1956 (posth.) Épiphanies. Édition complétée en 1965, traduit de l’anglais par Jacques Aubert dans Œuvres I, Éditions Gallimard (1982, 1996). « Je reproduis dans l’Internet l’expérience de Joyce » dit Christophe Bruno. « Je crois que Joyce a eu l’intuition de ce qu’on pourrait appeler la "globalisation du signifiant". [...] Je considère [...] l’Internet comme un texte global, et j’y envoie un programme qui en rapporte des bribes de phrases, en fonction de ce que l’internaute va taper. Plus précisément, l’internaute saisit quelques mots sur une page de mon site, le programme va chercher des morceaux de phrases en rapport avec ces mots mais provenant de contextes différents, et cela reconstitue le squelette d’un autre texte. » 189 « Viens voir Mamie » – Générateur de phrases de grand-mère Ton cousin lui au moins s’est marié ; au fait je t’ai dit que le chien du toubib a été empoisonné ? Il fallait s’y attendre avec tous ces punks qui trainent dans le quartier... Enfin comme je dis a la pharmacienne : « ça c’est les jeunes d’aujourd’hui »... Tiens, ma petite fille serait bien mignonne si elle allait chercher les lunettes de mamie. « Insulte-o-tron » – Générateur de commentaires d’insultes Ta soeur te lime les oreilles avec une brosse à chiotte comme un gros porc, pute coagulée. « Proverbes » – Générateur de proverbes Qui couche avec la cruche se lève avec l’eau du bain. « comdeskyblogotron » – Générateur de commentaires de skyblog slt pour tt seux ki me conesse pa je suis le roi mé je suis sertenement ton genre Komme ils assurs tro bl avc ca la vie en fait c chanmé la grosse teuf m1tenan je kif tro grave Dlire avc ca l’affair en fait c chanmé la vibe et...lAcHe T Kom :-) « Des concepts jeux de rôle à la chaîne ! » – Générateur de concepts de jeux de rôle Labyrinthe de la mort est un jeu de rôle uchronique diplomatique qui permet de jouer des commandos à l’âme possédée par un démon, dotés d’armures symbiotiques et combattant des cohortes de junkies sans pitié. « Comptines » – Générateur de comptines pour enfants Un joyeux lutin Dansait la java Sa maman l’appela Son chapeau tomba Turlututu et jambe de bois ! « Arplasticotron » – Générateur de débuts de textes critiques en arts plastiques Claude-Camille Durand-Delair : une supplique initiatique dans le désordre ambiant. L’installation ex-situ de Claude-Camille Durand-Delair interroge le corps en tant que paradigme explicite d’une réalité secrète, ou, si l’on préfère, visite la sensation contemporaine du « ça », considéré comme une nomenclature onirique de l’écosystème de la sexualité. Évidemment, une visite patiente de son installation interactive, peut éventuellement (ad lib...) 190 « Contribution littéraire » – Générateur de contributions pour forums de littérature Je ne sais pas si je suis sur le bon forum, mais tant pis, je me lance ! On ne peut manquer le dernier Prix Renaudot et je souhaiterais proposer au groupe ce que j’en ai pensé. Tous les ans, le lauréat est archiconvenu ! Encore un prix purement politique ! A vous de réagir ! Bonne lecture -Martine Écrire est toujours un art plein de rencontres. La lettre la plus simple suppose un choix entre des milliers de mots, dont la plupart sont étrangers à ce que vous voulez dire. (Alain) « Jésus-o-Matic » – Générateur de paroles d’évangile Evangile de Jésus-Christ selon Saint Luc. Dès le point du jour, Jésus se rendit dans les villes et les villages pour y proclamer et annoncer la Bonne Nouvelle du royaume de Dieu. Un collecteur d’impôts nommé Barabbas s’en indigna et lui dit afin de trouver dans ses paroles un motif d’accusation : – Quel signe miraculeux peux-tu nous montrer pour prouver que tu as le droit d’agir ainsi ? Tandis que la foule l’écoutait, Jésus lui répondit : – Malheur à vous, pharisiens, les anges vous précipiteront dans la fournaise ardente, où le ver rongeur ne meurt point et où le feu ne s’éteint jamais. Votre condamnation n’en sera que plus sévère. Puis, Jésus s’adressa à ses disciples et déclara : – Si vous obéissez à mes commandements, vous serez jugés dignes de ressusciter d’entre les morts pour faire partie du monde à venir. Un jeune homme le suivait, couvert seulement d’un drap. On le saisit, mais il abandonna le drap et s’enfuit, tout nu. Acclamons la parole de Dieu ! « haïku-tron » – Générateur d’haïkus ombre du crépuscule la neige bruisse je descends la montagne Figure 68 : Sélection de textes aléatoires produits avec les générateurs du site Charabia.net. 191 le morceau de texte entré par l’internaute devient une amorce dont le moteur s’empare pour composer un texte, à partir de bribes de phrases récupérées sur Internet via un moteur de recherche126 (cf Figure 69). L’assemblage des morceaux ainsi récoltés produit une écriture donnant une épaisseur à des conversations qui semblent se jouer simultanément sur la toile. Figure 69 : Dans Épiphanies (2001) de Christophe Bruno, l’écriture est produite par le travail du code : les morceaux de texte sont récupérés de manière opaque sur le web (en lien avec le libellé saisi par l’internaute dans la barre de recherche) puis agrégés et mis en forme comme une conversation dont on ne perçoit que des bribres (source de l’image : site Internet de Christophe Bruno – Best-of du dispositif Épiphanies. http://iterature.com/epiphanies/bestof.php) Dans leur installation En réalités – I am a bugged program, Samuel Bianchini et Sylvie Tissot (2009) proposent d’explorer le rapport que le code entretient avec l’écriture, non plus seulement dans sa dimension applicative, mais également dans sa dimension logique. Le dispositif met en scène le paradoxe de langage « Je mens » en jouant sur la dualité des écritures, écriture du code vs écriture à l’écran. Lorsque le programme fonctionne correctement, le dispositif affiche « I am a bugged program ». Inversement, lorsqu’il est corrompu, le programme se trouve dans l’impossibilité d’afficher correctement cette phrase (cf Figure 70). En mettant en scène un dispositif numérique qui tente d’écrire ce qu’il est – un programme bugué – tout en étant dans l’impossibilité de le faire, 126. Bien qu’inscrite dans l’environnement web, cette œuvre est présentée ici pour illustrer la capacité du code à brouiller les écritures. Les spécificités de l’écriture sur Internet sont développées dans la partie « Matière à assembler – Médiation de l’écriture et stratégies d’organisation » en page 219. 192 Bianchini et Tissot révèlent une écriture impossible, produite par le conflit qui se joue dans les différentes strates de l’ordinateur depuis le niveau symbolique jusqu’au niveau logique127. Figure 70 : Sur le dispositif En réalités – I am a bugged program de Samuel Bianchini et Sylvie Tissot (2009), les quatre écrans donnent à voir, de manière synchronisée, l’énonciation de l’état du programme (langage naturel – niveau sémantique), le script (langage de l’informaticien – niveau applicatif), le code binaire (langage de l’ordinateur – niveau logique) et enfin une représentation quantique de l’incertitude (« valeur de vérité du paradoxe » – niveau symbolique). 127. « Jouant avec des processus informatiques élémentaires tout en les déjouant, cette installation rend perceptibles et même sensibles les formes temporelles qui habitent ces dispositifs aujourd’hui quotidiens et renoue avec certains pans de l’histoire de l’art travaillant sur l’énonciation et ses représentations, en premier lieu, l’Art conceptuel. » (Bianchini et Tissot, 2009) 193