L`auteur oulipien est un rat qui construit lui-même le - jean

Transcription

L`auteur oulipien est un rat qui construit lui-même le - jean
« L’auteur oulipien est un rat qui construit lui-même le
labyrinthe dont il se propose de sortir. »
Raymond Queneau (1903-1976),
co-fondateur de l’OuLiPo
Signifier – Le traitement
des mots et des phrases
Si l’écriture numérique produit du sens statistique en tant que séquence
de symboles, il n’en demeure pas moins qu’elle retranscrit la parole et fait
signe par l’assemblage des mots et des phrases. Tandis que l’ordinateur
démontre sa suprématie dans le traitement statistique de l’écrit
numérique, la prise en compte de la dimension sémantique questionne
d’emblée la capacité de l’ordinateur à faire le lien entre le langage binaire
et le langage naturel.
Le Traitement Automatique du Langage Naturel (TALN) s’inscrit dans
cette problématique. Cette discipline, à la frontière de la linguistique,
de l’informatique et de l’intelligence artificielle, a émergé avec l’essor
de l’informatique au milieu du XXe siècle. Les débuts des recherches en
TALN sont marqués par le célèbre test de Turing (1950), érigeant en critère
d’intelligence la capacité pour un programme informatique à imiter (par
écrit) la conversation d’un humain de sorte qu’un interlocuteur humain
soit incapable de déceler s’il converse en effet avec un ordinateur ou un
autre être humain.
Les recherches menées en TALN dès les années 1950-1960 investissent
tous les compartiments du langage humain (à ce titre, on parle parfois
d’« ingénierie linguistique ») : agents conversationnels, traduction
159
automatique, correction orthographique et grammaticale, résumé
automatique de texte, génération automatique de textes, recherche
d’information et fouille de textes, catégorisation de documents, etc. Les
premiers résultats, obtenus en simulation du langage et en traduction
automatique, sont prometteurs et laissent penser que les ordinateurs
seront capables de reproduire et manipuler le langage humain à court
terme. Cela étant, ces résultats sont produits pour des champs lexicaux et
des bases de connaissance restreints, et force est de constater aujourd’hui
que la recherche en TALN a encore de beaux jours devant elle.
S’agissant de reproduire, interpréter et manipuler le langage naturel,
l’enjeu du TALN est de produire des ontologies conceptuelles, c’est-àdire d’organiser l’information (structurée par le langage) de sorte qu’elle
soit compréhensible par l’ordinateur (structuré par son architecture
logique)91. Pour ce faire, la discipline s’appuie sur des méthodes
mathématiques – notamment statistiques et probabilistes – adaptées
à l’apprentissage automatique et à la fouille de données : en clair,
l’ordinateur est sollicité pour opérer des quantités d’analyses sur des
bases de données grammaticales et lexicales extrêmement volumineuses,
afin de « désambiguïser » les formulations en langage naturel, les
interpréter correctement et, in fine, les manipuler pour répondre à des
applications données.
Du dictionnaire à la base de données
La palette des applications concernées par le TALN s’échelonne sur
des niveaux de complexité très variés, selon que le langage naturel est
appréhendé à l’échelle du mot, de la phrase voire du texte tout entier – par
exemple pour corriger l’orthographe d’un mot, traduire une phrase ou
résumer un texte. De fait, lorsqu’il est découpé, déstructuré, fragmenté en
une succession de mots, le langage naturel est un média que l’ordinateur
parvient à apprivoiser aisément. Le raisonnement logique et la capacité
à gérer de grandes quantités de données s’accomodent effectivement
91. « [...] la représentation des connaissances est indispensable pour traiter sur ordinateur les
objets du monde réel, c’est une correspondance entre le monde extérieur et un système symbolique
permettant de raisonner. » (Chaty, 1998) Le texte de Guy Chaty sur le TALN et ses applications
en littérature (notamment avec l’OuLiPo et l’Alamo) illustre, à partir de nombreux exemples, les
difficultés pour faire comprendre à l’ordinateur les figures du langage (expressions, métonymies,
synecdoques, métaphores, etc.)
160
bien des règles de syntaxe et des lexiques qui régissent les mots dans une
phrase. Les opérations associées s’affranchissent souvent du contexte
sémantique de la phrase et se réduisent simplement à la consultation de
dictionnaires92 ou de règles de langage.
Les outils de correction fournis avec les traitements de texte entrent dans
cette catégorie. Le plus simple d’entre eux – le correcteur orthographique –
analyse le texte mot par mot, détecte et corrige éventuellement les fautes
d’orthographe et les coquilles : pour cela, l’ordinateur procède à une
simple comparaison des mots du texte avec les mots d’un dictionnaire. La
correction est automatique ou semi-automatique, selon que l’utilisateur
autorise l’ordinateur à appliquer toutes les transformations sans lui
demander son avis (lors des corrections à la volée ou sur demande) ou que
l’utilisateur demande à l’ordinateur de lui soumettre les mots litigieux et
des propositions de correction. En appui du correcteur orthographique,
le vérificateur grammatical pointe les erreurs de grammaire (syntaxe,
accords, ordre des mots). En ce sens, cet outil opère à l’échelle de la phrase,
avec toutes les difficultés que cela représente en termes d’intelligence
artificielle pour analyser la structure de la phrase et identifier la fonction
des mots. Malgré leur faible rayon d’action, ces outils de correction
n’arrivent pas à arbitrer certaines situations pour lesquelles le contexte
est déterminant. Les recheches menées actuellement autour de ces outils
se concentrent sur la détection du contexte, notamment pour gérer les
homonymies et choisir la bonne orthographe, ou encore pour identifier les
liens entre pronoms et noms et accorder correctement verbes et adjectifs.
L’efficacité des méthodes de détection s’obtient par apprentissage, à
partir de la consultation de corpus se chiffrant en centaines de millions
de mots. Il est intéressant de noter à ce titre que l’ordinateur compense
son ignorance du langage naturel en surinvestissant le calcul et l’analyse
d’un nombre considérable de mots ou d’échantillons de phrase. Ce mode
de fonctionnement explique la constante nécessité pour l’utilisateur
d’intervenir et de lever les ambiguïtés qui demeurent dans les options
proposées par l’ordinateur. Et quand bien même l’ordinateur serait
92. La consultation de dictionnaires – pour vérifier l’orthographe d’un mot, trouver un synonyme
ou une traduction dans une langue étrangère – est facilitée par l’outil informatique, car l’ordinateur
automatise la recherche et le croisement des informations grâce à l’indexation des mots. En
revanche, ces opérations nécessitent un travail de l’utilisateur dans la mesure où celui-ci doit opérer
un choix parmi les orthographes, les synonymes ou les traductions en fonction du contexte de
la phrase. Cela étant, ce travail est inhérent à son activité d’écriture : il procèderait de même s’il
écrivait avec un papier et un stylo et consultait un dictionnaire imprimé.
161
capable d’assister l’écriture en produisant ex nihilo du langage naturel,
il revient toujours à l’utilisateur d’opérer un choix, ne serait-ce que pour
accorder l’écriture avec son intention.
Cette marge de correction laissée à l’initiative de l’utilisateur structure
de fait la grande majorité des outils actuels d’assistance à l’écriture,
notamment au sein des navigateurs et des messageries. Le caractère
semi-automatique des outils (l’ordinateur propose, l’utilisateur dispose)
et la mise en retrait des suggestions de correction – souvent présentées
dans des fenêtres contextuelles ou en marge des écrans – permet à
l’utilisateur de se concentrer sur sa saisie et, le cas échéant, de consulter
les suggestions du correcteur d’un simple coup d’œil. Il arrive cependant
que certains dispositifis numériques imposent par défaut la correction
automatique à la volée (c’est notamment le cas sur les appareils Apple). Le
confort d’écriture procuré par ces outils dissuade souvent les utilisateurs
de désactiver leur fonction automatique, malgré les erreurs et aberrations
que ceux-ci occasionnent parfois (cf Figure 48).
Figure 48 : Les situations décalées que provoquent les
correcteurs automatiques alimentent certains sites
communautaires, tels que « Dawn you autocorrect »
pour la communauté anglophone (source : « Dawn You
Auto Correct! » – iPhone Fails and Autocorrect Horror
Stories, http://www.correctionautomatique.com – site
aujourd’hui fermé)
Le caractère semi-automatique des outils d’assistance à l’écriture laisse
planer le doute quant à leur finalité : s’agit-il d’outils de correction ou
bien d’outils de suggestion ? En soumettant des choix à l’utilisateur,
l’ordinateur canalise d’une certaine façon l’écriture que celui-ci produit à
l’écran. Si ce procédé est explicite dans certaines interfaces93, l’ouverture
des choix proposés dans d’autres interfaces reste ambigu. Le terme de
93. c’est par exemple le cas avec les bornes d’achat de billets de train, évoquées en bas de
page 88 : ce type d’interface opère un pré-traitement en bloquant certaines saisies afin d’éviter à
l’utilisateur de formuler des requêtes sans objet
162
Figure 49 : Exemple de saisie automatique sur Google. Le moteur suggère des termes
pour compléter la requête « prix réduit ». Rien ne permet de savoir dans quelle
mesure ces suggestions sont sélectionnées compte tenu de leur popularité, du lieu
géographique depuis lequel la requête est envoyée ou de contrats commerciaux
(requête effectuée à Paris le 11 mai 2013).
Figure 50 : De la même manière qu’un utilisateur peut enrichir le dictionnaire à
partir duquel le traitement de texte opère les corrections (semi-)automatiques d’un
texte, Google utilise les requêtes des internautes pour enrichir sa base de données
pour la saisie semi-automatique. Ainsi, lorsque l’on tape une requête dans la barre
de recherche, le moteur affiche automatiquement des requêtes « populaires » selon
un algorithme gardé secret. Le blog « Comment devenir un ninja gratuitement » en
propose un florilège surprenant (source : « Comment devenir un ninja gratuitement –
Anthologie de recherches Internet authentiquement tapées », extrait du billet du 16
décembre 2011).
163
« saisie semi-automatique » que Google emploie pour désigner son outil
d’assistance à la saisie de requêtes est éloquent : les éclaircissements
apportés en marge par Google94 ne permettent effectivement pas de savoir
dans quelle mesure les paramètres de traitement sont censés faciliter la
saisie, corriger l’orthographe, anticiper l’intention de l’utilisateur, voire
rediriger son attention (cf Figure 49 et Figure 50).
Avec les outils de traitement à la volée, le mot, la formule et la requête
se confrontent à l’opacité des algorithmes exécutés en arrière-plan
par l’ordinateur. En pilotant l’écriture par des algorithmes et en la
canalisant dans des bases de données préétablies, l’ordinateur assume
en partie le travail d’écriture numérique. Inversement, l’ordinateur
offre un environnement de calcul que l’utilisateur peut prendre à son
compte pour opérer lui-même des traitements sur les mots et extraire
des connaissances. S’appuyer sur la forme et la nature des mots permet
ainsi de coder des outils de fouille de textes95 particulièrement utiles
dans le domaine de la lexicologie. Cette « science des mots », pour
reprendre l’expression de Ferdinand de Saussure96, s’intéresse à l’étude
des lexiques utilisés dans la langue. Confiés à la puissance de calcul des
ordinateurs, les textes peuvent être analysés de manière statistique et
révéler des informations intéressantes quant à l’emploi des mots et à leur
flucuations d’un domaine à un autre, d’un auteur à un autre ou à travers
les époques97. La description des techniques associées de lexicométrie
94. Selon les termes officiels de Google, la saisie automatique permet d’alléger la saisie, corriger
l’orthographe, réitérer d’anciennes recherches (mémorisées par le moteur lorsque les requêtes
sont effectuées avec un compte d’utilisateur) ou encore découvrir de nouvelles informations –
voir : http://support.google.com/websearch/bin/answer.py?hl=fr&answer=106230. En pratique,
la « saisie semi-automatique » ne se réduit pas à une question de saisie (qu’il faudrait faciliter
ou corriger à la volée), mais fait se rencontrer des mots, accompagnés de leur sens. Google a été
récemment condamné au Japon pour une saisie semi-automatique embarrassante, associant
automatiquement le patronyme d’un homme au nom d’un groupe de malfaiteurs condamné pour
des viols en série (source : dépêche AFP du 16 avril 2013). Pour plus d’informations sur la question
de la l’économie de la langue, voir la section « Cotation et marché linguistique de l’écriture » en
page 316.
95. Ici aussi, le site dCode fournit de très nombreux outils que l’internaute peut expérimenter
en ligne : ces outils vont des simples solveurs pour les jeux de lettres (mots-croisés, Boggle,
anagrammes, etc.) aux outils avancés de recherche d’expressions régulières (http://www.dcode.fr/
recherche-de-mots.html) et d’expressions rationnelles (http://www.dcode.fr/regexp-expressionsrationnelles.html) consistant, entre autre, à chercher des mots en fonction de la position de
certaines lettres ou en fonction de leur formatage (par exemple une date, une adresse mail, une
balise HTML, etc.)
96. de Saussure Ferdinand, 1916. Cours de linguistique générale. Édition originale : 1916 (posthume),
édition 1979 : Payot, Paris
97. De fait, la question de savoir « comment on parle » à une époque ou dans un contexte donné
est indissociable des sujets débattus et des mots utilisés.
164
dépasse le cadre de ce travail. À titre d’illustration, la Figure 51 présente le
travail d’Étienne Brunet sur la proximité lexicale des œuvres de Molière,
Corneille et Racine (ce travail questionne notamment la thèse selon
laquelle certaines pièces de Molière auraient été écrites par Corneille).
En dressant les listes de lemmes98 utilisés dans chacune des pièces et en
comparant ces listes deux à deux, l’ordinateur permet de mesurer des
distances entre les œuvres et d’apprécier les ressemblances lexicales entre
les auteurs et leurs productions (Brunet, 2004).
Figure 51 : Analyse arborée de la distance lexicale mesurée parmi les œuvres de
Molière, Corneille et Racine. Le traitement statistique opéré par ordinateur sur les
milliers de lemmes de plus de soixante-dix œuvres permet de représenter, sous forme
arborescente, les ressemblances entre les œuvres et d’identifier les proximités lexicales
des trois auteurs (Brunet, 2004)
98. un lemme est une unité sémantique qui, pour faire simple, fait l’objet d’une entrée dans le
dictionnaire : un nom commun au singulier, l’infinitif d’un verbe, un adjectif au masculin singulier,
etc.
165
Ce type de travail démontre le potentiel de l’outil informatique dans le
traitement de l’écrit et l’analyse des pratiques de langage associées. En
s’appuyant sur les dizaines de millions de livres numérisés au titre du
projet Google Books (soit 125 millions de livres numérisés au début des
années 2010), Google met à la disposition de l’utilisateur l’outil Ngrams,
permettant de mesurer la fréquence d’utilisation des mots à travers les
époques (cf Figure 52).
Figure 52 : Analyse conjointe des mots « électrique » et « électronique » dans l’interface
Ngrams de Google. Les courbes traduisent la fréquence d’apparition de chacun de
ces mots année par année (la fréquence d’un mot au cours d’une année donnée est
mesurée à partir des livres datés de cette année dans le fonds Google Books).
Dans cet esprit, une analyse fréquentielle à grande échelle a été menée
par une équipe de chercheurs de l’université de Harvard (Lieberman et al.,
2007, cités par Yong, 2010 et de La Porte, 2013)99. La richesse du corpus
constitué par Google Books fournit une matière très riche pour procéder à
à une étude diachronique des changements de langue, de la notoriété –
99. voir aussi (Michel et al., 2011) et le site de cette équipe de chercheurs à l’adresse : http://
www.culturomics.org
166
ou au contraire de la censure – dont certains mots font l’objet et, en un
sens, de la culture humaine100. D’une certaine manière, ce type d’étude
rejoint le travail de Golan Levin (2002) sur la fréquence d’apparition
des nombres sur la toile (cf page 156) : le traitement statistique fait
émerger des tendances qui, ici associées au contenu sémantique des
mots, raconte la manière dont on écrit, et finalement dont on parle101.
Cela étant, l’analyse fréquentielle des corpus reste limitée par les données
utilisées et par leur mise en œuvre statistique. Outre le fait que le corpus
n’est pas forcément représentatif de la culture102, les auteurs de cette
recherche pointent le fait que l’analyse fréquentielle décontextualise le
mot : elle ne prend effectivement pas en compte la manière dont le mot
est utilisé dans la phrase – seule son occurrence est relevée.
Cette limite est révélatrice du fossé qu’il existe entre le traitement du mot
et celui de la phrase. De fait, la phrase reste une structure grammaticale
difficile à décortiquer. Les applications associées de TALN, telles que
la traduction automatique ou le résumé automatique (sans parler des
agents conversationnels), ne permettent pas encore de produire des
textes avec autant de pertinence et de nuances qu’un être humain103.
À défaut de supplanter l’homme, l’ordinateur met à disposition des
outils qui répondent néanmoins à des usages circonscrits. Par exemple,
dans l’environnement web, les outils de traduction automatique
100. En référence à la génomique – science dédiée au décodage du génome humain – l’équipe de
recherche a donné le nom de « culturomique » à ce champ d’étude.
101. Les résultats de cette étude, circonscrite à la langue en anglaise, mettent en évidence des
changements notables. Entre autre :
– la langue anglaise s’enrichit : le nombre de mots a presque doublé en un siècle ;
– la grammaire évolue : 16% des verbes sont devenus réguliers en deux siècles ;
– les années sont peu mentionnées dans les livres avant leur survenue, puis sont différemment
citées dans la durée lorsqu’elles entrent dans le passé ;
– la durée de la notoriété diminue : une personne célèbre l’est plus aujourd’hui, mais moins
longtemps ;
– certains mots ont des fréquences d’occurrence très variables en fonction des époques (par
exemple : les champs lexicaux de la politique, de l’alimentation, des sciences, etc.)
102. Même si le corpus tend à l’exhaustivité, les productions imprimées des siècles passées sont
limitées à un petit nombre d’auteurs. Aussi, pour être rigoureux, faudrait-il prendre en compte les
productions manuscrites sous toutes ses formes.
103. Le traitement de la phrase – et plus généralement du texte – se heurte notamment aux
ambiguïtés lexicales dont un simple dictionnaire ne peut venir à bout (polysémie, homonymie), aux
difficultés grammaticales de la langue (notamment à l’identification des pronoms) et, bien sûr, à
l’interprétation du contexte. Dans le cas du résumé automatique, la difficulté réside notamment
dans le discernement des assertions, des exemples et des opinions. Dans le cas de la traduction
automatique, ces problèmes sont doublés car l’ordinateur doit gérer simultanément deux langues.
167
« dégrossissent » le sens des textes rédigés dans des langues inconnues et
les outils de résumé automatique opèrent, dans une certaine mesure, un
premier tri des informations.
Actuellement, le traitement du langage à l’échelle du texte ou de la phrase
est efficace lorsque les structures grammaticales restent bien maîtrisées.
La méthode de text-spinning en est une bonne illustration : s’agissant de
diffuser le plus largement possible un texte sur la toile tout en évitant
les redondances (celles-ci sont souvent ignorées par les moteurs de
recherche104), le text-spinning consiste à générer semi-automatiquement
des variations d’un même texte en remplaçant ponctuellement certains
mots par des synonymes. Pour cela, l’internaute rédige son texte en
utilisant des balises qui font apparaître la structure des phrases et en
isolant des mots pour lesquels il fournit des listes de synonymes105. Cette
structure est alors interprétée par un code, lequel opère arbitrairement
des choix parmi les listes de synonymes pour produire une nouvelle
occurrence du texte (cf Figure 53).
Figure 53 : La syntaxe du spinning fonctionne par imbrications. Dans cet exemple, les
trois alternatives codées entre accolades produisent six occurrences approchantes
d’une même phrase (d’après le site b1n.sp1n, Content Spinning : Qu’est ce qu’un spin ?
Définition et algorithmie. http://b1n.sp1n.me/seo/content-spinning-est-spin-definitionalgorithmie.195.html)
104. Google met cependant en œuvre des algorithmes pour détecter les contenus créés par text
spinning et les déprécier dans ses résultats de recherche : « Tout contenu proposé sur un site
web doit être avant tout être créé pour les utilisateurs et non pour les moteurs de recherche. Le
"content spinning" n’offre rien de nouveau aux internautes (si ce n’est un contenu déjà existant,
rendu illisible) et est clairement destiné aux moteurs de recherche plutôt qu’aux utilisateurs. Par
conséquent, des actions peuvent être prises sur les sites qui proposent ce genre de contenus et de
pratiques. Il en va de même pour tout contenu réécrit, traduit automatiquement, ou modifié de
façon à vouloir le faire apparaître comme unique au robot Googlebot. » (source : Andrieu Olivier,
2011. Google et le Content Spinning (Questions/réponses avec Google #13). Site Internet Abondance,
billet du 3 juin 2011. http://www.abondance.com/actualites/20110603-8966-google-et-lecontent-spinning-questionsreponses-avec-google-13.html)
105. Cette syntaxe est codifiée par un système de balises et de séparateurs que de petits outils en
ligne permettent de manipuler facilement – voir par exemple EffiSpin, Uspin ou Content Spinner.
168
Cette façon d’envisager l’écriture s’appuie sur les possibilités de calcul
de l’ordinateur pour valoriser une forme d’efficacité du texte et de son
contenu au détriment de l’expression elle-même. Cette notion d’efficacité
peut répondre à différentes motivations. Le text-spinning valorise ainsi
la volonté de contourner les algorithmes des moteurs de recherche pour
augmenter la visibilité d’un contenu sur la toile. Dans un autre registre,
les possibilités combinatoires de l’ordinateur peuvent servir la narration
et introduire un paramétrage du texte par le jeu des substitutions106. Dans
ce type d’applications, la question n’est pas tant de produire du langage
naturel que de s’appuyer sur la puissance de calcul de l’ordinateur pour
explorer une forme programmatique de l’écriture.
Les moteurs de l’écriture
La frontière entre les outils d’assistance à l’écriture et l’écriture ellemême est ténue. En dehors des usages qui invoquent les algorithmes
pour résoudre des problèmes ponctuels d’écriture, l’ordinateur offre un
environnement programmable dans lequel l’algorithme est lui-même
source de création. En marge des travaux réalisés en informatique et
en intelligence artificielle pour améliorer le traitement automatique du
langage naturel, le code offre une plastique à l’écriture que les écrivains,
les artistes et désormais les internautes s’emparent aujourd’hui pour
explorer les nouvelles dimensions de l’écriture.
Avant l’apparition et la diffusion de l’outil informatique, les avantgardes littéraires et artistiques expérimentent « manuellement » cette
plasticité à travers des textes dont les structures combinatoires semblent
inviter tout naturellement à une adaptation informatique107. En
France, ce mouvement est porté par l’OuLiPo – « Ouvroir de Littérature
Potentielle » : ce collectif d’auteurs et de mathématiciens, créé au
début des années 1960 par Raymond Queneau et François Le Lionnais,
expérimente la « littérature potentielle », c’est-à-dire les structures
106. Cavazza (2010) imagine ainsi la possibilité de « nettoyer » un texte des mots qui pourraient
heurter un lectorat sensible, de changer le point de vue narratif du texte en « basculant » la
personne à laquelle est racontée l’histoire (par exemple basculer d’une narration à la 1e personne
vers une narration à la 3e personne), ou encore de paramétrer les noms propres (personnages,
lieux, etc.) en fonction de l’endroit où le lecteur souhaite localiser l’intrigue.
107. Magné (2000) qualifie de « littérature préinformatique » l’ensemble de ces textes pour la
période antérieure à l’existence et à l’utilisation des ordinateurs.
169
L’OuLiPo et l’écriture sous contrainte
En plus de cinquante ans d’activités, les contraintes explorées par les OuLiPiens se comptent par
dizaines, dont voici quelques exemples.
Le lipogramme
Il s’agit d’écrire un texte en s’interdisant l’emploi d’une ou de plusieurs lettres de l’alphabet. Le
lipogramme le plus célèbre est certainement La Disparition de Georges Perec (1969), écrit
sans la lettre E.
Anton Voyl n’arrivait pas à dormir. Il alluma. Son Jaz marquait minuit vingt. Il poussa
un profond soupir, s’assit dans son lit, s’appuyant sur son polochon. Il prit un roman, il
l’ouvrit, il lut ; mais il n’y saisissait qu’un imbroglio confus, il butait à tout instant sur un
mot dont il ignorait la signification.
Il abandonna son roman sur son lit. Il alla à son lavabo ; il mouilla un gant qu’il passa sur
son front, sur son cou.
Son pouls battait trop fort. Il avait chaud. Il ouvrit son vasistas, scruta la nuit. Il faisait
doux. Un bruit indistinct montait du faubourg. Un carillon, plus lourd qu’un glas, plus
sourd qu’un tocsin, plus profond qu’un bourdon, non loin, sonna trois coups. Du canal
Saint-Martin, un clapotis plaintif signalait un chaland qui passait.
Sur l’abattant du vasistas, un animal au thorax indigo, à l’aiguillon safran, ni un cafard,
ni un charançon, mais plutôt un artison, s’avançait, traînant un brin d’alfa. Il s’approcha,
voulant l’aplatir d’un coup vif, mais l’animal prit son vol, disparaissant dans la nuit avant
qu’il ait pu l’assaillir.
Figure 54 : Extrait de La Disparition, Georges Perec (1969)
170
Le monovocalisme
À l’inverse, le monovocalisme consiste à écrire un texte en bannissant toutes les voyelles sauf
une. Exemples de monovocalismes : What a man! de Georges Perec (1981), Ce fêlé de mec
d’Olivier Salon (2007) ou encore Oh ! L’ostrogoth de Jacques Jouet (1993).
C’est l’été. En béret, spencer en stretch pervenche, veste de tweed empesée genre Hermès
et revers de tweed, bretelles crème, vêtement percé de perles grèges, semelles de crêpe
légères, Serge est en Grèce. Serge rêve de belles femmes, de déesses et d’êtres de légende,
tels Hélène, Hermès, Égée, Thésée et Enée. Bref, Serge recherche Hélène et les mecs ! Ses
errements le mènent en Crète. Près des cendres de Médée, Serge repère Greg, bel éphèbe,
genre berbère, et le hèle.
Figure 55 : Extrait de Ce fêlé de mec, Olivier Salon (2007)
L’anagramme
Dans un poème anagrammatique, tous les vers sont composés avec exactement les mêmes
lettres (les vers sont les anagrammes les uns des autres).
Tristes tropiques – La pensée sauvage
pesés ratés – logiques épaves – un trait
– visages atlantiques et repos épurés
signes soue et presque piste l’avatar
qu’ils seront – vagues étapes piratées.
Figure 56 : Anagramme de Michelle Grangaud (In OuLiPo (collectif), 2002. Abrégé de
Littérature Potentielle. Éditions des Mille et Une Nuits)
171
La méthode S+7
Cette méthode consiste à remplacer chaque substantif (ou chaque verbe, chaque adjectif) par
le septième substantif (resp. verbe, adjectif) situé sept positions plus loin dans le dictionnaire.
L’étranger
L’étreinte
– Qui aimes-tu le mieux, homme
enigmatique, dis ? ton père, ta mère, ta
soeur ou ton frère – Je n’ai ni père, ni mère, ni soeur, ni
frère.
– Tes amis ?
– Vous vous servez là d’une parole
dont le sens m’est resté jusqu’à ce jour
inconnu.
– Ta patrie ?
– J’ignore sous quelle latitude elle est
située.
– La beauté ?
– Je l’aimerais volontiers, déesse et
immortelle.
–L’or ?
– Je le hais comme vous haïssez Dieu.
– Qui aimes-tu le mieux, homochromie
ennéagonale, dis ? ta perfection, ton
mérinos, ta soif ou ton frétillement ?
– Je n’ai ni perfection, ni mérinos, ni soif,
ni frétillement.
– Tes amidons ?
– Vous vous servez là d’un paros dont
la sensiblerie m’est restée jusqu’à ce
jouteur inconnu.
– Ton patron ?
– J’ignore sous quel laudanum il est
situé.
– Le bécard ?
– Je l’aimerais volontiers, défaut et
immortel.
–L’orangeade ?
– Je la hais, comme vous haïssez
Différenciation.
– Eh ! qu’aimes-tu donc, extraordinaire
étreinte ?
– J’aime les nucléarisations… les
nucléarisations qui passent… làbas… là-bas… les merveilleuses
nucléarisations !
– Eh ! qu’aimes-tu donc, extraordinaire
étranger ?
– J’aime les nuages... les nuages
qui passent... là-bas... là-bas... les
merveilleux nuages !
Figure 57 : L’étreinte (contrainte S+7, appliquée à L’Étranger de Charles Baudelaire, 1869.
Petits poèmes en prose, I) par Jean Lescure en 1961 (source : http://www.oulipo.net/
contraintes/docs/s-7)
172
Les locutions introuvables
Une locution introuvable s’obtient en croisant ou en imbriquant des fragments de locutions
familières.
–
–
–
–
–
–
–
–
–
tirer le diable en Espagne
bâtir des châteaux par la queue
tuer la poule dans le plat
tuer la poule devant les bœufs
tuer la poule sur le feu
comme un chien dans un bas de soie
chien qui aboie vendredi dimanche est à moitié pardonné
la nuit, tous les rois sont nus
il faut battre la campagne tant qu’elle est chaude, etc.
Figure 58 : Locutions introuvables (In OuLiPo (collectif), 2002. Abrégé de Littérature
Potentielle. Éditions des Mille et Une Nuits)
Le lecteur trouvera un répertoire de plus de 130 contraintes dans le site du collectif, à l’adresse :
http://www.OuLiPo.net/contraintes
173
littéraires susceptibles de produire de la littérature en quantités infinies.
Les structures explorées par les OuLiPiens reposent principalement sur
des contraintes, c’est-à-dire des règles et des systématismes d’écriture que
doivent respecter les textes (cf encart p. 170).
Les relations entre mathématiques et littérature, entraînées par l’essor
de l’informatique, conduisent, en 1982, à la création de l’Alamo (Atelier
de Littérature Assistée par la Mathématique et les Ordinateurs) sous
l’égide de Paul Braffort et Jacques Roubaud, eux-mêmes membres
de l’OuLiPo. Ce collectif entreprend d’explorer les relations entre les
contraintes littéraires et l’outil informatique. Il s’inscrit, en ce sens, dans
le prolongement de l’OuLiPo qui avait été fondé en dehors du contexte
informatique.
Portée notamment par ces deux mouvements, la littérature combinatoire
revêt des formes qui invitent à la modélisation mathématique et à
l’implémentation (Magné, 2000).
Monsieur Jourdain :
Par ma foi ! il y a plus de quarante ans que je dis de la prose sans
que j’en susse rien, et je vous suis le plus obligé du monde de
m’avoir appris cela. Je voudrais donc lui mettre dans un billet :
Belle Marquise, vos beaux yeux me font mourir d’amour ; mais
je voudrais que cela fût mis d’une manière galante, que cela fût
tourné gentiment.
[…]
Maître de philosophie : On les peut mettre premièrement comme vous avez dit : Belle
Marquise, vos beaux yeux me font mourir d’amour. Ou bien :
D’amour mourir me font, belle Marquise, vos beaux yeux. Ou
bien : Vos yeux beaux d’amour me font, belle Marquise, mourir.
Ou bien : Mourir vos beaux yeux, belle Marquise, d’amour me
font. Ou bien : Me font vos yeux beaux mourir, belle Marquise,
d’amour.
Monsieur Jourdain :
Mais de toutes ces façons-là, laquelle est la meilleure ?
Maître de philosophie : Celle que vous avez dite : Belle Marquise, vos beaux yeux me
font mourir d’amour.
Figure 59 : Molière, 1670. Le Bourgeois Gentilhomme. Acte II, scène 4 (extrait)
174
Figure 60 : Les 148 feuillets
de Composition n°1 de Marc Saporta
(1962) se lisent dans n’importe quel
ordre et produisent potentiellement
148 x 147 x 146 x (...) x 2 x 1 histoires
(autant dire une infinité) (source de
l’image : Visual Editions. http://www.
visual-editions.com/)
La plus simple d’entre elle – la « littérature factorielle » – fonctionne
sur le principe des permutations. Non content de faire de la prose
sans le savoir, Monsieur Jourdain pouvait aussi se vanter de faire de la
« littérature factorielle » (cf Figure 59). Le roman Composition n°1 de
Marc Saporta (1962), conçu comme un jeu de cartes que l’on peut lire
dans l’ordre que l’on souhaite, reprend ce principe à l’échelle de la page
(cf Figure 60).
Une deuxième forme de littérature combinatoire fait écho à la théorie des
graphes, développée par le mathématicien et OuLiPien Claude Berge au
début des années 1970. La « littérature ambulatoire » consiste à écrire une
narration sous la forme d’une arborescence dont les embranchements
correspondent à des choix de lecture. Un conte à votre façon de Raymond
Queneau (1967) repose sur ce principe : à chaque étape du conte, le
lecteur est invité à choisir entre deux possibilités numérotées d’une
175
alternative et bâtit ainsi son propre récit jusqu’au dénouement (cf la
retranscription du conte en page 237, et le graphe bifurcant ci-après,
en Figure 61).
Figure 61 : Modélisation de Un conte à votre façon (Queneau, 1967) par un graphe
bifurcant. Par le principe des choix que le lecteur doit opérer à chaque proposition,
la lecture du conte consiste à emprunter un chemin du graphe, depuis le nœud n°1
jusqu’au nœud n°21 (source de l’image : Infolipo, Arts et littérature numériques. http://
www.infolipo.org/ambroise/cours/immediat/images/queneau_cavf.pdf)
La littérature « exponentielle », enfin, repose sur le principe des
combinaisons mathématiques et constitue à ce titre la forme de littérature
combinatoire la plus riche et également la plus expérimentée. Elle
consiste à recombiner des fragments de texte préconstruits, à assembler
des phrases extraites d’autres textes ou à compléter des phrases à trous –
le plus souvent de manière aléatoire108 (Bootz, 2006). Cet exercice est
108. La génération combinatoire de texte est un procédé très ancien, qui n’a pas attendu
l’invention de l’ordinateur pour inspirer les poètes et les écrivains : Bootz (2006) cite à ce propos
l’oraison de Jean Meschinot (XVe siècle) dont la combinatoire produit 43 008 litanies différentes.
Au cours du XXe siècle, cette littérature a revêtu des formes très diverses. À la fin des années 1950,
Theo Lutz (1959) produit la première œuvre informatique combinatoire, Stochastische Texte, à
partir de la liste des cent premiers mots du Château de Kafka (les textes générés sont construits
selon des structures prenant en compte la fonction des mots – sujet, verbe, objet, négation,
conjonction, disjonction). Dans le même temps, Nanni Balestrini (1961) recompose des textes
176
complexe, car on ne produit pas aléatoirement une phrase de la même
manière que l’on tire aléatoirement un nombre. La phrase est en effet
régie par une syntaxe que l’écrivain ou le concepteur du programme
doit prendre en compte dans la construction. La machine à écrire, œuvre
créée par l’informaticien québecois Jean Baudot (1964), illustre bien
les contraintes que le programmeur rencontre dans la conception d’un
générateur de phrases. Avant de tirer aléatoirement les mots qui seront
insérés dans la structure (comme dans le remplissage d’une phrase à
trous), le programme doit en effet échafauder cette structure en s’assurant
de sa cohérence syntaxique. Le choix de la structure et des mots ne suffit
pas à produire le texte : le programme doit, en sortie, composer la phrase
en respectant les règles d’écriture (orthographe, accord, élisions, etc.)
Parmi les œuvres de littérature exponentielle produite par l’OuLiPo,
les Cent mille milliards de poèmes de Raymond Queneau (1961) et les
Deux cent quarante-trois cartes postales de Georges Perec (1978a) sont
intéressants tant par la façon dont ils appréhendent la combinatoire que
par les développements informatiques dont ils ont pu faire l’objet après
leur parution.
Les Cent mille milliards de poèmes de Queneau est un livre construit autour
de dix sonnets répartis en dix pages, elles-mêmes découpées en quatorze
bandes horizontales (une bande par vers). Le lecteur compose un poème
en assemblant quatorze bandes sélectionnées une à une parmi les dix
pages (cf Figure 62), ce qui offre un choix parmi 1014 possibilités, soit cent
mille milliards comme le souligne l’auteur avec humour dans la préface
de l’ouvrage : « Ce petit ouvrage permet à tout un chacun de composer
à volonté cent mille milliards de sonnets, tous réguliers bien entendu.
C’est somme toute une sorte de machine à fabriquer des poèmes, mais
aléatoires sur un ordinateur IBM à partir d’extraits de Tao Te King (Lao Tseu), de The Mystery of the
Elevator (Paul Goldwin) et de Hiroshima Diary (Michihito Hachiya). Les écrivains francophones ne
sont pas en reste – citons entre autre :
– les aphorismes de Marcel Bénabou (1980), composés à partir de tirages aléatoires opérés dans
le champ lexical des aphorismes ;
– les maximes issues des Mémoires d’un (mauvais) coucheur de Bernard Magné (1997), qu’un
programme génère aléatoirement à partir de têtes de chapitre de romans du XIXe siècle et de
poèmes de Baudelaire ;
–les Comptines du même auteur (1992), dans lesquelles les mots tirés aléatoirement viennent
s’organiser en des structures empruntant au genre de la comptine enfantine (des extraits de ces
œuvres sont consultables sur le site de Bootz, 2006).
177
Figure 62 : Les Cent Mille Milliards de Poèmes de Raymond Queneau (1961) sont
présentés dans leur matrice virtuelle, prenant la forme de volets que le lecteur feuillette
et agence pour éditer des occurrences de poème. Curieusement, dans la version de
l’œuvre reprise dans l’anthologie de Queneau (collection La Pléiade), seuls les dix
sonnets originels sont reproduits sans possibilité de les manipuler physiquement
(source de l’image : Classes, le site pédagogique de la Bibliothèque nationale de France.
http://classes.bnf.fr/livre/grand/452.htm)
en nombre limité ; il est vrai que ce nombre, quoique limité, fournit de la
lecture pour près de deux cent millions d’années (en lisant vingt-quatre
heures sur vingt-quatre)109».
109. ce qui, si l’on effectue le calcul à l’envers, consiste à consacrer soixante-trois secondes par
sonnet
178
En déclinant chacune des bandes selon une scansion et une rime donnée,
Queneau assure la régularité de tous les sonnets potentiellement
éditables par le lecteur. Bien que les dix sonnets originels présentent
chacun une cohérence lexicale, l’intérêt de l’œuvre réside dans la création
aléatoire de nouveaux poèmes et le mélange des dix univers pré-écrits par
Queneau. En ce sens, Cent mille milliards de poèmes préfigure la littérature
combinatoire assistée par ordinateur, dans laquelle l’ordinateur est
utilisé pour sa capacité à gérer des bases de données – ici des « bases de
vers », dans lesquelles l’ordinateur vient piocher aléatoirement pour
former un nouveau poème, comme le ferait le lecteur en sélectionnant
quatorze bandes de papier au hasard110. Dans ce processus, l’ordinateur
agit comme un simulateur : il n’écrit pas un poème à proprement parler,
mais il permet de produire un texte selon les règles que lui a apprises
l’auteur. De nombreuses versions des Cent mille milliards de poèmes ont
été réalisées quelques années après leur parution. La première d’entre
elles, orchestrée par l’OuLiPien Paul Braffort à l’exposition Europalia
Figure 63 : Adaptation à l’écran des Cent mille milliards de poèmes de Raymond Queneau
par Tibor Papp (1989a). Chacun des dix sonnets est associé une couleur et à une lettre
(de a à j). Grâce aux touches du clavier, le lecteur peut procéder à un tirage aléatoire
ou changer un vers en spécifiant son rang et la lettre du sonnet dont il veut l’extraire
(source de l’image : Bootz, 2006)
110. Le lecteur peut consulter une version numérique de l’œuvre de Queneau sur le site Bibm@th
(renseigné avec la référence de l’œuvre en fin d’ouvrage). Cette version permet non seulement de
sélectionner manuellement les vers (reprenant ainsi le principe des volets) mais également de laisser
le soin à l’ordinateur de procéder aléatoirement à cette sélection grâce au bouton « Ordi ! »
179
de Bruxelles en 1975, marque l’entrée de la littérature française dans
l’environnement numérique. Parmi les autres adaptations à l’écran,
citons la version de Tibor Papp (1989a, cf Figure 63) et celle d’Antoine
Denize dans son CDRom Machines à écrire (1999) consacré aux procédés
littéraires de l’OuLiPo111. Dans cette adaptation, Denize propose des
modes d’exploration hypermédiatiques que seul l’environnement
numérique rend possibles : entre autre, le mode « Chrono » sélectionne
une occurrence à partir d’une règle de calcul sur l’heure affichée par
l’ordinateur, le mode « Perso » calcule un poème à partir d’un mot entré
par le lecteur (par exemple son prénom) et le mode « Bingo » propose
au lecteur de reconstituer les sonnets originaux à partir d’occurrences
mélangées sur un principe proche du jeu de Mastermind.
Bien que reposant sur une règle combinatoire analogue aux Cent mille
milliards de poèmes, le projet d’écriture programmatique Deux cent
quarante-trois cartes postales en couleurs véritables (1978a) de Georges
Perec s’en distingue clairement par la manière de mettre en scène cette
règle. Tandis que Queneau offre potentiellement à voir ses milliards de
poèmes, Perec écrit toutes les cartes postales et actualise de fait toutes les
combinaisons du programme : la littérature « potentielle » devient, en ce
sens, une littérature « exhaustive ».
Pour créer une carte postale (cf Figure 64), l’écrivain détermine, dans
l’ordre, les cinq entrées que sont la localisation, les considérations, les
satisfactions, les mentions et les salutations. Pour chacune des entrées, il
a le choix entre trois possibilités, organisées dans un tableau :
111. Ce CDRom propose un parcours dans les différents procédés littéraires de l’OuLiPo autour
de sept ensembles : « la littérature factorielle », « un texte peut en cacher un autre », « la littérature
exponentielle », « la littérature ambulatoire », « les précurseurs », « écrire est une combinatoire »
et un index. Il n’est malheureusement plus édité et reste quasiment introuvable sur le marché de
l’occasion. Certaines médiathèques le proposent en consultation. À défaut, le lecteur pourra en
avoir un aperçu assez détaillé sur le site du laboratoire NT2 (renseigné avec la référence du CDRom
en fin d’ouvrage). Antoine Denize s’est par ailleurs intéressé à d’autres dimensions de l’écriture
programmatique. Le lecteur trouvera sur son site personnel des expérimentations plus récentes,
telles que la Machine à rimes, petite fabrique multimédia de comptines (Denize, 2000).
180
et associées à des lettres :
Chacune des cinq étapes donnant lieu à trois choix, le programme
d’écriture débouche sur 3 x 3 x 3 x 3 x 3 = 243 combinaisons possibles.
Le matériau linguistique (les toponymes, les champs lexicaux, etc.) sont
déterminés par Perec à partir de listes alphabétiques de noms de villes,
de régions et d’hôtels ainsi que d’expressions propres au genre112. Afin
d’éviter les répétitions dans l’énumération raisonnée des combinaisons,
Perec brouille les pistes en sélectionnant les amorces et en ordonnant
les combinaisons à partir de critères en apparence aléatoires, mais
en réalité fortement structurées par des règles mathématiques113.
Nous campons près d’Ajaccio. Il fait très beau. On mange bien. J’ai pris un coup de soleil.
Bons baisers.
Figure 64 : Première des Deux cent quarante-trois cartes postales en couleurs véritables de
George Perec (1978a)
112. En particulier, Perec crée chacune des listes de 81 noms (villes, régions, hôtels) à partir de
trois alphabets de 27 lettres – un alphabet de 27 lettres étant produit en doublant aléatoirement
une des 26 lettres de l’alphabet – et établit une liste de 9 amorces (« nous campons près de… »,
« nous avons atterri à… », « nous voilà à… », « une lettre de… », « un grand bonjour de… », « nous
voici à… », « un petit mot de… », « dernières nouvelles de… », « nous avons planté nos piquets à
côté de… »).
113. On retrouve ici le goût de l’OuLiPo pour la modélisation mathématique des problèmes
posés par la littérature potentielle – et, en perspective, toutes les ouvertures que celle-ci offre
dans l’environnement numérique. Partant des 243 combinaisons de lettres rigoureusement
énumérées par un arbre décisionnel, Perec leur associe alternativement chacune des 9 amorces
qu’il a auparavant « mélangées » grâce à un protocole construit à partir de carrés magiques. Perec
mélange à leur tour les 243 combinaisons en les sélectionnant de 5 en 5 jusqu’à épuisement.
Ces règles peuvent être consultées en détail sur le CDRom de Denize (1999) et sur le site de
l’enseignant Jean-Marc Muller « Écrire ensemble des cartes postales : mais d’où venait donc
l’idée ? », à l’adresse : http://j-marc.muller.pagesperso-orange.fr/perec_commentcp.htm
181
Par exemple, la combinaison ALCIJ correspond à la contrainte
Ville + Bronzage + Nourriture + Activités + Pensées, à partir de laquelle
Perec construit la carte postale n°98 : « Un petit mot de Quimperlé ! On
se dore au soleil. Fruits de mer à gogo. J’ai appris à faire les crêpes. Mille
pensées. »
De par leur caractère exhaustif, les Deux cent quarante-trois cartes postales
questionnent la manière de présenter des combinaisons, tant dans la
linéarité du papier – à la faveur des règles mathématiques que Perec
met en œuvre pour produire un mode exploratoire singulier – que dans
l’interactivité de l’environnement numérique. Dans son CDRom Machines
à écrire (1999), Antoine Denize expérimente une adaptation consistant
à associer aléatoirement une illustration à chacune des cartes. Au lieu
de proposer des associations fixes, Denize imagine un dispositif dans
lequel les éléments de l’illustration de la carte sont générés aléatoirement
à chaque visionnage114 (cf Figure 65). Premier plan, second plan, ciel,
couleurs, bordures et mentions sont ainsi piochés dans des bibliothèques
graphiques, en respectant des contraintes visuelles et thématiques en
relation avec le contenu de la carte.
Ces jeux combinatoires – pourtant initiés en dehors de l’environnement
numérique – traduisent une forme d’attraction pour le nombre et la
puissance du calcul dans les processus de production et de création
littéraire (cf encart p. 184).
Le nombre n’est cependant pas la seule manifestation du programme :
celui-ci se révèle également par sa capacité à reproduire les processus
mentaux. Portée dans les années 1980 par l’auteur français Jean-Pierre
Balpe115, la génération automatique de textes constitue le deuxième versant
de la littérature générative. Contrairement à la génération combinatoire
qui explore les combinaisons produites par la sélection aléatoire de mots
114. Le site mentionné en bas de page 181 donne un aperçu du travail de Denize sur les cartes
postales de Perec. À défaut de pouvoir les lire ou d’en apprécier cette adaptation numérique, le site
amateur http://243postcards.canalblog.com en propose une interprétation visuelle, construite à
partir de contraintes plus simples (en l’occurrence, les illustrations – extraites du web – ont pour
simple obligation d’établir un rapport avec le texte).
115. Balpe étudie la génération automatique de textes dès 1975, et se consacre dans un premier
temps à la poésie dont les contraintes sémantiques sont moins complexes que la prose. Lors de
l’exposition Les Immatériaux au Centre Pompidou en 1985, il propose au public d’interagir avec un
générateur automatique. Plus de 30 000 textes sont produits et imprimés lors des trois mois et
demi qu’a duré l’exposition. Paradoxalement, les programmes à l’origine de ces textes n’ont pas été
archivés par les organisateurs de l’exposition. Ce choix pose en filigrane la question de l’œuvre : se
situe-t-elle dans le texte produit (et imprimé ou archivé) ou dans le dispositif (et dans sa mise en
scène) ? (Bootz, 2006)
182
Figure 65 : Une carte postale de Perec, interprétée par les « machines à écrire » de
Denize (1999). Le contenu textuel de la carte oriente le choix du programme parmi une
collection d’éléments graphiques, allant de l’aspect du ciel à la mention manuscrite de
la carte.
183
La combinatoire, à l’interface du nombre
et de la production littéraire
La rencontre entre le systématisme du programme et la dimension créatrice de l’écriture
confère à la littérature combinatoire des statuts variés, selon la manière dont le nombre est mis
au service du texte. (Barras, 1998) identifie à ce propos trois attitudes face à la combinatoire –
trois modalités qui éclairent la dimension programmatique de l’écriture.
Le « déni du nombre » consiste, pour l’auteur, à dénicher les « heureux hasards » de la production
de l’ordinateur noyés sous une masse indistincte de déchets (Levin, 1963). Il s’agit de
sélectionner pour extraire un résultat consistant : en réduisant la quantité à la qualité, l’auteur
intervient pour enlever le bruit statistique produit par la combinatoire et faire émerger le sens.
L’outil est ici envisagé dans son rapport à l’unité textuelle traditionnelle.
Le « fantasme de totalisation » consiste à assumer les nouvelles formes induites par l’ordinateur
et répondre à la consommation de masse par la production de masse. Il s’agit d’épuiser le stock,
d’exploiter de manière exhaustive les possibilités de l’ordinateur pour faire coïncider la quantité
à un art de consommation. Avec ce protocole, les occurrences produites par le générateur
s’invalident les unes après les autres, elles n’existent qu’à travers l’enchaînement et le rythme,
et font disparaître le sentiment de perte liée à l’unicité puisque la génération est inépuisable : la
totalité du sens de l’œuvre est « capitalisée » par l’ensemble des possibles.
Le « fantasme de continuité », enfin, se situe à mi-chemin entre le déni et le fantasme du
nombre. Il consiste à évoquer explicitement le nombre dans la mise en scène de l’œuvre. Tout en
exigeant du lecteur un recul, une forme de dérision, ce protocole donne du sens au nombre et
conduit l’auteur à imaginer des stratégies de médiation pour le « théâtraliser », tant dans les titres
(Cent mille milliards de poèmes, Un peu plus de 4000 poèmes en prose, Éternité d’épithalames...)
que dans la numérotation (Poème no. 25.211, Tirage [16r] [9v] [4v] [18r] [1r] [13r] [8v] [15r] [5r]
[20r], Palabras 23.432 a 23.584 del texto no. 657, Chapitre 37 page 2703...) Il s’agit bien d’un
fantasme en ce sens que l’on souhaiterait que « la production littéraire ne cesse jamais, que le
texte, à l’infini, éternellement, engendre du texte » (Balpe, 1993).
184
ou de fragments de texte dans une structure prédéfinie, la génération
automatique prend en charge la syntaxe du texte en intégrant les règles
d’assemblage des mots dans l’algorithme. La génération automatique
n’a pas pour objet d’épuiser toutes les combinaisons d’un texte, mais de
produire une occurrence de texte. L’intégration de règles d’assemblage
complexes dans la génération permet de produire des romans complets
(Balpe s’y attelle dès 1991 – voir l’extrait présenté en Figure 66) ou des
textes « à la manière de »116 (Bootz, 2006).
Ils ont à faire la part des choses, il leur semble que leur tête est pleine de confusion et
de bruits, que le trouble absolu des événements qui les entourent perturbe leur faculté
de penser normalement. Marc, lui, ne parvient pas à faire une différence bien nette
entre souvenir et invention du passé et s’il lui semble par moments que ses souvenirs
relèvent de l’imaginaire, il lui semble aussi que son imaginaire relève du souvenir. Divers
mondes se mélangent dans son esprit créant des confusions de plans et d’espaces : la
fillette d’autrefois est soudainement à ses côtés, avec sa petite robe de velours rose, des
jets d’embruns se projettent vers le ciel comme s’ils voulaient en éteindre la fureur... Il lui
semble avoir déjà vécu plusieurs fois cette même scène, il connaît par avance l’essentiel
des paroles qui vont être dites, des faits qui vont se produire. La réalité a par moments été
si belle, riche, intéressante... Un autre souvenir lui revient soudain en mémoire : quelque
chose comme une chambre ouverte, un crâne d’animal blanchi sur une plage — orbites
pleines de sable — une coquille vidée !
Figure 66 : Extrait de Un roman inachevé (1994), œuvre générative programmée par
Jean-Pierre Balpe. Le passage reproduit ci-dessus est le premier des vingt fragments
de l’histoire de Marc et Cerise (fragments du 20 juin 1995 —14 heures 23-15 heures 11),
p. 3121. Pour apprécier les bifurcations narratives, le lecteur trouvera dans (Balpe,
2000) les dix-neuf autres fragments.
La génération automatique exploite explicitement les possibilités de
l’outil informatique : elle envisage le texte comme un matériau qui n’est
plus figé, un flux sur lequel peuvent être mises en œuvre des techniques
génératives propres à l’informatique (processus aléatoires, arborescences,
etc.) Au-delà des schémas génératifs consistant à « customiser » les
116. Balpe relate à ce titre l’anecdote qu’il a eue avec un collègue spécialiste de Flaubert : « Je lui
avais fait lire une page générée et il m’avait dit : "oui, c’est du Flaubert, mais je n’arrive pas à savoir
de quel texte". Il était très embêté car il connaît Flaubert par cœur. »
Balpe Jean-Pierre, 1994. Débat. In Bootz, Philippe (dir.), A:\LITTÉRATURE  Villeneuve-d’Ascq :
Mots-VOir et Gerico-Circav, université de Lille 3, 98
185
éléments du roman (Balpe parle de « variations de décor ») ou à offrir
au lecteur des options parmi une arborescence préétablie par l’auteur
(à l’image des Livres dont on est le héros), Balpe démontre que l’ordinateur
peut intégrer la gestion des possibles dans l’assemblage des éléments et
opérer des bifurcations narratives. Par ce principe, l’ordinateur « ouvre »
la trajectoire de la fiction et entraîne l’auteur vers des possibles qu’il
n’aurait pu imaginer autrement. Pour ce faire, la génération de fiction
par ordinateur repose sur l’agencement de prototypes – en quelque sorte
des « briques » représentant des personnages, des lieux, des événements...
Ce processus est fortement contraint par la syntaxe de la langue et
par la nécessité de produire des textes cohérents117 en regard d’une
« encyclopédie pragmatique » que le lecteur est supposé détenir (Balpe,
2000).
L’introduction de contraintes – qu’elle soient gérées ou non par une
machine – offre finalement un cadre pour imaginer de nouvelles
formes de langage et d’expression, pour faire sortir la littérature d’une
conception traditionnelle que Perec pointait déjà dans son Histoire du
lipogramme : « L’histoire littéraire semble délibérément ignorer l’écriture
comme pratique, comme travail, comme jeu. »118 Les contraintes posent,
en creux, la question de la contribution humaine dans l’écriture, et ce
d’autant plus lorsque celles-ci sont assumées par un ordinateur. D’une
certaine manière, « faire faire » de la littérature à une machine devrait
être considéré comme un sacrilège puisque, en un sens, on confie
la part de l’humain – de la création – à la machine. Dans ce débat, le
positionnement de Jean Baudot et de son œuvre La machine à écrire
(déjà évoquée en page 177) est singulier : par le choix de rassembler
les textes produits aléatoirement dans un recueil papier, il associe la
notion d’œuvre au recueil et non au générateur à l’origine des textes.
Cela étant, la majorité des expérimentations de littérature assistée par
ordinateur placent l’exploration des possibilités combinatoires de l’outil
informatique au centre du dispositif et relèguent, en ce sens, l’ordinateur
au rang de « prothèse mentale119 ». Pour Bootz (2006), l’automatisation
117. Partant d’éléments généraux codés informatiquement, le générateur automatique doit en
pratique procéder à un travail de réduction, c’est-à-dire convertir ces différents éléments en un
énoncé en langage naturel dans lequel ne réside plus aucune incertitude linguistique. Il s’agit
ainsi de passer d’un « ensemble d’états non-finis » (la collection initiale d’éléments ouvrant une
multitude de possibles) à une « chaîne d’états finis » (le texte lui-même) (Bootz, 2006).
118. in OuLiPo (collectif), 1973. La littérature potentielle (Créations Re-créations Récréations). Paris,
Gallimard, p. 79 (cité par Magné, 2000)
119. pour reprendre le mot d’Abraham Moles, 1971. Art et ordinateur. Tournai : Casterman,
réédition : Paris : Blusson, 1990 (cité par Bootz, 2006)
186
déplace de fait l’activité littéraire vers de nouvelles problématiques, qui
étaient parfois inaccessibles sans l’aide de la machine. L’acte créateur
réside dans l’implémentation du programme dans la machine : pour
reprendre la figure du robot-poète évoquée (et redoutée) par Boris
Vian120, « le véritable auteur n’est pas le robot-poète mais le concepteur
du robot-poète ». Enfin, pour Weissberg (2000), qui porte son regard sur
l’écriture générative et les travaux de Jean-Pierre Balpe, le concepteur du
programme se situe encore plus en retrait : il « ne fait que » engendrer des
théories d’œuvre et ne participe pas à proprement parler à la production
de sa littéralité.
À des degrés divers, l’intrusion de l’ordinateur dans la production
littéraire met le lecteur aux prises avec la difficulté de distinguer
l’intentionnalité du créateur de ce qui relève de la production
automatique. Cette interrogation, palpable dans le domaine de la création
littéraire, a tendance à s’estomper dans l’environnement numérique
actuel fortement imprégné de la présence des robots, notamment sur
le web121. Pour Paloques-Berges (2012), les ressorts de la production
de textes (assistée) par ordinateur sont explicites pour le lecteur averti,
tant les textes produits sont soit trop évidents, soit trop obscurs122. Les
générateurs automatiques qui fleurissent sur Internet sont des exemples
éloquents de moteurs « évidents », dont le lecteur n’attend d’autre
production que d’heureux hasards – la fameuse « sérendipité » propre à
la toile que l’on pourrait relier au « désir du nombre » évoqué par Barras
(1998) (cf encart p. 184).
Le « Pipotron », déjà présent sur la toile dans les années 1990, est un
exemple de générateur automatique produit par la rencontre de l’écriture
combinatoire et de l’environnement Internet. Par la combinaison de
mots et de tournures galvaudés, le Pipotron génère des phrases « creuses »
destinées – en théorie – à toute présentation ou tout travail de synthèse,
120. Vian Boris, 1953. Un robot-poète ne nous fait pas peur. Arts 10-16, avril 1953, p. 219-226
121. L’impact des robots sur la langue – et en particulier sur l’économie de la langue dans
l’environnement web – est détaillé plus avant en page 316.
122. L’ordinateur, lorsqu’il est utilisé pour sa capacité à reproduire et à imiter en respectant
des règles strictes aboutit à des textes peu originaux, confinés dans des cadres pré-déterminés
(génération combinatoire de textes). Par ailleurs, la conversation des robots-parleurs – ou
« chatbots » – qui, dotés d’une intelligence artificielle, tentent de donner le change avec les
humains, démontrent encore aujourd’hui leur incapacité à adapter leur discours à l’interlocuteur.
En se conformant à des situations figées à défaut de comprendre véritablement ce qu’il dit, le robot
produit parfois des séquences étranges.
187
Figure 67 : Le Pipotron génère des phrases pour « personnes en manque d’inspiration »
en combinant neuf blocs dans une phrase pré-construite. L’internaute peut demander
au moteur de produire une phrase aléatoirement ou choisir lui-même chacun des neuf
blocs.
pourvu qu’ils évoquent la « situtation actuelle » et ses « perspectives ». La
version du Pipotron présentée en Figure 67 est intéressante car elle révèle
les rouages du moteur.
De très nombreux générateurs reprennent le principe combinatoire du
Pipotron sur Internet. Le Blablator, « générateur de phrases inutiles et
creuses pour briller en société » produit des textes plus étoffés et plus
abscons. L’opacité du mécanisme sous-jacent et le soin apporté à la mise
en forme graphique (intégration dans la page, utilisation de lettrines,
etc.) soulignent l’absurdité du contenu et des situations ciblées par le
dispositif. Le site Charabia.net « industrialise » le concept en déclinant
plus de 300 générateurs automatiques, investissant non seulement
les champs d’expérimentation chers aux OuLiPiens (générateurs
d’aphorismes, de poésie, de cartes postales) mais également de nouveaux
registres (cf Figure 68).
188
À mi-chemin entre divertissement et utilitaire, le site Samuel L. Ipsum
propose un générateur de Lorem Ipsum123 inspiré des dialogues du film
Pulp Fiction (Quentin Tarantino, 1994) et de son personnage Jules
Winnfield, interprété par Samuel L. Jackson. Loin de se réduire à un
énième générateur à la manière du Pipotron, le Samuel L. Ipsum remplit
son office de faux-texte et présente les avantages supplémentaires d’être
formulé en anglais et d’intégrer des balises HTML pour tester la mise en
page des titres et des paragraphes dans une page web.
Comme le souligne le poète Charles O. Hartman124, « le langage se crée
tout seul à partir d’un simple parasitage statistique » : par sa force de
calcul, l’outil informatique est capable de produire ce bruitage et de
créer des arrangements qui occasionnent une perte de contrôle, propice
à la créativité. La puissance combinatoire de l’outil informatique
n’est cependant qu’une facette des possibilités de l’ordinateur dans le
façonnage de l’écriture. Au-delà de sa capacité à manipuler les lexiques
et à traiter le langage, le code constitue un outil de création en tant que
tel. Il peut en effet devenir matière, être interrogé dans sa capacité à
perturber, altérer voire dérégler les écritures et révéler ainsi l’illusion de la
transparence et l’immatérialité des informations numériques (Stiegler,
2008, cité par Boisnard, 2012).
La première œuvre web de l’artiste français Christophe Bruno s’inscrit
dans ce registre. Sur le site d’Épiphanies, l’internaute est invité à créer
une « épiphanie » à partir d’un morceau de texte qu’il saisit dans un
champ. L’épiphanie est ici à prendre au sens de James Joyce125, c’est-àdire l’assemblage signifiant de conversations captées dans la rue, entre
différentes personnes et différents contextes. Dans l’œuvre de Bruno,
123. Un Lorem Ipsum est un faux-texte « sans valeur sémantique, permettant de remplir des pages
lors d’une mise en forme afin d’en calibrer le contenu en l’absence du texte définitif » (Wikipédia,
Faux-texte) Le Loren Ipsum est traditionnellement écrit en latin pour distraire le lecteur du fond et
attirer son attention sur la mise en forme graphique. Cela étant, il est parfois reproché au latin
de ne pas être toujours représentatif de la longueur des mots et des phrases que l’on emploie
aujourd’hui.
124. Hartman Charles O., 1996. Virtual Muse: Experiments in Computer Poetry. Wesleyan University
Press, 152 p. (cité par Paloques-Berges, 2012)
125. En référence à : Joyce James, 1956 (posth.) Épiphanies. Édition complétée en 1965, traduit de
l’anglais par Jacques Aubert dans Œuvres I, Éditions Gallimard (1982, 1996). « Je reproduis dans
l’Internet l’expérience de Joyce » dit Christophe Bruno. « Je crois que Joyce a eu l’intuition de ce
qu’on pourrait appeler la "globalisation du signifiant". [...] Je considère [...] l’Internet comme un
texte global, et j’y envoie un programme qui en rapporte des bribes de phrases, en fonction de ce
que l’internaute va taper. Plus précisément, l’internaute saisit quelques mots sur une page de mon
site, le programme va chercher des morceaux de phrases en rapport avec ces mots mais provenant
de contextes différents, et cela reconstitue le squelette d’un autre texte. »
189
« Viens voir Mamie » – Générateur de phrases de grand-mère
Ton cousin lui au moins s’est marié ; au fait je t’ai dit que le chien du toubib a été
empoisonné ? Il fallait s’y attendre avec tous ces punks qui trainent dans le quartier...
Enfin comme je dis a la pharmacienne : « ça c’est les jeunes d’aujourd’hui »... Tiens, ma
petite fille serait bien mignonne si elle allait chercher les lunettes de mamie.
« Insulte-o-tron » – Générateur de commentaires d’insultes
Ta soeur te lime les oreilles avec une brosse à chiotte comme un gros porc, pute coagulée.
« Proverbes » – Générateur de proverbes
Qui couche avec la cruche se lève avec l’eau du bain.
« comdeskyblogotron » – Générateur de commentaires de skyblog
slt pour tt seux ki me conesse pa je suis le roi mé je suis sertenement ton genre Komme ils
assurs tro bl avc ca la vie en fait c chanmé la grosse teuf m1tenan je kif tro grave Dlire avc
ca l’affair en fait c chanmé la vibe et...lAcHe T Kom :-)
« Des concepts jeux de rôle à la chaîne ! » – Générateur de concepts de jeux de
rôle
Labyrinthe de la mort est un jeu de rôle uchronique diplomatique qui permet de jouer des
commandos à l’âme possédée par un démon, dotés d’armures symbiotiques et combattant
des cohortes de junkies sans pitié.
« Comptines » – Générateur de comptines pour enfants
Un joyeux lutin
Dansait la java
Sa maman l’appela
Son chapeau tomba
Turlututu et jambe de bois !
« Arplasticotron » – Générateur de débuts de textes critiques en arts plastiques
Claude-Camille Durand-Delair : une supplique initiatique dans le désordre ambiant.
L’installation ex-situ de Claude-Camille Durand-Delair interroge le corps en tant
que paradigme explicite d’une réalité secrète, ou, si l’on préfère, visite la sensation
contemporaine du « ça », considéré comme une nomenclature onirique de l’écosystème
de la sexualité. Évidemment, une visite patiente de son installation interactive, peut
éventuellement (ad lib...)
190
« Contribution littéraire » – Générateur de contributions pour forums de
littérature
Je ne sais pas si je suis sur le bon forum, mais tant pis, je me lance !
On ne peut manquer le dernier Prix Renaudot et je souhaiterais proposer au groupe ce
que j’en ai pensé. Tous les ans, le lauréat est archiconvenu ! Encore un prix purement
politique !
A vous de réagir !
Bonne lecture
-Martine
Écrire est toujours un art plein de rencontres. La lettre la plus simple suppose un choix entre
des milliers de mots, dont la plupart sont étrangers à ce que vous voulez dire. (Alain)
« Jésus-o-Matic » – Générateur de paroles d’évangile
Evangile de Jésus-Christ selon Saint Luc.
Dès le point du jour, Jésus se rendit dans les villes et les villages pour y proclamer et
annoncer la Bonne Nouvelle du royaume de Dieu. Un collecteur d’impôts nommé
Barabbas s’en indigna et lui dit afin de trouver dans ses paroles un motif d’accusation :
– Quel signe miraculeux peux-tu nous montrer pour prouver que tu as le droit d’agir
ainsi ?
Tandis que la foule l’écoutait, Jésus lui répondit :
– Malheur à vous, pharisiens, les anges vous précipiteront dans la fournaise ardente, où
le ver rongeur ne meurt point et où le feu ne s’éteint jamais. Votre condamnation n’en
sera que plus sévère.
Puis, Jésus s’adressa à ses disciples et déclara :
– Si vous obéissez à mes commandements, vous serez jugés dignes de ressusciter d’entre
les morts pour faire partie du monde à venir.
Un jeune homme le suivait, couvert seulement d’un drap. On le saisit, mais il abandonna
le drap et s’enfuit, tout nu.
Acclamons la parole de Dieu !
« haïku-tron » – Générateur d’haïkus
ombre du crépuscule
la neige bruisse
je descends la montagne
Figure 68 : Sélection de textes aléatoires produits avec les générateurs du site
Charabia.net.
191
le morceau de texte entré par l’internaute devient une amorce dont le
moteur s’empare pour composer un texte, à partir de bribes de phrases
récupérées sur Internet via un moteur de recherche126 (cf Figure 69).
L’assemblage des morceaux ainsi récoltés produit une écriture donnant
une épaisseur à des conversations qui semblent se jouer simultanément
sur la toile.
Figure 69 : Dans Épiphanies (2001) de Christophe Bruno, l’écriture est produite par le
travail du code : les morceaux de texte sont récupérés de manière opaque sur le web
(en lien avec le libellé saisi par l’internaute dans la barre de recherche) puis agrégés et
mis en forme comme une conversation dont on ne perçoit que des bribres (source de
l’image : site Internet de Christophe Bruno – Best-of du dispositif Épiphanies.
http://iterature.com/epiphanies/bestof.php)
Dans leur installation En réalités – I am a bugged program, Samuel
Bianchini et Sylvie Tissot (2009) proposent d’explorer le rapport que
le code entretient avec l’écriture, non plus seulement dans sa dimension
applicative, mais également dans sa dimension logique. Le dispositif met
en scène le paradoxe de langage « Je mens » en jouant sur la dualité des
écritures, écriture du code vs écriture à l’écran. Lorsque le programme
fonctionne correctement, le dispositif affiche « I am a bugged program ».
Inversement, lorsqu’il est corrompu, le programme se trouve dans
l’impossibilité d’afficher correctement cette phrase (cf Figure 70). En
mettant en scène un dispositif numérique qui tente d’écrire ce qu’il est –
un programme bugué – tout en étant dans l’impossibilité de le faire,
126. Bien qu’inscrite dans l’environnement web, cette œuvre est présentée ici pour illustrer la
capacité du code à brouiller les écritures. Les spécificités de l’écriture sur Internet sont développées
dans la partie « Matière à assembler – Médiation de l’écriture et stratégies d’organisation » en
page 219.
192
Bianchini et Tissot révèlent une écriture impossible, produite par le
conflit qui se joue dans les différentes strates de l’ordinateur depuis le
niveau symbolique jusqu’au niveau logique127.
Figure 70 : Sur le dispositif En réalités – I am a bugged program de Samuel Bianchini
et Sylvie Tissot (2009), les quatre écrans donnent à voir, de manière synchronisée,
l’énonciation de l’état du programme (langage naturel – niveau sémantique), le
script (langage de l’informaticien – niveau applicatif), le code binaire (langage de
l’ordinateur – niveau logique) et enfin une représentation quantique de l’incertitude
(« valeur de vérité du paradoxe » – niveau symbolique).
127. « Jouant avec des processus informatiques élémentaires tout en les déjouant, cette
installation rend perceptibles et même sensibles les formes temporelles qui habitent ces
dispositifs aujourd’hui quotidiens et renoue avec certains pans de l’histoire de l’art travaillant sur
l’énonciation et ses représentations, en premier lieu, l’Art conceptuel. » (Bianchini et Tissot, 2009)
193