TITRES ET TRAVAUX

Transcription

TITRES ET TRAVAUX
TITRES ET TRAVAUX
Jean-Yves Girard
Institut de Mathématiques de Luminy, UMR 6206 – CNRS
163, Avenue de Luminy, Case 930, F-13288 Marseille Cedex 09
[email protected]
Février 2012
1
Mon projet
En préambule à cet exercice de modestie1 , je vais exposer mon projet. Il s’agit pour une part de
la poursuite d’un programme scientifique personnel —la dualité moniste—, que j’essayerai d’expliquer en termes simples. Il s’agit d’autre part du développement de la logique mathématique
en général, et aussi de l’interface mathématiques/informatique, interface où la logique joue un
rôle stratégique.
1.1
Vers une dualité moniste
Bien que mathématicien, j’ai la chance de travailler dans un domaine qui a toujours affiché, pour
le meilleur comme pour le pire, des prétentions philosophiques. C’est seulement en 1987 que j’ai
conçu un programme qui ne se résume pas à une liste d’exploits à accomplir. Ce programme
de Géométrie de l’Interaction proposait une vue originale de l’activité logique, sur un fort arrière plan mathématique, celui de la théorie de la démonstration. Ce programme était aussi
l’illustration d’un changement de point de vue avec l’abandon des obsessions fondamentalistes
(le pourquoi) au profit d’une approche en apparence plus modeste (le comment) qui suscite la
construction d’un appareillage mathématique beaucoup plus fin2 .
Le problème de fond de la logique est de comprendre ce qu’est une démonstration de A. Pour
cela on cherche un partenaire qui réfère toujours à la négation de A et on construit une dualité
(exprimée sous forme de complétude). Le cas classique, c’est la dualité démonstrations/modèles :
A est démontrable quand sa négation ¬A n’a pas de modèle. Elle relie les démonstrations de A et
les modèles de ¬A dans une dualité frustrante où les deux partenaires s’excluent mutuellement.
On comprend tout de suite que cette position sera difficile et aussi que la dualité est reliée à la
négation.
1.1.1
Premier cercle : le réductionnisme Hilbertien
La conception classique est vraiment dualiste : l’observateur contre le monde. Les démonstrations
(objets finis) sont des observations du monde (les modèles infinis). Cela suppose de clarifier la
relation fini/infini. Hilbert a proposé une conception de l’infini comme limite idéale de processus
finis, ce qui demande des résultats d’approximation. Ce programme échoue, non par impossibilité de l’approximation, mais parce que l’étude de l’approximation elle-même contient un infini
irréductible. C’est le théorème d’incomplétude de Gödel (1931).
Une bonne analogie serait le déterminisme continu en physique : la vision sommaire d’un monde
continu régi par des équations différentielles ne se tient pas complètement, puisque le comportement instable des solutions contredit l’idée de A continuité B.
Après tout, l’impossibilité d’une véritable finitisation est une donnée de bon sens, que l’incomplétude vient fort heureusement étayer. De même, la théorie du chaos ne fait qu’étayer l’impossibilité
évidente de prédire certains phénomènes physiques.
La logique professionnelle ne se situe donc plus du tout dans ce premier cercle. . .
1.1.2
Second cercle : le malaise Gödelien
La plus grande partie de la logique (notamment la théorie des modèles) s’inscrit dans une
conception dualiste, d’où l’infini ne peut vraiment être éliminé : c’est la vision de Hilbert en
1
Ce préambule date un peu ; mais il a la vertu d’expliquer mon cheminement. Pour une vision actuelle de mon
projet, voir la section finale 3.9.
2
La France continentale est connexe parce qu’on peut lier n’importe quelle ville à Paris ; mais ne pas mépriser
la question A comment la France est-elle connexe ? B requiert de construire un réseau de communication beaucoup
moins trivial qu’une simple étoile centrée sur Paris.
1
moins naïf. Une analogie physique pour ce second cercle serait la thermodynamique classique,
qui reste une lecture tout à fait légitime du monde physique. C’est un univers où l’observateur,
réduit à une entité physico-chimique, ne trouve pas sa place : tout comme en logique classique
où les démonstrations peuvent être codées (c’est d’ailleurs le ressort du théorème de Gödel),
sans pour autant recevoir de statut.
On aurait pu dire A d’accord, l’histoire s’arrête là B, si Gentzen n’avait prouvé en 1934 un
théorème d’élimination des coupures dans un formalisme logique de son cru, le calcul des séquents
qui étayait une élimination de l’infini dans le style de Hilbert. . . en contradiction avec l’esprit
du théorème de Gödel. La suite est avant tout idéologique, car les applications que Gentzen fit
de son résultat à l’arithmétique de Peano (en 1936 et plus tard) utilisent une forme très forte
d’infini. . . et donc n’ont jamais éliminé l’infini, sauf pour les vrais croyants.
L’algorithme d’élimination des coupures introduit par Gentzen consistait en une simple technique
de réécriture des démonstrations, permettant d’éliminer les notions infinies dans les théorèmes
à énoncé finitaire ; la convergence de cet algorithme ne pouvant être démontrée qu’au prix de
techniques plus infinies encore que l’infini à éliminer. . . une telle création hybride eut donc une
vie très difficile et en particulier beaucoup de mal à trouver un statut dans le cadre limité de la
dualité démonstrations/modèles.
1.1.3
Troisième cercle : le subjectivisme Brouwerien
L’apport de Brouwer au problème consiste en une rupture avec le dualisme. En effet, pour
Brouwer, le monde extérieur n’existe pas et les démonstrations ne réfèrent qu’à elles-mêmes. C’est
donc une conception moniste, qu’on peut tirer vers le subjectivisme, comme d’ailleurs nous y
invite Brouwer lui-même. Mais ce serait aller bien vite en besogne et les travaux de A sémantique
des démonstrations B qui se sont accumulé depuis 35 ans montrent au contraire que l’interaction
des démonstrations (dans l’esprit de Brouwer, mais avec la technique héritée de Gentzen) n’a
pas du tout la mollesse d’un pur camembert syntaxique : il y a des maths derrière, par exemple
de belles catégories (dites cartésiennes fermées), qui sont une des clefs essentielles de la relation
logique/informatique. C’est le thème du λ-calcul typé qui a profondément restructuré la théorie
de la démonstration. De fait ce troisième cercle ne s’est dépêtré des radotages constructivistes
que récemment, quinze, vingt ans au plus.
Plutôt qu’une régression subjectiviste, il faut mieux voir en l’intuitionnisme une critique du
réalisme naïf, analogue à la théorie de la relativité, qui considère le temps comme la quantification
du mouvement par un observateur.
1.1.4
Quatrième cercle : le retour à la dualité
La vision de Brouwer n’est pas basée sur une dualité, d’ailleurs, il n’y a pas en intuitionnisme
de négation involutive. Ce n’est plus le cas en logique linéaire et la possibilité d’une approche
basée sur une dualité moniste (i.e. entre objets de nature semblable) se dessine. Cette possibilité
m’est apparue quand j’ai commencé à géométriser complètement les démonstrations de logique
linéaire. De fil en aiguille, j’ai énoncé le programme de Géométrie de l’Interaction ou GdI ; il s’agit
d’un renversement conceptuel : traditionnellement, on manipule de la syntaxe (réécriture), ce qui
crée une dynamique purement formelle. Mon point de vue est plutôt : la dynamique préexiste
et la syntaxe (formules, démonstrations etc.) n’est qu’un commentaire sur des objets quasi
A physiques B (et n’est donc pas plus responsable de la dynamique que l’inscription A TNT B
n’est explosive).
La vraie dynamique serait donc recouverte par la réécriture, quoique toujours décelable sous
des couches plus ou moins profondes de vernis bureaucratique. Lancé en 1987, le programme
de géométrie de l’interaction a réussi à conceptualiser, dans le cadre de l’analyse fonctionnelle,
2
les notions de programme, d’exécution, hors de tout anthropomorphisme, c’est à dire sans présupposer l’existence d’un sujet qui veut connaître le résultat d’un calcul, ce qui implique aussi
une rupture avec la tradition descriptiviste du style A Machine de Turing B. La dualité entre A
et sa négation (qui est maintenant la négation linéaire A⊥ ) s’exprime par l’échange des entrées
et des sorties entre deux opérateurs u, v sur le Hilbert H. C’est assez pour une description de
toutes les règles logiques connues, qui deviennent des *-isomorphismes, et pour la notion de
calcul qui devient une équation linéaire sur H ; il y manque cependant l’indispensable résultat
de complétude, qui, au moyen d’une légère modification de cadre, amènerait à conclure : A et il
n’y a pas d’autre règle possible B. C’est ce problème de complétude —qui pour l’essentiel n’est
que la recherche d’un cadre plus pointu d’interprétation— qui forme mon programme de dualité
moniste.
Le succès éventuel de mon entreprise établirait une fois pour toutes la logique hors de tout cadre
bureaucratique, puisqu’il ne s’agirait plus que de la description d’interactions A physiques B,
donc déjà existantes. Car mon intuition méthodologique est physique : souvenons-nous que la
mécanique est basée sur la fiction d’un système clos, pour lequel un certain nombre d’invariants
sont nuls ; pour étudier un système S on lui adjoint donc le A reste du monde B R pour former
un système clos S + R et c’est le passage du A reste du monde B au second membre qui permet
d’écrire finalement les équations pour S. De même la négation A⊥ joue le rôle de A reste du
monde B pour A.
La logique linéaire présente d’ailleurs une particularité : elle fait apparaître la logique classique
comme un cas limite (au moyen de !A qui veut dire A A autant qu’on veut B) ; de plus le passage
au classique est non-déterministe. On ne peut pas s’empêcher de voir là plus que des analogies
avec la mécanique quantique.
1.1.5
La distinction syntaxe/sémantique
Je considère maintenant avoir mené à bien —sous le nom de ludique3 — la première phase du
programme que je viens d’exposer, voir [53]. Les grandes lignes de la solution sont résumées
en 3.6. Il me semble qu’elle change notre vision de la logique, en abolissant la distinction entre
syntaxe et sémantique.
I Traditionnellement, on distingue entre syntaxe (langage, description) et sémantique (objet,
modèle), que l’on relie au moyen de la correction (ce qui est prouvable est vrai) et de la
complétude (ce qui est vrai est prouvable). En particulier les règles de la logique ne sont que
le reflet de la réalité. Il n’est pas question de nier la valeur de cette vision réaliste et dualiste
du monde, mais enfin cette dichotomie entre esprit et matière, c’est un peu daté : je considère
pour ma part que la distinction syntaxe/sémantique est un legs obsolète du XIXième siècle.
I Cette vue du monde est associée au célèbre Tarski, qui s’est penché en particulier sur la notion
de vérité : la vérité de A c’est A mais A méta B, i.e. A dans un univers préexistant. . . en fait
la vérité à la Tarski, c’est la vérité de La Palice, et tout l’apport de Tarski se résume à la
distinction exprimée par méta, une distinction nécessaire, mais d’importance somme toute
secondaire. En fait le Tarskisme a tellement perverti la pensée logique que les mots en ont
perdu leur sens ; en particulier la A complétude B, qu’on a abusivement réduite à son aspect
sémantique, alors qu’elle signifie que rien ne manque !
A propos de complétude, on est en train de découvrir que la complétude de la logique est
purement interne, autrement dit qu’il y a des moyens d’exprimer le fait que rien n’a été oublié
sans référer à un univers extérieur dans lequel la logique préexisterait. Ce résultat était au fond
Il fallait remplacer l’expression A GdI B ; le mot A dualité moniste B ne passant pas et A dialectique B étant
trop. . . connoté, nous avons opté pour cette expression sans prétention qui rappelle la nature interactive de
l’approche.
3
3
prévisible sur la base de la propriété de sous-formule de Gentzen, mais il aura fallu tout ce
temps pour arriver à le formuler de façon claire. A ce propos, remarquons que cette complétude
interne se fait au prix de l’introduction de règles logiques incorrectes ; ces paralogismes ne sont
pas choisis au hasard : ils préservent les structures essentielles (élimination des coupures). Cet
espace de règles logiques dont certaines sont fausses est le véritable espace d’interprétation des
opérations logiques4 . La phrase :
Au fond la syntaxe ne réfère qu’à elle-même.
qu’il ne faut pas prendre au pied de la lettre, résume bien le tournant opéré.
1.1.6
L’irruption du locatif
Au fil de la rédaction de [53] —qui voulait être la version définitive de mon programme ludique—
s’est développé l’opposition spirituel/locatif, une opposition assez improbable, car le point de
vue spirituel va tellement de soi que sa formulation-même semble un truisme assez indécent :
La logique réfère à des entités abstraites,
des idées, des invariants, quoi. . . en particulier tout est à isomorphisme près. C’est un principe essentiel à la déduction mathématique, et il n’est pas question de remettre en cause son
opérationalité,. . . mais il se trouve qu’il est fondamentalement faux.
Existence du locatif Une variable, qui nous semble référer à un certain type d’objets, est en
réalité un lieu (en informatique, une adresse dans la mémoire). Les interprétations dont j’ai
parlé plus haut (géométrie de l’interaction, ludique), mais aussi les machines abstraites telle
celle due à Krivine, supposent des lieux bien précis, par exemple un espace de Hilbert en
GdI. En particulier, si on manipule les objets P
localisés, onP
s’expose à des erreurs (confusion
de variables muettes, voirPla différence
P entre i ai .bi et ij ai bj ). Le locatif existe donc,
mais la différence entre i bi et j bj que je viens de relever est-elle d’un quelconque
intérêt, on peut en douter. . .
Universalité du locatif Comment évite-t-onP
en mathématiques
les conflits de variables ? On
P
les renomme, par exemple en remplaçant i bi par j bj . De même en GdI, la conjonction
consiste à former, à partir de deux opérateurs Φ, Ψ sur l’espace H un nouvel opérateur
A somme B qui ne dépend que de la classe d’isomorphisme de Φ et Ψ : celui qui s’impose
est défini par la matrice diagonale
Φ 0
Θ=
0 Ψ
Or Θ opère sur H ⊕ H, ce qui ne convient pas, et on utilise un isomorphisme x ⊕ y 7→
p(x) + q(y) de H ⊕ H dans H pour obtenir un opérateur de H, soit pΦp∗ + qΨq ∗ , voir
p. 23. On remarque que pΦp∗ et qΨq ∗ ne sont rien d’autre que des images isomorphes
A disjointes B de Φ et Ψ. Cette délocalisation des opérateurs (que l’on retrouve telle quelle
en ludique) est l’équivalent du renommage de variables. Les opérations logiques usuelles
apparaissent donc comme des opérations locatives (ici la somme d’opérateurs) combinées
à des délocalisations ; au prix d’un certain pédantisme (la mention explicite des lieux), on
peut se passer de délocalisation, ce qui montre que le locatif est universel.
4
C’est du moins sa forme analytique, explicite ; le même espace admet aussi une définition synthétique, et
c’est l’identité entre les deux définitions qui établit la pertinence de l’approche.
4
Intérêt du locatif Encore faut-il qu’il soit intéressant. . . en effet les poubelles des mathématiques sont remplies de généralisations sans intérêt. Or on découvre que les opérations
logiques qui ne sont pour l’interprétation catégorique usuelle (e.g. espaces cohérents voir
p. 18), commutatifs, associatifs qu’à isomorphisme canonique près, ont une version locative
strictement commutative, associative etc. La structure locative sous-jacente est donc de
bonne tenue —en fait de meilleure tenue que la structure spirituelle.
Le locatif doit donc être pris au sérieux. La difficulté est qu’il ne saurait en rien ressembler au
spirituel, puisque les formules logiques interfèrent dès qu’on ne prend pas de précaution, i.e. dès
que l’on ne délocalise pas à outrance : ainsi la conjonction de A et B peut être vraie alors que
A, B sont faux, ou fausse alors que A, B sont vrais. La délocalisation n’a donc pour but que
d’éviter l’interférence, i.e. de permettre de décrire les propriétés conjointes de A et B à partir des
propriétés de A et B : elle doit être considérée comme la source de la complétude logique ; c’est
pourquoi le locatif sera incomplet, bizarre quoi, et devra trouver ses propres grilles d’analyse.
Au passage notons qu’un pas important en direction de la physique a été franchi.
Le locatif nous incite à rouvrir (avec circonspection) le cercueil des A fondements B : une question
délicate qui touche à la nature ultime des entités mathématiques, dominée par ce résultat assez
surestimé, le théorème d’incomplétude. Réexaminons donc la complétude à la lumière de la
ludique : on définit un A comportement B (le signifiant logique de base, qui correspond à la
notion d’énoncé mathématique) comme un ensemble de desseins égal à son biorthogonal, voir
p. 32. Un ensemble G de desseins spécifié syntaxiquement (au moyen de règles de déduction)
engendre donc un comportement G⊥⊥ , et la complétude n’est rien d’autre que l’égalité
G = G⊥⊥ , cette formulation interne exprimant qu’il ne A manque rien B à la présentation G.
Pour comprendre l’apparition de l’incomplétude, observons que la disjonction (G ∪ H)⊥⊥ n’a
aucune raison d’être égale à G⊥⊥ ∪ H⊥⊥ (le seul cas d’égalité important est le cas spirituel : G
et H (presque) disjoints)5 . Si la complétude veut dire qu’il ne manque rien, l’incomplétude est
donc le manque, mais de quoi au juste ? On a tendance à penser que le manque présuppose la
totalité, mais pourquoi donc ? Après tout un opérateur non-borné est incomplet sans qu’il soit
possible de le compléter, ne fût-ce qu’en pensée. . . D’où l’hypothèse selon laquelle le biorthogonal
ne serait —au niveau de la signification mathématique— rien de plus qu’une fiction parfaitement
manipulable ; en particulier le théorème de Gödel ne serait pas tant l’existence d’une formule
vraie —la vérité référant au biorthogonal— non prouvable, que la mauvaise structure globale
des formules prouvables. . . Mais, si le cadavre des fondements s’est remis (peut-être) à bouger,
il ne faut pas aller trop vite en besogne : attendons d’avoir accumulé suffisamment de résultats
mathématiques, dérangeants de préférence, autour du locatif ; alors seulement il sera possible de
dire quelque chose de plus élaboré sur ce problème qui, dans le fond, nous intéresse tous bien un
peu. . .
1.1.7
Le non-commutatif
Plus récemment, j’ai intégré un nouvel aspect à ma reconstruction logique, le quantique, ou
plutôt le non-commutatif au sens de Connes. Ceci a donné lieu à deux publications, l’une sur
les espaces cohérents quantiques [55], qui font le rapport entre la réduction du paquet d’ondes et
le principe ensembliste de base, l’extensionalité ; l’autre sur la solution générale de l’équation de
la géométrie de l’interaction [56]. Ce dernier article, qui reprend la GdI hors de toute hypothèse
logique, hors de toute référence spaciale distinguée, permet d’envisager une remise à plat totale
de la logique, ce qui devrait m’occuper dans les années à venir.
5
Si les mathématiques sont incomplètes, c’est parce qu’on ne peut pas toujours délocaliser : ainsi, dans le
cas d’une quantification ∀xA[x], toutes les instances A[i] ne peuvent occuper que le même lieu. . . elles sont
nécessairement corrélées, ce qui est une autre façon de dire que la quantification est A uniforme B
5
Ce programe est maintenant sur les rails. On en trouvera les premiers résultats dans les chapitres 20 et 21 de mon cours de théorie de la démonstration [63], ainsi que dans l’article [57].
Fondamentalement, l’interprétation se fait dans le facteur hyperfini de Murray-von Neumann.
La dualité est basée sur le déterminant : det(I − uv) 6= 1 ; on peut définir la vérité relativement
à une sous-algèbre commutative maximale.
1.2
1.2.1
Le développement de la logique
A l’IML
J’ai été contacté en 1991 par Gérard Rauzy pour diriger une équipe au ci-devant LMD et j’ai
finalement accepté pour des raisons de politique scientifique.
I La logique était mal distribuée en France, grosso modo tout à Paris VII. Au problème de la
concentration en un lieu se superposait celui de la priorité accordée par le CNRS au recrutement en A région B. L’idée d’un deuxième grand pôle de logique en province était une occasion
à ne pas laisser passer, sauf à accepter le départ pour l’informatique des meilleurs étudiants.
Il a fallu quelques années et notamment la venue de Thomas Ehrhard —recruté CR1 en
mathématiques en 1994— pour obtenir la masse critique nécessaire ; le pôle Marseillais, même
s’il reste un peu modeste numériquement est thématiquement assez homogène et sa visibilité
internationale en fait le second pôle de logique français.
I Pour moi, les Mathématiques Discrètes, c’est le versant mathématique de l’informatique.
D’ailleurs je n’exprimerai jamais assez aux informaticiens ma reconnaissance de nous avoir
sortis, nous les logiciens, de la problématique fondamentaliste où nous étions englués. . . Mais
chacun son métier : ce serait une erreur stratégique que d’abandonner la jonction mathématiques/informatique aux seuls informaticiens. D’abord parce qu’on ne sait pas jusqu’où peut
aller l’engouement des politiques pour l’informatique et puis (pour ceux qui pensent que les
maths de l’informatique ne sont pas très smart) parce que les mathématiques ont beaucoup à
y gagner en intuitions et en motivations. D’ailleurs, comme tout vrai mathématicien, je n’ai
que faire des applications et je ne crois pas à la vision de la théorie descendant de son cheval
pour abreuver la pratique : je vois plutôt la théorie comme un guide que la pratique suit
d’assez loin et l’existence d’applications comme le signe que les outils théoriques sont bien
affûtés6 .
C’est pourquoi je suis pour une coopération avec les informaticiens, mais sans confusion des
rôles.
1.2.2
I
Hors IML
Il ne me semble pas obscène de faire de la vulgarisation de bonne tenue. Je dirais même, que
passé un certain âge, un scientifique a mieux à faire en s’occupant de sa communauté (en
particulier de la relève), qu’à chatouiller son ego par quelque prouesse technique. La logique,
discipline qui a toujours beaucoup intrigué, devrait se prêter à la vulgarisation. C’est d’ailleurs
ce qu’ont fait certains auteurs américains, mais leur message est plutôt vulgaire, du genre A la
logique c’est quand on n’y comprend rien B, voir Smullyan, sans parler de Hoffstater, le PaulLoup Sulitzer de la logique. J’ai consacré par le passé un certain temps à la vulgarisation (en
prenant soin de réserver l’essentiel de mon activité à la recherche), témoins deux livres au
Seuil (Sources du Savoir), un sur Gödel, un autre sur Turing, [76, 77]. Il ne me semble pas
qu’il existe sur ce sujet, y compris dans la littérature technique, une réflexion équivalente.
6
A ce propos le logiciel de navigation sur le Web développé depuis 1995 par Andreoli aux Laboratoires Xerox
de Grenoble est le premier exemple d’une application pratique de la logique linéaire.
6
I
Je projette aussi d’écrire un livre sur A La Logique B, de nature assez philosophique, développant le point de vue que j’ai esquissé dans mon programme scientifique. L’éthique scientifique
me fait subordonner une telle rédaction à l’achèvement du projet que le livre est supposé
illustrer. Mon cours récent à Rome [62, 63], qui est à la fois un cours assez complet de théorie
de la démonstration et une réflexion méthodologique radicale, correspond à peu près à ce
vieux projet.
Quand je parle de vulgarisation, je suis un peu réducteur : bien sûr je crois qu’il est important
de méditer l’exemple des astronomes qui vulgarisent pour le plus grand bénéfice de leur labo ;
mais je crois aussi que la période se caractérise par une grande confusion, et qu’il faut y
répondre.
Par exemple mon texte sur Turing prend position sur la logique de l’intelligence artificielle.
C’est devenu nécessaire devant l’avalanche de papiers véreux et d’escroqueries en tout genre,
type A logique floue B : car le premier cercle a été récemment squatté par la paralogique, ce
remake du programme de Hilbert, mais sans Hilbert. Ce n’est pas une tâche de tout repos,
car à attaquer maladroitement, on peut paradoxalement crédibiliser son adversaire. Le travail
sur le style (trouver des images grotesques, du genre A montres à moutarde B, voir mon article
apocryphe [80]) est alors essentiel7 . L’avenir me dira si sur ce point j’ai réussi ; en tout cas il est
pour moi impensable de laisser se développer une logique révisionniste basée sur la négation
éhontée du théorème de Gödel.
Bien entendu, cette A direction de conscience B n’est qu’accessoirement négative et défensive :
je tiens la logique pour un des sujets les plus fascinants qui soient mais qui, si elle a beaucoup progressé depuis Gödel, n’a pas encore trouvé l’espace idéologique à la hauteur de son
renouveau.
1.2.3
Le groupe LIGC
Les lignes qui précèdent sont antérieures à l’an 2000. Depuis quelque chose a bougé, la création
du groupe LIGC, A Logique et interaction : pour une géométrie de la cognition B qui en est à sa
cinquième réunion. Il est franco-italien et regroupe des scientifiques (mathématiques, informatique, physique, biologie) et des épistémologues. J’ai écrit une sorte de manifeste pour le groupe
[85] : on y verra que les positions défendues sont hautement originales et changent de la soupe
tiède qui nous est servie par les épistémologues A établis B. Avec une réunion par an, on peut parler d’un franc succès. Je ne vois pas l’intérêt de résumer ici les positions du groupe, ce sont celles
exposées plus haut, en plus fin et en plus large (à cause des contacts avec d’autres domaines), et
d’ailleurs je ne pourrais que reproduire textuellement le tract [85], disponible sur ma page Oueb.
L’URL du groupe est http ://www.philo.univ-paris1.fr/Joinet/ligc.html. L’activité du
groupe a donné lieu à deux publications collectives (dans lesquelles on trouve mes articles [85, 86].
Par exemple voici une analogie très fidèle des A logiques B non-monotones, à l’usage des mathématiciens :
A Les opérateurs non-bornés sont partiels, c’est triste, n’est-ce pas ? Nous commencerons donc par les étendre en
opérateurs totaux de H dans H. B
7
7
2
Curriculum Vitæ
2.1
Scolarité
Né à Lyon en 1947, j’ai été élève-maître à l’Ecole Normale d’Instituteurs de Lyon (1962-65),
puis après un an de préparation à l’ENI de Montpellier, élève-professeur à l’ENS de St Cloud
(1966-70). Durant cette période, j’ai passé licence (1967), maîtrise (1968) et agrégation (1969).
En 1969-70, j’ai obtenu un DEA de logique sous la direction de Jean-Louis Krivine. J’ai aussi
commencé une recherche personnelle (système F, voir partie scientifique), qui m’a amené à rentrer
au CNRS en mars 1971 et à soutenir ma thèse d’Etat en juin 1972, avec Georg Kreisel comme
rapporteur.
2.2
Activité au CNRS
Promu chargé de recherches au 1.10.73, puis maître de recherches (DR 2) au 1.1.1981, DR 1
au 1.10.90, DR 0 au 1.10. 01, j’ai travaillé à l’Université Paris VII, dans l’Equipe de Logique
Mathématique (UA 753) jusqu’au 30.9.92. Depuis, je suis à Marseille, où j’ai dirigé l’équipe
de Logique de la Programmation au sein de l’Institut de Mathématiques de Luminy (ci-devant
Laboratoire de Mathématiques Discrètes) (UPR 9016).
Membre nommé du Comité National (section 03) 1983-1986.
Membre élu du Comité National (section 01) 1991-1995.
2.3
2.3.1
Invitations
Mathématiques
Un exposé de 40mn au Congrès International de Varsovie, (ICM ’83) 08/1983.
Séminaire Bourbaki, 02/87.
Mordell Lecture, Cambridge, 02/1994.
Question d’Actualité à l’Académie des Sciences, 02/94.
2.3.2
Logique mathématique
Orléans (Logic Colloquium) 09/1972 ; Clermont-Ferrand (Logic Colloquium) 07/1975 ; Oxford
(Logic Colloquium) 07/1976 ; Zürich (Specker Festschrift) 02/1980 ; Firenze 06/1981 ; Marseille
(Logic Colloquium) 07/81 ; Bö, Norvège 06/82 ; Cornell (Congrès AMS A Recursion Theory B)
07/1982 ; San Gimignano 12/1983 ; UCLA 01/1984 ; Siena 01/1985 ; Roma 01/1986 ; Cesena
01/1987 ; Padova (Logic Colloquium) 08/1988 ; Viareggio 01/1990 ; Ecole d’Eté, Crète 07/1990 ;
Tokyo (4th Asian Logic Conference) 09/1990 ; Melbourne 11/1991 ; Oslo 02/1992 ; Utrecht (Van
Dalen Festschrift) 03/93 ; Ecole de Logique Linéaire, Bari 05/1993 ; Siena 04/94 ; St Petersburg 07/94 ; Clermont-Ferrand (Logic Colloquium) 07/1994 ; Ecole de logique linéaire, Lisbonne
02/1995 ; San Sebastian (Logic Colloquium) 07/1996 ; Logique non-commutative, Frascati 04/99 ;
Ecole de logique linéaire, Açores 09/00 ; Logic Colloquium, Philadelphie, 03/01 ; Logic Colloquium, Helsinki, 08/03, Logic Colloquium, Paris 07/10. . . ainsi qu’une dizaine de séjours à
Oberwolfach. Parmi toutes les invitations à des congrès en Logique Mathématique, distinguons
quatre invitations aux congrès internationaux A Logique et Philosophie des Sciences B, qui se
tiennent tous les 4 ans : London (Ontario) 08/1975, Hanovre 08/1979, Florence 08/1995, Cracovie 08/1999.
8
2.3.3
Informatique théorique
Workshop on Parallelism, Roma 09/1986 ; Logic in Computer Science, Torino 10/1986 ; Tutorial
on Type Theory (8 heures de cours sur la Logique Linéaire) Austin 06/1987 ; Congrès AMS A Categories in Computer Science B, Boulder 06/1987 ; A Categories and Computer Science B, Edinburgh 09/1987 ; AFCET, Bordeaux 02/1988 ; Ecole d’Eté A Categories in computer Science B, Isle
of Thorns 08/1988 ; Tallinn 12/1988 ; Ecole de Printemps Albi 04/1989 ; Bästad (Suède) 05/1989 ;
Congrès AMS A Feasible Mathematics B, Cornell 06/1989 ; Ecole d’Eté, Glasgow 09/1989 ; A Logic from Computer Science B, Berkeley 11/1989 ; Ecole d’Eté, Marktoberdorf 07/1991 ; Congrès
GWAI Bonn 09/1991 ; Congrès CSL, Berne 10/1991 ; Ecole d’Hiver, Brno 02/1992 ; Aarhus,
03/1992 ; Oxford 04/1992 ; Açores 09/92 ; 25◦ Anniversaire INRIA 12/1992 ; Ecole d’Eté, Chambéry, 06/1993 ; Ecole d’Eté, Marktoberdorf 07/1993 ; Rome (Böhm Festschrift) 12/93 ; Congrès
COMPUR, Stockholm 08/94 ; Ecole d’Eté Udine 09/94 ; Cambridge 10/95 ; Venezia 10/95 ; Cambridge 11/95 ; Roma 01/96 ; Lisbonne 02/96 ; Ecole d’été Marktoberdorf 07/97 ; Rome 10/97 ;
Utrecht 11/97 ; Sienne 01/98 ; CIRM 04/1998 ; Ecole d’Eté Marktoberdorf 07/99 ; JFPLC, Marseille 06/00 ; Ecole d’Eté Marktoberdorf 07/01 ; CSL,Paris 09/01 ; Ecole d’Automne A Basics B
Pékin 10/01 ; Nijmegen 04/02 ; Table-Ronde A Calcul quantique B, Ottawa 06/03 ; Roma 09/03 ;
Tokyo 03/04 ; Torino 09/04 ; Tokyo 03/07 ; Siena (Mai 07) ; Uppsala (réunion A Martin-Löf B)
05/09, A Logic, Categories, Semantics B, Bordeaux 12/11 ;. . . On distinguera particulièrement les
invitations à parler aux premier et quatorzième congrès LICS (Boston 1986, Trento 1999), et au
congrès de programmation logique (ICLP, Paris 07/1991).
2.3.4
Séjours de moyenne et longue durée
CALTECH (Janvier 1984), à l’invitation d’A. S. Kechris ; PENN (Octobre-Décembre 1987) à
l’invitation conjointe des départements Maths et Info, A. Scedrov et D. Miller ; Siena (Décembre
89 à Janvier 1990) ; Melbourne (Décembre 1990) ; Melbourne (Novembre 1991) ; Rome (Mai
1993) ; Beijing-Tokyo (Mai 1994) ; Varsovie(Janvier 1995) ; Tokyo (Mars 96) ; IHES (Mai 1996),
à l’invitation de M. Gromov ; Siena (Mars 97), Tokyo (Février/Mars 1999), Roma (Février 2000),
Philadelphie (Mars 2001), Siena (Avril 2001), Roma (Mai 2002), Tokyo (Février 03), Tokyo (Mars
2005), Tokyo (Mars 2006), Tokyo (Février 2008).
Dans le cadre de l’Université Franco-italienne, j’ai obtenu en 2004 une des quatre chaires (toutes
disciplines confondues) Venturi de Giorgi, ce qui a donné lieu au cours [62, 63], (Université
Roma Tre, 10-12/2004). J’écris cette mise à jour depuis le RIMS de Kyoto où j’ai passé trois
mois (15.10.2011-15.01.2012) à l’invtation de K. Terui.
2.3.5
Congrès spécifiques
Autour des idées que j’ai introduites, plusieurs réunions ont été organisées :
I Table-ronde sur la logique Π1
2 à Oslo (08/1984).
er
I 1
congrès de logique linéaire à Cornell (06/1993), qui a donné lieu au livre A Advances in
Linear Logic B (voir [43]).
I 2ème congrès de logique linéaire à Keio University (Tokyo) (03/1996), qui a donné lieu a deux
volumes de comptes rendus dans TCS (1999).
I 3ème congrès de logique linéaire à Luminy (04/1998).
I Plusieurs écoles de logique linéaire ; la dernière a eu lieu aux Açores (Septembre 2000).
I Auxquels on peut rattacher les A évènements B organisés à l’occasion de mes 60 ans : à Siena,
Mai 2007 (Aldo Ursini) et à Paris, Septembre 2007 (IHP, Pierre-Louis Curien).
9
2.4
2.4.1
Activités d’encadrement scientifique
A l’INRIA
De septembre 1989 à décembre 1991, j’ai exercé les fonctions de conseiller scientifique auprès du
projet FORMEL de l’INRIA, dirigé par Gérard Huet.
2.4.2
Dans la CEE
J’ai dirigé un projet Stimulation de la CEE, intitulé Lambda-calcul typé et qui regroupait des
participants de 7 universités de la CEE :
I Paris VII (Krivine etc.)
I Laboratoire ENS (Curien etc.)
I Université d’Edinburgh (Plotkin etc.)
I Université de Nijmegen (Barendregt etc.)
I Université de Roma (Böhm etc.)
I Université de Pisa (Longo etc.)
I Université de Torino (Ronchi, Coppo, Veneri etc.)
Le projet, qui avait débuté le 1/03/1988, a duré trois ans et demi pour un montant global de
3.106 FF. Il comportait un aspect matériel important -du moins pour les standards de l’époque
en mathématiques- ce qui a bien aidé le développement de l’informatique à Paris VII-Maths,
ainsi qu’un aspect coopération internationale. Cinq petites tables rondes se sont tenu : mai 1988
à Torino, novembre 1988 à Nijmegen, septembre 1989 à Edinburgh, mai 1990 à Bari, février 1991
à Paris. Le système F et la logique linéaire (voir partie scientifique) étaient les deux principaux
thèmes de ce projet.
Un projet Capital Humain et Mobilité, d’un montant total de 610 000 ECU étalés sur 5 ans, sur
le même thème et toujours sous ma direction, a débuté en 1993 et s’est terminé en Avril 1998. A
quelques modifications près (la plus importante étant l’adjonction d’un nouveau site à Marseille
comme site principal, du fait de mon départ de Paris), il reprenait l’ancien projet Stimulation.
Ce projet a été relayé à partir du 1/05/1998 par un projet TMR Formation et Mobilité des
Chercheurs, d’un montant de 1 310 000 ECU. Ce projet était centré sur la logique linéaire, et
coordonné de Marseille (par Laurent Regnier). Les participants en étaient
I Marseille-IML (J.-Y. Girard)
I Paris VII (V. Danos)
I Edinburgh (S. Abramsky)
I Cambridge (M. Hyland)
I Bologna (A. Asperti)
I Roma (M. Abrusci)
I Lisbõa (J. Fiadeiro)
Le réseau a bien fonctionné, autour de l’import/export de postdocs au rythme de réunions
biannuelles (Tende Septembre 1998, Edinburgh Juin 1999, Oxford Avril 2000, Ecole d’Eté aux
Açores Septembre 2000).
2.4.3
Evaluation scientifique
Outre mon activité de commissaire au CNRS (1983-86, 1991-95), j’ai fait partie comme tout le
monde de comités de programme. En particulier j’ai fait à deux reprises partie du comité de
programme A logique B d’un Congrès International des Mathématiques : ICM-86 et ICM-98.
J’ai été président du comité de programme de la conférence TLCA (Typed lambda-calculus and
applications, L’Aquila, Avril 1999) et j’ai coorganisé avec Philip Scott une séminaire thématique
A Logique et Interaction B dans le cadre de la réunion AMS-SMF de Juillet 2001.
10
De 92 à 94 j’ai fait partie du comité d’experts mathématiques/informatique du programme
Capital Humain et Mobilité de la DG XII, et en 2001 du comité d’experts (maths/info) du
programme Research Training Networks de la même DG XII.
2.4.4
Travail éditorial
A Managing editor B de la revue Annals of Pure & Applied Logic. Membre du comité de rédaction
de la revue allemande Archive for Mathematical Logic. Membre du comité de rédaction de la
revue Mathematical Structures in Computer Science.
2.4.5
Direction de recherches
Depuis 1972, j’ai constamment dirigé un séminaire de théorie de la démonstration à l’Université
Paris VII, ce qui, avec l’enseignement régulier de cours de troisième cycle m’a assuré un certain
flux d’étudiants de bonne qualité, par exemple J. Vauzeilles, J. van de Wiele, et plus tard Y.
Lafont (actuellement dans mon équipe).
En 1986, devant l’importance prise par l’aspect A informatique théorique B de la théorie de la
démonstration, le séminaire a été fondu avec le groupe de travail A λ-calcul typé B de Krivine,
ce qui avec l’enseignement d’un cours fondamental de DEA en 1986-87 a cristallisé un groupe
d’étudiants remarquables. De cette A génération de 1986 B, on retiendra les noms de L. Regnier,
T. Ehrhard (tous deux dans mon équipe), Ch. Rétoré, A. Fleury, E. Duquesne, sans bien sûr
oublier V. Danos, une des valeurs les plus sûres de l’équipe de Paris VII.
2.5
Direction d’Equipe
J’ai dirigé une Equipe à l’Institut de Mathématiques de Luminy (IML). Yves Lafont, Laurent
Regnier m’ont suivi en 1992, rejoints en 1994 par Thomas Ehrhard. J’ai pu ainsi développer le
second —en importance— pôle logique de France.
Le problème de l’entretien d’une masse critique d’étudiants à Luminy est en partie résolu par
l’établissement de relations privilégiées avec l’INRIA Sophia-Antipolis. Un élément essentiel de
cette politique, c’est la mise sur pied d’un DEA entre l’INRIA Sophia et l’IML. L’existence d’un
DEA spécifique à l’IML (dont j’assure la direction) est un fort facteur de cohésion inter-équipes.
Mais ce n’est pas le seul, car on peut penser à l’exploitation de thèmes de recherche communs :
ma première initiative dans ce sens a été (en janvier 1993) la création d’un groupe de travail (coanimé par François Blanchard) Logique et Théorie Ergodique, qui s’est donné pour but l’analyse
par la théorie de la démonstration de résultats de combinatoire utilisant des méthodes abstraites
(ici la théorie ergodique). J’avais une certaine expérience dans ce domaine, ayant A désossé B la
démonstration de Furstenberg & Weiss du théorème de Van der Waerden. Le groupe de travail a
tenu une réunion au CIRM en octobre 94, avec des experts internationaux et même la présence
(assez symbolique, somme toute) de Paul Erdös.
L’équipe possède, outre son séminaire, un groupe de travail informel auquel participent aussi les
étudiants et les invités de passage. Tous les deux ans nous organisons une rencontre au CIRM sur
un sujet original, pour éviter le ronron : par exemple en Septembre 1996 A Logique et modèles
du calcul B. En Janvier 1998, une expérience originale a été tentée : l’organisation d’une réunion
sans programme précis et sur invitations privées à la Chartreuse de Sienne ; la thématique a été
choisie de manière très serrée : la sémantique des jeux.
J’ai passé la main en Janvier 2004 à Thomas Ehrhard.
11
2.6
Vulgarisation scientifique
J’ai participé à de nombreux séminaires du type A philosophie des mathématiques B, dont la
seule trace imprimée est [65] ; j’ai exposé dans Pour la Science mes travaux sur les dilatateurs
[68], et un article sur la logique linéaire dans la même revue est sorti en mars 1990 [69] ; j’ai
collaboré de façon épisodique à l’Ane (articles sur Georg Kreisel et Jean van Heijenoort, sur
la théorie de la démonstration, [70], [71], [72]), et aussi à France-Culture (autour du théorème
de Gödel ou du programme de Hilbert) ; écrit des articles pour l’Universalis [66], [67], pour
l’Enciclopedia Italiana [75], et deux rapports pour l’UNESCO [78], [79]. . . j’ai publié au Seuil
une postface à un livre sur le théorème de Gödel [76] ; le succès de ce livre (ma postface a été
traduite par un éditeur italien) a incité le Seuil à récidiver : un livre sur Turing dans lequel j’ai
écrit une longue postface (prenant position sur l’intelligence artificielle) est sorti en 1996 [77] ;
très récemment, j’ai écrit un article démystifiant sur Gödel [73] pour un hors-série de Sciences
et Avenir. Je devrais parler de logique dans le cadre de l’A Université de tous les savoirs B le 17
Juin 2000.
J’ai rédigé le texte [81] sur la théorie de la démonstration pour l’encyclopédie millénariste coordonnée par J.-P. Pier A les Mathématiques 1950-2000 B ; ça m’a demandé un gros travail de
synthèse doublé d’un effort stylistique en rapport avec la difficulté de A faire passer B les grandes
lignes du domaine.
L’année 2000 m’a apporté un exposé à l’Université de Tous Les Savoirs, ainsi qu’un passage
subséquent à France-Culture (Juin 2000), voir [83].
2.7
Livres scientifiques
Mon livre de théorie de la démonstration [59], [60] essaye de faire le tour du sujet (c’était
avant l’époque de la logique linéaire). Le livre contient de nombreux résultats nouveaux qu’il
serait fastidieux d’énumérer et une curiosité, l’analyse détaillée, étape par étape, d’une A vraie B
démonstration : la démonstration topologique du théorème de Van der Waerden (due à Furstenberg & Weiss) est complètement ramenée à son contenu combinatoire par une application des
méthodes de Gentzen.
Beaucoup plus récent -et bien moins complexe- est mon livre [61] (traduit et amélioré par Y.
Lafont et P. Taylor). Au lieu de se vouloir l’encyclopédie d’un sujet, il se contente d’introduire,
en évitant tout détail fastidieux, au sujet du λ-calcul typé. Les grandes lignes de la théorie de
la démonstration y sont évoquées, et le livre se conclut naturellement sur une introduction à la
logique linéaire. La légèreté du style l’a fait adopter dans de nombreuses universités de par le
monde comme texte de base dans le domaine.
Fin 2004, dans le cadre de la chaire Venturi-de Giorgi de l’Université Franco-Italienne, j’ai fait
un cours de trois mois, en vingt chapitres et presque 500 pages, à l’université Roma Tre. Ce cours
est une synthèse de la théorie de la démonstration, depuis le théorème de Gödel jusqu’aux tous
derniers développements liés aux algèbres d’opérateurs. C’est aussi une réflexion méthodologique
et philosophique approfondie sur la logique ; ainsi le premier chapitre s’intitule-il A Existence
contre essence B.
2.8
Divers
Médaille d’Argent du CNRS en 1983.
Prix Poncelet de l’Académie des Sciences en 1990.
Membre correspondant de l’Académie des Sciences depuis 1994. Membre de l’Académie Européenne depuis 1995.
12
Un réseau électronique LINEAR, géré a Stanford comportant plusieurs centaines d’abonnés et
spécialisé en logique linéaire, a été créé en 19918 ; comme la plupart de ce type de réseaux, il a
progesssivement cessé toute activité.
Pour ses trente ans, en Juillet 2005, la revue Theoretical Computer Science a décerné un prix à
l’article (de loin, paraît-il) le plus cité qu’elle a publié ; cet article n’est autre que [27], le texte
fondateur de la logique linéaire, publié en 1987.
3
Recherche scientifique
3.1
1970-1972
Pour comprendre mon premier travail [1], [2], [3], il n’est pas inutile de poser quelques repères :
Hilbert (1925) avait posé la question d’une réduction finitiste des mathématiques ; Gödel (1931)
avait, par ses théorèmes d’incomplétude, montré l’impossibilité du Programme de Hilbert ; cependant, Herbrand (1930), puis Gentzen (1934) avaient démontré la possibilité d’une réduction
finitiste en l’absence d’axiomes. Ce résultat de Gentzen, le Hauptsatz, un des résultats les plus
profonds de la logique, ne commence à être vraiment compris que de nos jours, grâce à l’informatique : ce théorème est à la base du typage (programmation modulaire) et d’un langage comme
PROLOG.
Gentzen a introduit une formulation symétrique des axiomes et règles de la logique, le calcul
des séquents, pas très utile pour écrire la logique, mais essentielle pour l’étudier (un peu comme
les équations de Hamilton en mécanique, qu’on utilise peu en pratique, mais qui permettent de
poser les problèmes de façon abstraite). Cette formulation lui permit de démontrer (en l’absence
d’axiomes) ce qu’on pourrait appeler un principe de pureté des méthodes, à savoir que pour
démontrer A, seulement les sous-formules de A sont nécessaires. En particulier, si A a un contenu
finitaire (sans quantification universelle), A se démontre sans quantificateurs universels, c’est
à dire par un calcul fini. De plus, Gentzen donna un procédé mécanisable (l’élimination des
coupures) permettant de remplacer une démonstration quelconque par une autre qui vérifie la
propriété. De nos jours, on peut donc voir une démonstration abstraite comme un programme,
que l’on calcule par élimination des coupures. Par exemple, le programme énonce l’existence
d’un entier vérifiant une propriété finitaire, et l’élimination des coupures nous donne sa valeur.
Le problème s’est alors posé d’étendre le résultat de Gentzen à des cadres plus généraux. En
1953, Takeuti remarquait que la logique du second ordre permettait de formuler sans axiomes
toutes les mathématiques courantes, et il proposait un procédé effectif d’élimination des coupures
pour étendre le théorème de Gentzen : c’est la conjecture de Takeuti. En 1965, Tait démontrait
l’existence de démonstrations sans coupure pour le calcul des séquents de Takeuti, mais l’essentiel manquait, à savoir la convergence du procédé d’élimination proposé par Takeuti. C’est ce
que j’ai démontré en 1970, dans l’article [1], résultat amélioré dans [2] et [3]. En fait, ce résultat
se présentait comme un système de calcul fonctionnel typé, (le système F), dans lequel on pouvait définir un type nat des entiers (i.e. dont les objets sont les entiers), avec deux théorèmes
principaux :
Théorème 1
Le procédé de calcul dans F converge (normalisation).
Il n’y a pas que la A logique B floue qui ait du succès au Japon : on peut aussi y vendre de la logique sérieuse,
témoins le Congrès de Logique Linéaire tenu à l’Université Keio en Mars 1996 (soutenu par le CNRS, le JSPS
japonais et l’ONR américain), et le livre du père tutélaire de la logique japonaise, G. Takeuti, sur la logique
linéaire.
8
13
Théorème 2
Tout algorithme fonctionnel (envoyant les entiers dans les entiers) dont on peut établir la terminaison au moyen des mathématiques courantes, se représente dans F au moyen d’un objet de
type nat ⇒ nat.
L’intérêt soulevé en théorie de la démonstration par la solution de la conjecture de Takeuti
retomba vite, car on ne sut que faire du résultat : on tourna la page. Cela dit, les informaticiens
devaient plus tard redécouvrir le système F (Reynolds 1974) et mettre en avant son intérêt pour
la programmation modulaire : en effet, le système, malgré son nombre limité (5) de schémas,
permet de définir tous les types de données courants (entiers, booléens, arbres, listes etc.) et
garantit la bonne marche des calculs. Des langages comme ML sont clairement reliés au système
F. Le système (rebaptisé λ-calcul polymorphe par les informaticiens) est aujourd’hui le principal
outil d’étude de la programmation modulaire, car il est simple et général. Mentionnons tout
particulièrement les travaux en cours de Krivine sur l’arithmétique fonctionnelle du second
ordre, travaux basés sur les théorèmes 1 et 2.
Au sujet du système F et des développements récents du sujet, on pourra consulter mon exposé
au séminaire Bourbaki [25].
3.2
1973-1975
En 1972, j’ai eu des contacts suivis avec Georg Kreisel, qui était alors l’éminence grise de la théorie de la démonstration. Il se livrait (comme toujours) à une critique féroce du sujet, critique qui
devait profondément influencer mon travail. Kreisel dénonçait (sans apporter de réponse) le côté
arbitraire des concepts de théorie de la démonstration et une idéologie par trop prisonnière du
programme périmé de Hilbert. Les travaux de la période 1973-75 sont des tentatives divergentes
de trouver une problématique moins critiquable. De ces travaux [4], [5], [6], [7], on peut sauver
[4], car il pose les bases d’une interprétation asymétrique des travaux de Gentzen (interprétation du style majoration/minoration) ; [4] vaut surtout par son importance conceptuelle, car on
retrouvera l’interprétation asymétrique dans de nombreux résultats ultérieurs, jusqu’au récent
[33]. Des travaux récents en informatique (Vauzeilles, puis Stärk d’après Kunen) utilisent [4]
pour axiomatiser la négation de PROLOG.
3.3
3.3.1
1976-1985
Le rasoir de Kreisel
Parmi les têtes de Turc de Kreisel, la théorie de la démonstration allemande (dirigée par Schütte
depuis la mort prématurée de Gentzen en 1945) avec son utilisation des ordinaux. Au départ,
comme toujours, on trouve Gentzen, qui avait étendu son Hauptsatz à l’arithmétique ; mais,
pour tenir compte du principe de récurrence, il avait dû introduire des démonstrations infinies.
A ce prix, il put étendre le principe de pureté des méthodes ; de plus, dans certains cas (absence
de quantification universelle), les démonstrations restaient finies. Mais, pour travailler sur ces
démonstrations infinies, il fallait mesurer leur hauteur par des ordinaux et dans le cas de l’arithmétique, Gentzen fit apparaître l’ordinal 0 qui se manipule bien grâce à la forme normale de
Cantor. Après la guerre, ces travaux furent généralisés à Munich, en introduisant des ordinaux
de plus en plus gros, et des systèmes de notations pour les représenter. Kreisel dénonçait justement l’arbitraire de ces énormes dictionnaires ordinaux, sans vraie structure mathématique :
en quelque sorte la théorie de la démonstration devenait la classification des animaux selon
Borges. . .
14
3.3.2
Les dilatateurs
Mes travaux sur les dilatateurs : [8], [9], [10], [11], [12], [13], [14], [15], [16], [17], [18], [19],
[20], [21], [22], [23], et le livre [60] sont une réponse à la question : A Quelle est la structure
géométrique de la représentation des ordinaux ? B.
L’idée essentielle est que les opérations infinies sur les ordinaux sont le plus souvent définies sur
les entiers, puis étendues aux ordinaux par limite inductive filtrante : en effet les entiers sont
denses dans la catégorie ON des ordinaux, quand on prend pour morphismes l’ensemble I(n, n0 )
des fonctions strictement croissantes de n dans n0 . Par exemple, si n et m sont des entiers,
on sait définir non seulement la somme n + m d’entiers, mais aussi la somme de morphismes
d’entiers : si f ∈ I(n, n0 ), g ∈ I(m, m0 ), f + g ∈ I(n + n0 , m + m0 ) vérifie (f + g)(z) = f (z) si
z < n, (f + g)(n + z) = m + g(z). La somme ordinale est alors définie au moyen d’une extension
par limite directe. Il en va de même pour le produit, l’exponentielle etc. et plus généralement
pour les fonctions ordinales utilisées dans les panzerdivisions de la théorie de la démonstration
allemande. Les particularités de l’arithmétique ordinale s’expliquent aisément à partir de pures
considérations sur la partie finie des foncteurs ainsi introduits. Par exemple, du fait que l’identité
(f + g) + h = f + (g + h) est vraie sur les entiers, la somme ordinale est associative ; par contre
sa non-commutativité vient du fait que déjà sur les entiers, f + g 6= g + f . A ce sujet, on pourra
lire mon article de vulgarisation dans Pour la Science [68].
Le concept essentiel est celui de dilatateur, à savoir celui de foncteur des ordinaux dans les
ordinaux préservant limites directes et produits fibrés. Il s’agit en fait d’une approche finitaire,
avec un important aspect géométrique [20], qui permet de coder les ordinaux par des invariants
structurels, et non pas de façon arbitraire, comme on le faisait jusque là. En particulier, les
fonctions infinies extrêmement compliquées de Veblen et Bachmann, se trouvaient représentées
au moyen du foncteur Λ, qui envoie les dilatateurs dans les dilatateurs (voir [8], [12], [13]), c’est
à dire complètement finitisées.
Le foncteur Λ a de nombreuses applications, mentionnons le problème alors ouvert de la comparaison des hiérarchies, que j’ai résolu en 1976 (voir [8]) : on peut définir des hiérarchies de
fonctions de N dans N,
λ0 (n) = n
λα+1 (n) = λα (n + 1)
λξ (n) = λξ[n] (n)
γ0 (n) = 0
γα+1 (n) = γα (n) + 1
γξ (n) = γξ[n] (n)
indicées par des ordinaux ; dans le dernier cas, ξ est limite et on doit choisir une A suite fondamentale B ξ[n] tendant vers ξ. La hiérarchie λ croît extrêmement vite, et sert à A mesurer B
les théories mathématiques courantes : par exemple, si on peut prouver la terminaison d’un
algorithme qui envoie N dans N au moyen de l’arithmétique, alors l’algorithme est majoré par
un λα , pour un α < 0 . Par contre γ, plus lente, compte en quelque sorte les étapes de calcul. On ne savait pas manipuler γ (avant l’invention des dilatateurs) à cause de l’arbitraire du
choix des suites fondamentales dans le cas limite. Mais il est possible de faire apparaître derrière les suites fondamentales une structure de dilatateur. En gros on obtient γD(ω) = D(n)
et λD(ω) = (ΛD)(n) quand D est un dilatateur, ce qui résoud de façon simple le problème de
comparaison des hiérarchies :
Théorème 3
Si D est un dilatateur, alors γ(ΛD)(ω) = λD(ω) .
Cas particulier : λ0 = γη0 , où η0 est l’A ordinal de Howard B, ce qui associe un nouvel ordinal
à l’arithmétique.
15
Toujours autour du foncteur Λ, Paris et Kirby avaient considéré un résultat combinatoire, le théorème de Goodstein ; dans [21] et [22], les résultats de Paris et Kirby sont analysés et généralisés
au moyen de Λ.
3.3.3
Vers la récursion généralisée
En 1979, je me suis intéressé à l’analyse des théories dites de définitions inductives, pour lesquelles la théorie de la démonstration allemande n’avait pas pu obtenir de principe de pureté des
méthodes. Le principal outil, outre les dilatateurs, fut le théorème de β-complétude. Il s’agissait
là d’un problème ouvert par Mostowski depuis les années 60, et que j’ai résolu en 1978. Pour
traiter la récurrence ordinaire, on sait que Gentzen introduisit des règles infinies : le problème
était de trouver une nouvelle règle infinie, la β-règle, correspondant à la récurrence transfinie.
Le problème demandait une solution syntaxique de type absolument nouveau : par exemple, K.
Apt avait imprudemment A démontré B que le problème n’a pas de solution ; en réalité, pas de
solution hors des chemins battus. . . La réponse que j’ai trouvée (voir [16] et [60]) est basée sur
la notion de limite inductive filtrante de démonstrations : en se donnant pour chaque entier n,
une démonstration Πn A de largeur n B, on peut dans certains cas, étendre fonctoriellement la
famille (Πn ) (au moyen d’opérations chirurgicales) de façon à obtenir une démonstration Πα de
largeur α pour chaque ordinal α. De tels foncteurs, appelés β-démonstrations, ont en fait une
structure bien plus satisfaisante que les démonstrations infinies qu’ils généralisent. Le théorème
s’énonce :
Théorème 4
Si A est vrai dans tous les β-modèles de la théorie T , alors A admet une β-démonstration
primitive récursive dans T .
L’application aux définitions inductives [9], [10], [60] utilise les dilatateurs, les β-démonstrations,
et le foncteur Λ ; outre la pureté des méthodes, on gagne le fait que les β-démonstrations sont
en fait des familles de démonstrations finies satisfaisant à un critère géométrique de recollement.
Cette approche a donc un aspect fini proéminent, ce qui n’était pas vraiment le cas avec les démonstrations infinies traditionnelles. Cette A finitisation B devait avoir un corollaire remarquable
en théorie de la récursion généralisée [9] :
Théorème 5
Si F est une fonction récursive généralisée de ω1CK dans lui-même, alors on peut trouver un
dilatateur récursif primitif D, tel que f (x) 6 D(x) pour tout x infini.
Pour comprendre l’intérêt de ce résultat, rappelons que la récursion généralisée a ceci de particulier qu’elle n’est pas calculable ; mais les dilatateurs le sont. Autrement dit, du point de vue
de la croissance, les fonctions récursives généralisées sont calculables.
Ce résultat a eu une belle postérité ; d’abord mentionnons la thèse de 3ème cycle de J. Van de
Wiele, qui, au moyen de généralisations du théorème 5, démontrait l’équivalence de deux formes
de récursion généralisée, causant une certaine surprise chez les spécialistes du sujet. Les travaux
avec D. Normann [15] et J. Vauzeilles [17] arrivent à A finitiser B des situations bien pires que
celles du théorème 5 ; ici encore on retrouve le foncteur Λ.
3.3.4
Vers la détermination
Dès 1982, j’ai essayé d’appliquer mes idées à la théorie des ensembles, en particulier aux propriétés de détermination (existence de stratégies gagnantes) dans les jeux infinis. En 1985 (résultats
16
jamais publiés, à cause de l’urgence de la logique linéaire, qui ne m’a guère laissé souffler depuis),
j’obtenais un résultat qui permettait de donner une interprétation géométrique à la détermination des jeux Π11 :
Théorème 6
La détermination Π11 est équivalente à l’égalisation des dilatateurs, c’est à dire (modulo quelques
petites restrictions techniques) au fait que
∀D∀D0 ∃D(D ◦ D = D0 ◦ D)
Cette nouvelle approche permettait de faire apparaître le fameux réel O] des théoriciens des
ensembles comme l’égalisateur des dilatateurs récursifs. Tout aussi inattendu est le résultat
suivant, lui aussi sur les jeux Π11 :
Théorème 7
La détermination Π11 est équivalente à l’énoncé du théorème 4, mais pour la logique intuitionniste.
L’approche initiée par les théorèmes 6 et 7 est très prometteuse ; en particulier, la méthode
utilisée pour le théorème 6 est si générale qu’elle ne semble demander que quelques considérations
géométriques simples pour s’étendre au cas Π1n (n > 1), ce qui devrait donner des analogues de
O] dans ces cas. Ces travaux ont été (provisoirement ?) interrompus par la logique linéaire.
3.3.5
Les Ptykes
Finalement, j’ai introduit la notion de ptyx [14], [18], [60], une généralisation de la notion de
dilatateur. Alors que les dilatateurs ont une structure géométrique très fine et complètement
connue (voir [20]), les ptykes ne sont que des généralisations de type fini, qui ont le bon goût
d’être des dilatateurs quand ils sont de type 1. C’est l’égalisation des ptykes (ou plutôt d’une
amélioration du concept avec plus de régularité géométrique) qui aurait dû correspondre à la
détermination Π1n . Mais c’est pour une autre raison qu’on les trouvera ici : le système de fonctionnelles T de Gödel (fonctionnelles de type fini au dessus de N) joue un certain rôle en théorie
de la démonstration et en informatique. La question s’est posé depuis longtemps (dans la lignée
de Gentzen) d’associer des ordinaux à ce système, de façon à mesurer la vitesse de croissance des
algorithmes qui y sont représentés. Toutes les solutions proposées étaient de l’ordre du bricolage
plus ou moins ingénieux. Mais à l’aide des dilatateurs (et pour les types > 1, des ptykes), il est
possible de répondre très clairement à la question : d’abord, on modifie l’équation principale du
système (définition par récurrence) pour la rendre croissante, puis on remarque que les équations
peuvent s’écrire, non seulement pour les entiers, mais aussi pour les morphismes d’entiers ; en
passant à la limite directe, on vérifie qu’on envoie bien ainsi les ordinaux dans les ordinaux. On
mesure alors la complexité d’un algorithme f de type nat ⇒ nat (fonction des entiers dans les
entiers) au moyen de f ∗ (ω), où f ∗ est le dilatateur associé à f . On a le résultat [60] :
Théorème 8
∀n f (n) 6 γf ∗ (ω) (n).
Les ordinaux f ∗ (ω) vont jusqu’à l’ordinal de Howard η0 (voir théorème 3). Ce résultat (et le fait
que le système T est un sous-système du système F) m’a amené à acclimater les idées du type
A dilatateur B en informatique.
C’est pour mes travaux sur les dilatateurs que j’ai reçu en 1982 la médaille d’argent du CNRS.
17
3.4
3.4.1
1984-1991
La sémantique dénotationnelle
Au départ, quand j’ai commencé à m’intéresser à l’informatique théorique, je ne prenais pas
le sujet bien au sérieux ; en particulier je n’en comprenais pas les problèmes. De plus le caractère de A pièce montée B de beaucoup de prétendues conceptualisations informatiques —qui
dépassent rarement le niveau de la paraphrase— n’était guère engageant. Mais j’avais sur des
points techniques mineurs des améliorations géométriques à apporter, ce qui m’a amené à écrire
deux articles [24], [26] ; j’ai alors découvert que l’informatique est plus qu’un sujet à la mode
ou une source de crédits, car elle induit une remise en cause totale des bases de la logique, et
qu’en particulier, les problèmes considérés par les grands logiciens des années 30 comme Gentzen
prennent une nouvelle dimension. . . D’où la logique linéaire et la géométrie de l’interaction.
Au départ, il y eut le problème de la sémantique dénotationnelle du système F. La sémantique
dénotationnelle avait été introduite par Dana Scott en 1969 : il s’agit de modéliser des algorithmes
fonctionnels au moyen de fonctions possédant certaines propriétés de finitude. Les tentatives
faites par Scott et ses élèves pour modéliser F n’avaient mené qu’à des horreurs. En effet, le
système F permet de considérer des expressions du genre de I = λαλxα xα , qui est A typé B de
type Λα(α ⇒ α) ; cette expression a le sens suivant : c’est une fonction qui prend pour argument
un type quelconque τ et nous rend le résultat λxτ xτ ; cette nouvelle fonction prend pour argument
un objet a de type τ et nous rend a. Autrement dit, I est la fonction identique universelle. Le
théorème 1 nous assure (bien que parmi les types τ acceptés par I comme argument, il y ait le
propre type de I) que de tels objets ne mènent pas à des boucles dans les calculs. Mais modéliser
ce type d’intuition fonctionnelle est très délicat pour des raisons de circularité plus ou moins
évidentes.
L’idée a été d’adapter le principe de prolongement par limites directes qui avait réussi dans le
cas des dilatateurs. Dans le cas de I, il suffirait d’avoir une notion de domaine abstrait (du genre
des domaines de Scott), avec la propriété que tout domaine est limite directe de domaines finis.
On considérerait alors les fonctions identiques i(D) de tous les domaines finis, et la fonction
identique d’un domaine infini quelconque s’obtiendrait par limite directe, ce qui éliminerait les
problèmes de circularité. . . Mais pour mener à bien ce programme, il fallait d’abord nettoyer la
sémantique de Scott, car un domaine de Scott n’est pas limite directe de domaines finis. En fait
Scott avait travaillé dans la pure tradition logicienne qui consiste à se contenter de codages finis
arbitraires, au lieu de codages par des invariants structurels ; il ne fut pas très difficile de trouver
une simplification des domaines de Scott (espaces cohérents, [24], [26]), avec une possibilité de
codage par des invariants. Dans la sémantique cohérente, les types deviennent des graphes et les
objets sont des cliques dans ces graphes. Le côté le plus spectaculaire de l’interprétation donnée
dans [26] est la toute petite taille des interprétations, par exemple :
Théorème 9
Le type Λα(α ⇒ α), en tant que graphe, n’a qu’un point.
La sémantique cohérente se prête à de nombreuses manipulations de style catégorique, voir en
particulier [33]. Ce n’est pas étonnant, si on pense que la nouveauté essentielle est l’exploitation
de la préservation des produits fibrés, venue en droite ligne des dilatateurs. D’ailleurs, Gérard
Berry avait déjà considéré cette préservation, sous le nom de stabilité, dans son travail de 1978
sur la séquentialité. Plus récemment (1992) Thomas Ehrhard a trouvé une amélioration de la
sémantique cohérente, les hypercohérences, et a ainsi fait progressé spectaculairement le problème
de la séquentialité.
18
3.4.2
La logique linéaire
La sémantique de Scott était si compliquée à manipuler (car pleine d’informations redondantes)
qu’on ne pouvait pas prendre un objet fonctionnel simple et écrire sa sémantique noir sur blanc ;
avec la sémantique cohérente, cela devint possible. A ce moment là (fin 1985), je me suis rendu
compte que l’opération fondamentale du typage (la flèche σ ⇒ τ entre deux types, qui est aussi
l’implication intuitionniste) n’est pas primitive : elle se décompose en opérations plus simples.
Il n’était pas évident a priori que cette décomposition pouvait être internalisée, c’est à dire
exprimée au moyen de nouvelles opérations logiques ; en fait on peut écrire une implication
intuitionniste A ⇒ B comme (!A) −◦ B, où A −◦ B désigne l’implication linéaire qui a le sens
d’une causalité (algorithmiquement, σ −◦ τ est le type des algorithmes fonctionnels de σ vers
τ qui appellent leur argument exactement une fois) ; A ! B (bien sûr) a le sens d’une répétition
A A autant de fois que l’on veut B et correspond algorithmiquement à une mise en mémoire.
En poussant l’analyse plus loin est apparue la négation linéaire, qui a le sens de l’échange
entrées/sorties : ainsi, A −◦ B est identique à B ⊥ −◦ A⊥ , ce qui est l’analogue de la transposition
en algèbre linéaire.
La logique linéaire apparaît dans l’article [27]. Elle se distingue de la logique usuelle en ce qu’elle
est basée sur de nombreux petits connecteurs qui ont une signification en termes de ressources.
Par ressources, on entendra aussi bien de l’argent que du temps de calcul ou encore de l’espace
mémoire. Les connecteurs linéaires peuvent s’expliquer ainsi :
I L’implication A −◦ B énonce qu’en utilisant (mieux : en usant) A, j’ai B ; bien sûr, une fois
utilisé, A n’est plus là (exemple trivial : en déboursant A, j’ai B).
I ⊗ (fois) énonce plus qu’une simple conjonction : les ressources pour A et pour B s’ajoutent
(exemple : B n’est pas identique à B ⊗ B, car B ⊗ B demande deux fois les ressources pour
B).
I & (avec) est une conjonction qui n’a les ressources que pour l’un des deux (quand on a A & B,
on a A ou B, au choix, mais pas les deux) ; il s’agit bien d’une conjonction, puisque A&B −◦A
est valide.
I !A (bien sûr) énonce que l’on a A sans limitation de ressources ; c’est typiquement la situation
des mathématiques, où l’utilisation d’un lemme ne s’oppose pas à sa réutilisation ultérieure !
Ainsi, si l’on sature les formules logiques à l’aide de A ! B, on retrouve les principes de la
logique classique, qui apparaît donc comme un cas particulier de la logique linéaire.
Du point de vue technique, la logique linéaire se présente comme une modification très naturelle
de la logique usuelle, formulée à la Gentzen : on se contente de faire disparaître les règles dites
d’affaiblissement (de B déduire A −◦ B) et de contraction (de A déduire A ⊗ A), qui énoncent
précisément l’absence de problèmes de ressources ; par contre ces règles restent vraies dans le
cas où A est de la forme !C, c’est à dire les deux règles deviennent les règles du connecteur
A ! B. En fait toute la logique linéaire est bâtie sur une analogie avec l’algèbre linéaire : A −◦ B
se comporte comme l’espace des applications linéaires, A ⊗ B comme le produit tensoriel, A & B
comme la somme directe, A ! B comme l’algèbre symétrique etc. Les connecteurs de la logique
linéaire sont du genre tenseur (−◦9 , ⊗, ` A Par B, le dual de A fois B), et appelés multiplicatifs,
ou du genre somme (&, ⊕ A Plus B, le dual de A Avec B) et appelés additifs, ou du genre algebre
tensorielle (!, ? A Pourquoi pas B le dual de A Bien sûr B) et appelés exponentiels.
L’explication informelle des nouveaux connecteurs peut en fait être rendue rigoureuse : on peut
(Lincoln, Mitchell, Scedrov & Shankar ; Kanovitch) coder naturellement tout un tas de machines
abstraites, ou plus prosaïquement axiomatiser des jeux comme les échecs grâce à la logique
linéaire. Rappelons que ceci est strictement impossible en logique classique, sauf à introduire de
9
Ce connecteur, le plus important pourtant, se définit à partir de Par et de la négation, et c’est pourquoi il
n’apparaît que rarement dans les énoncés.
19
hideux paramètres temporels.
3.4.3
Applications informatiques
L’article [30] (avec Y. Lafont) posait les bases d’une nouvelle gestion de la mémoire au moyen de
A ! B ; en particulier, il devient possible, grâce aux informations supplémentaires sur l’utilisation
de la mémoire qu’apporte la logique linéaire, de savoir quand une case mémoire ne sera plus
utilisée, et donc de la récupérer.
Plus généralement la logique linéaire semble s’appliquer dans d’autres domaines de l’informatique ; une des données essentielles des problèmes informatiques est la possibilité de révision, à
la différence des mathématiques où les acquis ne sont (en principe) jamais remis en cause. C’est
que nous parlons des états d’un système en constante évolution ; si on cherche à les décrire avec
des formules logiques, il va tout simplement arriver qu’un état ultérieur soit en contradiction
avec l’état présent. La logique classique, qui est basée sur un principe de pérennité de la vérité
(ce que j’ai, je le garde, que je l’utilise ou non) est mal adaptée à cette situation nouvelle ; il en
va de même de la logique intuitionniste. Par contre la logique linéaire, qui efface (en l’absence
de A ! B) les formules utilisées, se prête tout naturellement à la révision. Parmi les applications
en cours, je mentionnerai : (on consultera aussi mon article de vulgarisation paru dans Pour la
Science [69])
I Le parallélisme, et plus généralement la structure fine des calculs : nous aurons l’occasion d’y
revenir longuement. Mentionnons les travaux d’Yves Lafont sur les réseaux d’interaction, un
modèle assez concret du calcul parallèle : on assemble de petites cellules munies de fils, dont
un distingué par cellule ; quand deux cellules sont reliées par leurs fils distingués respectifs,
elles se transforment en un nouvel assemblage, ce qui produit une algorithmique de type
déterministe, parallèle et asynchrone, qui est un peu au parallélisme ce que la machine de
Turing est au calcul séquentiel. La théorie des réseaux de démonstration de la logique linéaire
permet d’étudier de tels réseaux, en particulier de garantir l’absence de bloquage.
I L’application de la logique linéaire aux A langages orientés-objet B initiée par Andreoli et
Pareschi à l’ECRC de Munich. Il s’agit d’utiliser les possibilités de révision de la logique
linéaire pour déplacer des points sur des écrans etc. avec un langage du style PROLOG.
On implante l’algorithme comme une recherche de démonstration et l’état courant de la
recherche est affiché sur l’écran. Une recherche de démonstration en logique intuitionniste
(ou classique) pourrait ainsi déplacer des points, mais sans pouvoir effacer leurs positions
antérieures (principe de pérennité), alors que la même recherche en logique linéaire produira
l’effacement désiré. . . Maintenant aux Laboratoires Xerox de Grenoble, Andreoli est passé aux
applications pratiques, la mise au point d’un logiciel de navigation sur le Web, voir à l’adresse
http://www.xrce.xerox.com/research/ct/prototypes/forumtalk/home.html
il reste suffisamment de logique linéaire dans ce produit pour pouvoir parler de véritable
application.
I Certaines questions d’intelligence artificielle ; c’est ainsi que l’article [44] s’intéresse à la question des exceptions. Il s’agit du sujet de la rétraction d’informations dans une base de données ;
les paralogiciens qui sévissent en IA ne sont jamais arrivés à rien car ils s’entêtent à donner
des A solutions B qui traitent de la rétraction logique en général, une cause perdue d’avance :
un mathématicien sait instinctivement que les axiomes mathématiques ne se rétractent pas
(peut-on enlever la commutativité en algèbre commutative ?), et les plaisantins qui ont essayé
de bricoler la logique classique l’ont appris à leur dépens : l’ampleur de l’enjeu nécessite une
refonte de la logique et non pas un lifting incompatible avec l’exceptionnelle robustesse de
la logique classique10 . Cet obstacle à la rétraction vient du côté extrêmement imbriqué de la
10
C’est comme si on disait :
A Au Paradis, il y a des cafés, des vélos, des percepteurs, même des Eglises : tout
20
I
conséquence mathématique, classique ou intuitionniste.
A l’aide de la logique linéaire il est possible d’individualiser un raisonnement taxinomique de
nature plus limité que le raisonnement mathématique et qui se prête à la révision. Grâce au
système LU (voir plus bas) on peut maintenant mêler librement du raisonnement taxinomique
(géré linéairement) et du raisonnement mathématique (géré classiquement) sans qu’il y ait de
confusion regrettable. C’est une direction de recherches prometteuse, que Jacqueline Vauzeilles
essaye de développer dans le milieu de l’IA.
La complexité des calculs, plus précisément l’étude du temps polynomial (avec André Scedrov
& Philip Scott, dans [36]) : pour la première fois la logique arrive à manipuler implicitement
des bornes sur le temps de calcul ; avant la logique linéaire les tentatives dans ce sens -basées
sur la complexité des calculs- ne sont arrivées qu’à des formalismes éléphantesques où tout
était explicité, ce qui est la négation même de l’idée de logique. L’idée fondamentalement
nouvelle ici est que la complexité temporelle d’un calcul n’est pas un paramètre primitif,
qu’elle se manipule mal, mais que par contre, le décompte des règles de contraction utilisées
est un paramètre qui se manipule bien et dont on peut déduire la complexité du calcul. De
plus -ô merveille- ce décompte fait intervenir des coefficients binomiaux, c’est à dire que les
polynômes (essentiels en complexité) apparaissent sans qu’on ait besoin de les appeler. Les
résultats fondamentaux de [36, 37] s’énoncent :
Théorème 10
Dans le système BLL de la logique linéaire bornée :
– tous les calculs se font en temps polynomial ;
– réciproquement tout algorithme numérique polynomial est représentable dans le système.
I
En d’autres termes, la logique n’assure plus seulement la correction et la terminaison des
calculs, mais aussi que ces calculs sont A faisables B, c’est à dire de taille acceptable. Malgré
tout BLL avait le défaut rédhibitoire de mentionner explicitement des paramètres de taille,
et finalement n’a été que le brouillon de LLL, voir section 3.5.
Dans cette foire aux applications, il y a beaucoup d’appelés et peu d’élus. Par exemple on
a pensé très tôt à appliquer la logique linéaire aux réseaux de Petri, mais après un départ
tapageur, le sujet n’a jamais décollé. De même, les applications à la négation dans PROLOG
n’ont pas vraiment convaincu. . . mais ce serait de l’acharnement thérapeutique que vouloir
mettre de la logique où il n’y en a pas (la programmation logique s’est en effet aventuré très
loin de ses bases).
3.4.4
Les réseaux de démonstration
Mais l’enjeu fondamental reste les fondements de l’algorithmique parallèle, et c’est là-dessus que
j’ai fait porter l’essentiel de mes efforts, en partant de la remarque que la négation linéaire est
involutive, comme celle de la logique classique, avec en plus un sens algorithmique (on sait que
c’est faux en logique classique : voir les théorèmes de théorie des nombres qui énoncent l’existence
d’entiers sans qu’il soit possible de les calculer). L’involutivité de la négation permet de postuler
l’équivalence des entrées et des sorties, une entrée de type A pouvant être vue comme une sortie
de type A⊥ et réciproquement : on perd ainsi la notion (ou plutôt la fiction) d’un calcul qui
serait orienté de l’entrée vers la sortie, puisque, si l’on veut, il n’y a plus que des sorties, et
on se retrouve dans un univers de calcul parallèle. Ce qui induit une A parallèlisation B de la
syntaxe. . .
comme sur Terre, sauf qu’il n’y a pas les Tibéri.
B
21
Le premier problème résolu (pour les connecteurs ⊗, (−)⊥ et ` (le dual de ⊗ par rapport à la
négation) était de trouver une nouvelle syntaxe, plus proche du calcul que les formalismes à la
Gentzen. Ces formalismes contiennent en effet des informations redondantes qu’on est ensuite
obligé de gérer, de modifier : c’est typiquement l’ordre d’application des règles logiques, qui n’a
souvent d’autre signification que la nécessité toute bureaucratique d’écrire des règles dans un
certain ordre. Les réseaux de démonstration écrivent (pour le fragment logique mentionné plus
haut) les démonstrations (ou les programmes) sans ordonner les règles, c’est à dire sous forme
d’un graphe à conclusions multiples. Le problème mathématique qui se pose est alors de savoir
reconnaître, parmi tous les graphes qui se présentent, ceux dans lesquels on peut trouver au
moins un ordre pour les règles, c’est à dire ceux qui sont séquentialisables.
La solution [27] consiste à donner des instructions de voyage dans le réseau, dépendant du
positionnement préalable d’interrupteurs ; ces interrupteurs sont choisis suivant un principe de
dualité : pour exprimer que deux parties d’un graphe ne communiquent pas, on les force à
communiquer en un point, pour exprimer que ces deux parties communiquent, on empêche la
communication en ce point. Le principal théorème de [27] s’énonce alors :
Théorème 11
Un réseau est séquentialisable ssi quelque soit la position de ses interrupteurs, le voyage n’a
qu’un cycle (absence de court-circuit).
Il m’est tout de suite apparu que les réseaux, à cause de leur structure symétrique entrée/sortie
devaient enfin permettre une approche décente au calcul parallèle [28]. Mais, pour cela, il fallait pouvoir étendre le théorème 11 à tout le calcul linéaire. L’article [31] (nettement amélioré
dans [40]) étend les résultats au cas des quantificateurs. Pour cela j’ai introduit de nouveaux
types d’interrupteurs (A à saut B, qui expriment l’interdiction de certaines dépendances) et j’ai
démontré :
Théorème 12
Le théorème 11 s’étend au cas des quantificateurs.
L’approche A réseaux B est à la base des réseaux d’interaction d’Yves Lafont (voir supra).
3.4.5
La géométrie de l’interaction
Un changement de point de vue fondamental est opéré par l’article [29], systématisé en programme sous le nom de géométrie de l’interaction dans [32]. Il s’agit ni plus ni moins que
d’expulser totalement la syntaxe de la description des démonstrations pour les remplacer par
des opérateurs (au sens des C ∗ -algèbres).
Dans [29], qui ne considère que le fragment A multiplicatif B (⊗, `(−)⊥ ), une démonstration
de A devient une permutation σ des atomes p1 , . . . pn de A. Chaque positionnement S des
interrupteurs définit une permutation τS des mêmes atomes, et on note Σ(A) l’ensemble de ces
τS . La condition du théorème 11 se réécrit : A στS est cyclique pour tout S ∈ Σ(A) B. Si on
introduit la notation σ ⊥ τ pour dire que στ est cyclique, une démonstration de A est donc un
élément de Σ(A)⊥ . Mieux, on peut démontrer que :
Théorème 13
Σ(A)⊥ = Σ(A⊥ )⊥⊥ (A⊥ est la négation linéaire de A).
22
Ce résultat exprime (rappelons-nous que Σ(A)⊥ est l’ensemble des démonstrations de A), qu’à la
bi-orthogonalité près, les voyages dans A⊥ sont exactement les démonstrations de A ; en fait ils
sont denses (par rapport à la bi-orthogonalité) dans les démonstrations de A et donc les voyages
peuvent être vus comme des démonstrations virtuelles de A. Malgré des apparences contraires,
il n’y a pas de contradiction à supposer l’existence de A démonstrations B pour toute formule ;
ce qui se passe c’est que n’importe quoi va avoir des A pré-démonstrations B, mais les A vraies B
démonstrations (ou les vrais programmes) doivent vérifier une propriété supplémentaire. Une
analogie en théorie des jeux : stratégies générales/stratégies gagnantes11 .
Ce qui fait la nouveauté fondamentale du théorème 13 est qu’il suggère une nouvelle façon de
calculer : jusque là on utilisait des algorithmes de réécriture qui implantent, de façon plus ou
moins astucieuse, les résultats de normalisation dans le style du théorème 1. La géométrisation
du théorème 13 permet de se passer de l’essentiel de la réécriture : on s’aperçoit que la réécriture
ne fait qu’assurer la A mise en contact B de deux permutations σ et τ , mais qu’elle le fait de façon
particulièrement coûteuse. On peut exprimer le calcul multiplicatif en introduisant des matrices
de permutation : un calcul (dans le fragment considéré) se présente comme un couple (u, σ) où
u est unitaire et σ est une symétrie partielle représentant la A mise en contact B qui indique une
situation dynamique (si σ = 0, alors il n’y a rien à calculer). Les propriétés du calcul s’énoncent
alors au moyen du
Théorème 14
Le calcul (u, σ) converge exactement quand σu est nilpotent. Le résultat est alors le couple
((1 − σ 2 )u(1 − σu)−1 (1 − σ 2 ), 0)
Cette formule exprime le résultat de Gentzen dans un cas sans doute très limité, mais sous une
forme tout à fait inattendue. La terminaison des calculs devient une propriété de nilpotence, les
coupures deviennent une symétrie partielle σ, et la forme normale est obtenue au moyen de
RES(u, σ) = (1 − σ 2 )u(1 − σu)−1 (1 − σ 2 )
(1)
Il est tentant de penser qu’une telle expression (1) est la règle. Le programme de géométrie de
l’interaction [32] se donne pour but de trouver une base à l’algorithmique au moyen de considérations entièrement géométriques (par exemple les isométries partielles des espaces de Hilbert),
la clef de voûte étant la formule d’exécution écrite plus haut. Les problèmes de dynamique (on
n’a pas de contrôle a priori sur l’ordre de nilpotence de σu, qui n’est rien d’autre que la complexité temporelle du calcul) suggèrent une notion de A dimension continue B et il m’est apparu
assez vite que la solution devait employer pour cette raison des algèbres stellaires. Le choix exact
de l’algèbre fut par contre beaucoup plus délicat et c’est seulement fin 1988 que j’ai obtenu la
première vague de résultats qui étayent le programme.
La C ∗ -algèbre Λ∗ peut se décrire aussi bien concrètement (comme agissant sur un espace `2 ) ou
abstraitement (sans référence à une représentation) ; les deux approches sont complémentaires,
la seconde ayant un contenu algorithmique important. Fondamentalement, Λ∗ est obtenue en
internalisant :
I Une isométrie de H ⊕ H dans H ; si on écrit cette isométrie x ⊕ y 7→ p(x) + q(y), cela nous
donne les équations :
p∗ p = q ∗ q = 1 p∗ q = q ∗ p = 0
11
Pour le fragment multiplicatif, le théorème 13 constitue déjà un parfait résultat de dualité moniste. Voir aussi
la section 3.6.1 pour une mise en œuvre complète de ces idées.
23
I
Une isométrie de H ⊗ H sur H, ce qui permet de définir un A produit tensoriel interne B
dans Λ∗ , u, v 7→ u ⊗ v ; la non-associativité de ce produit est compensée par la présence d’un
unitaire t tel que :
t(u ⊗ (v ⊗ w))t∗ = (u ⊗ v) ⊗ w
L’interprétation a la forme suivante :
I A chaque démonstration sans coupure d’un énoncé A, on associe un opérateur de Λ∗ .
I Plus généralement, à chaque démonstration sans coupure d’un séquent − A1 , . . . , An on associe
une matrice n × n d’opérateurs de Λ∗ .
I A une démonstration d’un séquent ` A1 , . . . , An avec m coupures, on associe deux matrices
u et σ de taille 2m + n × 2m + n, σ étant la symétrie partielle qui échange les indices 1 et 2,
3 et 4,. . ., 2m − 1 et 2m. 1 − σ 2 est le projecteur orthogonal sur le sous-espace correspondant
aux indices 2m + 1, . . . , 2m + n.
(exemple typique : si θ est un terme normal, par exemple du système F, avec n variables libres,
on lui associera une matrice n + 1 × n + 1 -soit M -, les n premiers indices pour les variables, le
dernier pour le résultat. Si on veut parler du remplacement des variables x1 , . . . xn par des termes
normaux et clos représentés par des opérateurs u1 , . . . un on adjoindra n indices supplémentaires
(disons 10 , . . . n0 ) à M , et pour ces nouveaux indices une diagonale formée des ui ; la dynamique
du remplacement sera représentée par la symétrie partielle σ qui échange 1 et 10 , . . ., n et n0 .)
Il n’est pas question de détailler ici cette traduction qui fait l’objet de l’article [34]. Donnons
seulement quelques points de repère :
I Les règles logiques sont interprétées par des ∗-isomorphismes (sans préservation de l’élément
neutre). Par exemple les règles multiplicatives (conjonction/disjonction, ⊗/`) sont interprétées par la contraction de deux indices en un seul au moyen de p et q. Les règles pour le point
d’exclamation font intervenir la tensorisation avec 1 : en effet 1 ⊗ a se comporte comme une
mise en mémoire de a (à partir de 1 ⊗ a on peut récupérer a, au moyen de a = d∗ (1 ⊗ a)d (où
d est un opérateur de Λ∗ ) ; surtout l’utilisation du produit tensoriel interne permet de faire
commuter certaines opérations dans des cas cruciaux ; ainsi pour créer deux copies de 1 ⊗ a
à partir de 1 ⊗ a on comprendra -sans que je rentre dans les détails- qu’on ait besoin d’un
plongement de H ⊕ H dans H ; mais si on utilisait celui qui est défini au moyen de p et q, on se
heurterait à des problèmes de commutation insurmontables (on ne sait rien de a), problèmes
immédiatement résolus par l’utilisation de p ⊗ 1 et q ⊗ 1).
I La procédure d’élimination des coupures de Gentzen correspond au fait que les règles logiques
sont des ∗-isomorphismes, et donc que la formule d’exécution (1) qui dénote le résultat ultime
du calcul est invariante.
Tout ceci se combine en un modèle du système F (ou de la logique linéaire sans sa partie
A additive B, i.e. sans &, ⊕), avec le théorème suivant :
Théorème 15
A chaque terme θ du système F est associé un couple (u, σ) tel que :
I uσ est toujours nilpotent
I (en gros) si la forme normale de θ est représentée par u0 alors u0 = RES(u, σ).
Curieusement je n’ai obtenu qu’après coup l’explication suivante de la formule d’exécution,
explication d’une simplicité déconcertante : on peut voir un algorithme, une démonstration etc.
comme une boîte munie d’une prise. Cette boîte est caractérisée par un opérateur d’entrée-sortie
qui me donne (en fonction d’une entrée x dans H) une sortie u(x) dans H. Les matrices (cas
des démonstrations à plusieurs conclusions) correspondent à plusieurs sorties en fonction de
plusieurs entrées. Ainsi examinons le cas de l’application d’une fonction à un argument :
24
I
D’un côté j’ai mon argument, caractérisé par une équation
u(x) = x0
I
(2)
D’autre part j’ai ma fonction (deux entrées, deux sorties) caractérisée par le système :
a(y) + b(z) = y 0
(3)
0
(4)
c(y) + d(z) = z
La règle de coupure, c’est à dire brancher l’argument et la fonction, consiste à identifier les
entrées-sorties de (2) avec les premières sorties-entrées de (3), (4). . . comme nous le ferions pour
un vulgaire appareil électrique, soit y = x0 , x = y 0 . Notre système devient
u(x) = y
a(y) + b(z) = x
c(y) + d(z) = z 0
Ce qu’on appelle élimination des coupures, normalisation, exécution, n’est rien d’autre que la
solution symbolique de ce système, c’est à dire l’opérateur donnant z 0 en fonction de z. Il est facile
de voir que cet opérateur est précisément celui qui est calculé par notre formule d’exécution. Tout
l’appareillage logique ne sert finalement qu’à établir l’existence d’une solution pour le système.
Pour revenir au théorème 15, l’ordre de nilpotence de uσ est grosso modo le nombre d’étapes
de calcul. En particulier il peut devenir extrêmement gros. La seconde partie du théorème n’est
quant à elle vraie que sous certaines restrictions. La différence entre notre exécution (de type
parallèle asynchrone) et celle prévue par la syntaxe (de type séquentiel synchrone) est réelle et
complique le véritable énoncé de la seconde partie ; mais c’est loin d’être un défaut. En effet, la
seule divergence est le cas du calcul d’une fonction dont on ne donne pas l’argument : la syntaxe
permet de faire alors des opérations globales que l’exécution géométrique ne peut effectuer, car
elle doit transiter A physiquement B à travers l’argument, ce qui est d’ailleurs en accord avec la
pratique informatique : on ne calcule jamais de fonction sans leur donner d’argument. Comme
on peut par ailleurs démontrer que cette différence n’affecte que la structure des calculs (qui sont
entièrement A parallélisés B) mais pas le résultat final, c’est finalement un résultat théorique de
parallélisation du calcul qui est caché dans l’A en gros B hypocrite du théorème.
On pourrait s’inquiéter du fait que la modélisation ultime du calcul proposée ici réfère à l’espace
de Hilbert et à ses isométries partielles. Ces notions ont la réputation d’être passablement infinies. . . et on n’a peut-être fait que reculer pour mieux sauter. Ce serait par exemple le cas si les
isométries partielles utilisées pour représenter une fonction f avaient un quelconque rapport avec
la fonction f en tant que graphe et toute cette construction ne serait qu’une pédante escroquerie.
En fait nous n’utilisons que p, q, t que nous combinons au moyen des opérations +, ·, ⊗, (−)∗ de
façon finie. Si on faisait opérer les opérateurs ainsi obtenus sur un Hilbert H, on verrait que les
fonctions induites sont très élémentaires et ne peuvent pas servir à cacher une dynamique.
Ce résultat a besoin d’être digéré. D’abord, c’est la première fois qu’on modélise mathématiquement le calcul, le seul précédent étant la sémantique de Scott, qui ne s’occupe pas vraiment
du calcul puisqu’elle ne tient compte que du résultat. A long terme, les solutions très générales
trouvées au problème de la parallélisation asynchrone du calcul séquentiel devraient s’avérer
déterminantes. A plus court terme, l’emploi d’isométries partielles pour parler de copies situées
dans des cases mémoires différentes devrait rationaliser une partie de l’algorithmique traditionnellement laissée à l’astuce des ingénieurs. Au niveau théorique, on peut raisonnablement penser
que la formule d’exécution représente, sinon la forme la plus générale de l’algorithmique, du
moins la forme générale d’un algorithme déterministe. Ceci est corroboré par l’extension de ces
résultats aux algorithmes qui ne s’arrêtent pas : [35] se penche sur le cas de la programmation
récursive, A par point fixe B. Dans ce cas l’essentiel est préservé, à quelques nuances près :
25
La nilpotence de σu devient une nilpotence (en topologie) faible. Ce qui signifie qu’en termes
de remplacement d’une question par une autre, puis de cette autre par une tierce etc. on ne
revient jamais à la question de départ (absence de blocage).
I La partie centrale de la formule d’exécution, u(1 − σu)−1 (qui représente le calcul proprement
dit) devient un opérateur non borné.
I Le résultat de l’exécution (qui n’est plus dans Λ∗ ) a toujours un sens dans B(H).
Dans la même ligne, mes élèves -en particulier Danos, Regnier, Malacaria- ont obtenu une interprétation faiblement nilpotente du λ-calcul pur.
Plus récemment, Gonthier (INRIA) a établi un lien entre la géométrie de l’interaction et la
mystérieuse et controversée exécution optimale du λ-calcul proposée par Lamping. . . comme quoi
les considérations développées ici sont pleines d’applications potentielles. Le travail de Gonthier
a d’ailleurs eu une certaine importance sociologique : fin 1988, la géométrie de l’interaction avait
été poliment accueillie par les informaticiens et les logiciens (en grande partie par un réflexe
de peur face à l’utilisation, pourtant bien élémentaire, de notions d’analyse fonctionnelle) :
ce A succès d’estime B m’a même fait douter un temps de la pertinence du programme. . . mais
grâce à Gonthier la géométrie de l’interaction est maintenant acceptée comme une des principales
approches au calcul, essentielle dans les problèmes d’optimisation liées au partage de données.
Hors du cadre déterministe rien n’est connu ; il ne semble pourtant pas absurde de penser que
l’isométricité correspond précisément au déterminisme et qu’une libéralisation des conditions
pourrait rendre compte de classes beaucoup plus larges. Quoi qu’il en soit, ce qui est en cause
ici, c’est la définition générale de la notion d’algorithme avec peut-être une restriction du genre
déterministe. L’avenir nous dira si le type de définition que nous proposons pour le concept
d’algorithme est le bon ; on devrait au moins s’accorder sur le fait qu’une définition mathématique
de la notion de base de l’informatique fait à l’heure actuelle cruellement défaut ; en particulier,
faute de notion générale, trop de résultats dépendent d’une machine ou d’un système précis.
Trouver le cadre approprié pour formuler des théorèmes sur le calcul, voilà l’un des enjeux
ultimes du programme de géométrie de l’interaction.
I
3.4.6
L’unité de la logique
Le programme de géométrie de l’interaction temporairement mené à bien (et fraîchement reçu
au départ), je suis retourné à la syntaxe ou à des sémantiques plus familières pour A engranger B
de nouveaux résultats.
Traditionnellement la logique classique est considérée comme non-constructive. Il y a là-dedans
une réalité bien naïve : les théorèmes existentiels classiques ne s’explicitent pas, ou du moins ne
s’explicitent pas de façon évidente. La logique linéaire indique pourtant bien une voie possible,
plus large, pour donner un contenu constructif au cas classique, mais on se heurte alors au
non-déterminisme fondamental de l’algorithme à nous légué par Gentzen : le contenu implicite
d’une démonstration classique est capricieux, instable, inutilisable quoi ! La découverte fin 90
d’un tableau miraculeux permettant de donner un sens raisonnable aux connecteurs logiques
classiques a mis fin à une situation paradoxale qui n’avait que trop duré : le système logique le
plus facile d’accès était en même temps celui à la structure la plus complexe.
La difficulté est de donner une sémantique dénotationnelle associative à la conjonction (ou la
disjonction) classique, tout en préservant l’involutivité de la négation. Cela n’est possible que sur
la base d’un nouveau concept, celui de polarité. La polarité sert à régler le protocole d’élimination des coupures ; en tenant compte des polarités, il est possible de donner une interprétation
associative de la conjonction : une conjonction est positive quand un de ses deux membres l’est,
elle est négative autrement. La conjonction de deux positifs est donnée par ⊗, de deux négatifs
par & ; pour combiner un positif et un négatif on utilise ⊗ et ! (exemple N ∧ P est !N ⊗ P ). La
26
négation classique coïncide avec la négation linéaire, ce qui est un gage d’involutivité. Sémantiquement parlant, les positifs sont des comonoïdes et les négatifs leurs duaux.
L’étude en théorie de la démonstration de la logique classique ainsi polarisée fait apparaître
des aspects constructifs inattendus. Par exemple la propriété de disjonction est souvent vraie
classiquement, au moins sous forme d’une préférence. La logique s’organise sous forme d’un
nouveau calcul des séquents LC [41], bien meilleur que le fameux LK de Gentzen. Il se trouve
en fait que le passage de LK à LC est non-déterministe : les polarités ne suffisent pas à rendre
LK déterministe. Faut-il ne voir là qu’un défaut de la théorie de la démonstration classique, où
est-ce l’esquisse d’un lien tant de fois annoncé, mais toujours décommandé, avec la mécanique
quantique ?
L’étude du calcul des séquents LC fait ressortir des analogies surprenantes avec le calcul intuitionniste ; c’est pourquoi une logique unifiée [42] apparaît finalement. Dans LU, s’ajoute une
troisième polarité (neutre) qui correspond au comportement (linéaire) par défaut. Les différences
logiques traditionnelles apparaissent comme des différences de fragment : en restreignant les formules, on obtient les systèmes habituels -classique, intuitionniste et linéaire-. Il est important
de noter -pour le non-spécialiste- qu’il s’agit d’un résultat absolument surprenant et qui n’est
rendu possible que par l’accumulation récente de résultats en théorie de la démonstration. Pour
la première fois il devient possible d’imaginer qu’un résultat intuitionniste ait des conséquences
classiques et vice-versa. Ces travaux établissent la possibilité de travailler la logique comme un
système expert ; mais au lieu de fabriquer des montres à moutarde (pour citer le titre d’un de mes
canulars scientifiques, voir [80]) en triturant la règle du jeu, on peut fixer une fois pour toutes
cette règle et se concentrer sur le choix des connecteurs. Il semble que dans LU il y ait assez
d’espace pour les besoins logiques, même les plus exotiques. . . voir en particulier mon article
[44].
Une mesure spectaculaire du succès de cette unification de la logique, c’est que les fragments de
LU correspondant aux systèmes classique, intuitionniste ou linéaire sont bien meilleurs que les
systèmes isolés qu’ils reproduisent.
3.5
1992-1996
Mon installation à Marseille fut un choix délibéré et longuement mûri en faveur de ce qui semblait alors être une chance exceptionnelle de développement de la partie des mathématiques qui
m’intéresse. Cette installation ne s’est pas fait sans difficultés, matérielles et morales, ce qui
a produit dans mon travail une intermittence bien supérieure à ce que la dialectique naturelle
création/abattement devait naturellement produire après les résultats jumeaux [41] et [42]. Disons que j’ai eu droit à deux ans de stérilité au lieu d’un. Aujourd’hui ce passage à vide est bien
oublié.
3.5.1
Réseaux additifs
J’ai obtenu en 1993 une extension assez satisfaisante des réseaux au cas additif, [47]. Par rapport
aux réseaux multiplicatifs traditionnels, ces nouveaux réseaux se distinguent par l’adoption de
poids booléens, correspondant aux règles logiques pour le connecteur &. Le critère de correction
(qui permet d’étendre le théorème 11) utilise des sauts dans le style des réseaux avec quantificateurs, qui sont activés par la dépendance des poids des formules par rapport aux paramètres
booléens. Mais si le critère est facile à trouver, la notion de réseau sous-jacente est moins A satisfaisante B que dans le cas de base ; malgré ses limitations cette généralisation constitue un
progrès technologique majeur et constitue la base des percées réalisées depuis.
27
3.5.2
La communication sans compréhension
En 1993 un nouveau résultat sur les réseaux ne pouvait plus se suffire à lui-même : en effet,
le cas de base (multiplicatif) avait donné naissance à la géométrie de l’interaction (à travers le
théorème 14), qui suggérait la formule (1). Malgré l’utilisation d’algèbres de Boole (homogènes
donc en principe aux C ∗ -algèbres utilisées en géométrie de l’interaction), la solution était bien
cachée. . . Les résultats obtenus dans [43] sont :
I Une généralisation du paradigme de géométrie de l’interaction à toute la logique linéaire, ce
qui en tenant compte de l’existence de LU veut concrètement dire toute la logique. La formule
d’exécution (1) est toujours valide et on peut donc démontrer un analogue du théorème 15 en
toute généralité.
I Une modification de l’algèbre stellaire : les opérateurs de base de la nouvelle algèbre sont
des clauses p 7→ q de. . . programmation logique (avec les mêmes variables dans p et q), et la
composition est la résolution. La formule d’exécution (1) peut encore se lire comme une boucle
de style PROLOG ; si on pense que la programmation logique descend elle aussi du théorème
de Gentzen, c’est bien moral. . . mais c’est surtout révolutionnaire, car jusqu’à présent aucun
point de contact solide entre les deux postérités informatiques de Gentzen n’avait pu être
établi.
I Une illustration spectaculaire du thème de la communication sans compréhension : si les
opérateurs u et v doivent, pour communiquer, partager certaines structures, tels les indices
de ligne/colonne de la matrice, (ce que nous appellerons des canaux publics), une autre partie
des données est à usage interne : c’est un dialecte privé, par nature incommunicable. Ceci peut
s’exprimer à l’aide d’une relation de variance, induite par un groupe G d’unitaires : u ∼ v si
∃g ∈ G u = g ∗ vg. Le dialecte, c’est précisément ce qui distingue u de ses variantes. Quand u
et v interagissent, ils commencent d’abord par créer des variantes u0 et v 0 , de façon à ce que
la classe de variance de u0 + v 0 ne dépende que des classes de u et v. Expérimentalement on
trouve deux choix possibles pour u0 , v 0 :
– La tensorisation des dialectes : cela veut dire concrètement que chacun accepte génériquement le dialecte de l’autre, sans y comprendre un mot. C’est le cas de la conjonction
multiplicative ⊗.
– La sommation des dialectes : cela veut dire que u0 et v 0 se placent dans deux copies orthogonales de l’espace de Hilbert : il n’y aura jamais de contact, car u0 v 0 = 0. C’est le cas de
la conjonction additive &.
Un exemple simple de communication sans compréhension est donné par une matrice 3 × 3


a11 a12 a13
u =  a21 a22 a23 
a31 a32 a33
dont les coefficients sont en pur dialecte, c’est à dire
 ∗
g a11 g g ∗ a12 g
u =  g ∗ a21 g g ∗ a22 g
g ∗ a31 g g ∗ a32 g
qu’on ne peut différencier de

g ∗ a13 g
g ∗ a23 g 
g ∗ a33 g
Une telle matrice ne partage avec l’extérieur que le nom des canaux (1, 2, 3). Cela n’empêche
pas la communication avec une matrice 2 × 2
b11 b12
v=
b21 b22
28
Les dialectes sont tensorisés de façon à éviter toute compréhension accidentelle ; aij devient
aij ⊗ 1, bij devient 1 ⊗ bij . Les matrices obtenues sont juxtaposées en


1 ⊗ b11 1 ⊗ b12
0
0
0

 1 ⊗ b21 1 ⊗ b22
0
0
0


0
0
a11 ⊗ 1 a12 ⊗ 1 a13 ⊗ 1 
U =



0
0
a21 ⊗ 1 a22 ⊗ 1 a23 ⊗ 1 
0
0
a31 ⊗ 1 a32 ⊗ 1 a33 ⊗ 1
et on forme



σ=


0
0
1
0
0
0
0
0
1
0
1
0
0
0
0
0
1
0
0
0
0
0
0
0
0






qui exprime la mise en contact des canaux de même indice, 1 ou 2 de u et v, etc. Le cas le
plus simple est celui de
0 1
v=
1 0
auquel cas RES(U, σ) revient à rebrancher u sur lui-même, en échangeant les indices 1 et 2 :
– la sortie d’indice 2 de u lui est redonnée comme entrée en indice 1
– la sortie d’indice 1 de u lui est redonnée comme entrée en indice 2
On comprend ce qui se passe dans cet exemple très simple : les coefficients de u se A comprennent B mutuellement car ils sont écrits dans le même dialecte. Par contre, v qui ne les
comprend pas détermine finalement quels coefficients de u seront finalement mis en contact.
Autrement dit le partenaire externe v ne sert que de relais pour un processus purement interne
à u. Cela me semble d’ailleurs une bonne image de la communication en général. . .
3.5.3
Les deux logiques allégées
A l’été 1994, je me suis repenché sur la question de la complexité de l’élimination des coupures,
déjà traitée (imparfaitement) dans [36]. Les résultats (exposés dans [48]) sont les suivants :
I La découverte de deux systèmes logiques LLL et ELL où la complexité de l’élimination
des coupures est constante, autrement dit ne dépend pas de la complexité des coupures.
Application spectaculaire : la théorie des ensembles naïve devient utilisable, car on peut voir
les contradictions bien connues (Paradoxe de Russell etc.) comme le fait que la complexité
A grimpe trop B, tellement que l’élimination des coupures ne converge pas. Les deux systèmes
sont basés sur le remplacement des règles usuelles d’exponentiation par des règles plus faibles.
La mise au point de ces systèmes et le calcul précis de leur complexité est un tour de force
qui utilise de façon essentielle la technique des réseaux, en particulier le récent [47].
I LLL (le premier A L B pour light, c’est à dire allégé), est un système a complexité constante
polynomiale (le degré du polynôme dépend d’un invariant de profondeur). C’est le premier
système avec une telle propriété, et qui soit vraiment A naturel B. Avec LLL, on se trouve pour
la première fois avec un système intrinsèquement polynomial, et on conçoit que la mise sur pied
d’une sémantique non-triviale pour LLL puisse avoir des retombées théoriques spectaculaires
sur les problèmes de complexité algorithmique.
I ELL (la lettre A E B pour élémentaire, c’est à dire la classe de complexité correspondant
aux tours d’exponentielles) a une plus grande complexité, puisqu’il permet d’exprimer l’exponentiation (au sens usuel des fonctions exponentielles) et partant, permet sans doute de
développer une grande partie des mathématiques courantes. D’autre part, il contient la théorie
29
naïve des ensembles, c’est à dire qu’on peut y définir à peu près n’importe quoi. Ce système
est le candidat idéal pour la formalisation de l’intelligence artificielle.
Théorème 16
Les démonstrations de taille h et de profondeur d de LLL (resp. ELL) se normalisent en temps
···2h
d
h2 (resp. une tour d’exponentielles 22
3.5.4
de hauteur d).
La complétude dénotationnelle
Les modèles fondamentaux de la logique linéaire sont de nature homogène, c’est à dire moniste.
Ils ne satisfont pas complètement au programme de dualité moniste, car ils sont incomplets, en
d’autre termes ils ont A trop d’éléments B par rapport à ce qu’ils interprètent. Par exemple, la
notion naturelle d’orthogonalité entre opérateurs, A uv nilpotent B fait en sorte que l’opérateur
nul est orthogonal à tout autre et donc —si les notions logiques sont définies par orthogonalité—,
appartient à tout énoncé logique, ce qui est absurde. La condition supplémentaire qui permettrait d’éliminer des opérateurs comme 0 de l’interprétation n’est toujours pas connue. Par contre
une solution très satisfaisante a été trouvée [49] dans le cas plus simple de la sémantique dénotationnelle, qui, rappelons-le ne rend compte que des entrées/sorties en ignorant la dynamique.
En sémantique cohérente une formule logique devient un graphe réflexif-symétrique (et sa négation le graphe complémentaire augmenté de la diagonale) ; une démonstration de A est alors
representée par une clique dans le graphe associé à A. Il y a évidemment beaucoup trop de
cliques, typiquement la clique vide, pour qu’il y ait complétude. On améliore très légèrement
la situation en considérant la forme bilinéaire qui à une clique a de A et à une clique b de A⊥
associe le cardinal < a, b > de leur intersection (qui est 0 ou 1) : on peut alors espérer affiner
l’orthogonalité en prescrivant la valeur de < a, b >. Malheureusement, il n’y a que 4 prescriptions
possibles, ce qui n’est pas assez pour éliminer les mauvaises herbes.
Mais on peut procéder en analogie avec l’algèbre linéaire, où un groupe commutatif devient
un A-module libre par tensorisation avec A. Ce qui va jouer le rôle d’anneau c’est un A Parmonoïde B P, i.e. un comonoïde dualisé12 . On fixe donc un tel P et on remplace l’espace cohérent
X par le A P-module libre B X ` P, dont les cliques sont appelées les P-cliques de X. La forme
bilinéaire associe maintenant à deux P-cliques, a de A et b de A⊥ , une clique < a, b > de P. Si
l’orthogonalité est définie par < a, b >∈ B, où B est un ensemble de cliques de P, on obtient le
résultat désiré, à savoir (pour l’essentiel) :
Théorème 17
Pour tous P et B, la P clique associée à une démonstration est acceptée par la sémantique.
Réciproquement si a est une (vraie) clique de A telle que a ` P soit acceptée pour tous P et B,
alors a est l’interprétation d’une démonstration de A.
3.5.5
La continuité en logique
Une objection sérieuse à la géométrie de l’interaction est l’absence de vrais paramètres (réels
ou complexes) dans l’interprétation. Pour cette raison je suis revenu aux motivations originales
de Dana Scott (la sémantique continue). Scott voulait faire de la topologie, mais la pléthore de
fonctionnelles canoniques Õ rendre continues (e.g. x, f ; f (x)) interdit les espaces uniformes,
d’où son repli sur des topologies très marginales (topologies T0 ), et en particulier l’impossibilité
d’acclimater les nombres réels.
La logique linéaire a permis de reposer le problème, en termes simples, voir [50] : prenons des
espaces métriques complets, et puisque linéarité il y a, des espaces de Banach complexes. Ce qui
12
Du fait que le produit tensoriel n’est pas auto-dual, le dual d’un comonoïde n’est pas un monoïde.
30
joue le rôle des cliques, ce sont les vecteurs de norme 6 1. Pour pallier le défaut de réflexivité
de ces espaces, le dual est A donné à l’avance B, et les constructions naturelles aux Banach
permettent d’interpréter facilement les constructions multiplicatives et additives. Observons au
passage que la différence E & F/E ⊕ F est rendue au moyen des normes `∞ /`1 qui peuvent
toutes deux équiper la somme directe algébrique.
Le point d’exclamation est interprété à partir de l’implication intuitionniste E ⇒ F , qui est
l’espace des fonctions analytiques de la boule unité ouverte de E dans F , équipé de la norme
`∞ . Tout se passe bien encore, à ceci près qu’on ne peut toujours pas contourner le problème
d’uniformité sur lequel avait buté Scott : les fonctions analytiques de norme 1 envoient la boule
ouverte de E dans la boule fermée de F , et donc ne se composent pas. Qu’à cela ne tienne, au
lieu de former f ◦ g, on formera f ◦ λg, avec |λ| < 1, ce qui correspond à une légère modification
du point d’exclamation. A ce prix on obtient la première sémantique logique continue.
3.5.6
L’invariant scalaire
J’ai alors un peu avancé dans la recherche de l’invariant scalaire du calcul, en supposant qu’il y
en ait un. Pour donner une idée, la clique < u, v > du Par-monoïde P est un tel invariant, dont
le seul défaut est d’être à valeurs dans un objet sacrément abstrait, alors qu’on voudrait un réel
ou un complexe. Si on se restreint à des Hilbert de dimension finie, on obtient deux invariants
scalaires :
I Si U et V sont des opérateurs traités dans l’esprit de la sémantique dénotationnelle (article
[50]), le scalaire T r(U V ).
I Si u et v sont traités dans l’esprit de la géométrie de l’interaction, le scalaire det(1 − uv).
Bien entendu, il ne peut s’agir que du même invariant, dans des incarnations différentes. Ce qui
impose pratiquement la relation suivante entre les deux types d’interprétation :
le passage au dénotationnel, c’est le foncteur A algèbre extérieure B
autrement dit on peut définir à partir de u sa dénotation U = Λ(iu), ce qui est cohérent avec le
fait que T r(Λ(−uv)) = det(1 − uv).
Ensuite vient le problème du passage en dimension infinie, i.e. du point d’exclamation. A ce
moment-là on perd trace de la trace, et on se retrouve face au problème déjà rencontré dans
[50] : dans cet article on avait résolu la question en multipliant par un scalaire |λ| < 1 ; on peut
toujours le faire ici (et on forme alors des opérateurs à trace).
Tout ça c’est du bricolage ; en l’absence de perspective claire, je me suis rabattu sur la ludique.
Ce n’est qu’en 2005 que je me suis repenché sur la question, précisément dans le cadre des
algèbres de von Neumann finies (de type II1 ), où la notion de déterminant prend tout son sens,
voir infra.
3.6
3.6.1
1997-2001
La signification des règles logiques
J’ai mis à profit l’ambiance quasi-monastique de la Chartreuse de Pontignano (Mars-Avril 1997),
près de Sienne, pour opérer ce qui devrait être la percée décisive, citemeaning1,meaning2,locus.
En fait je menais depuis 10 ans mon projet de dualité en m’acharnant sur 4 ou 5 cas très difficiles
à traiter, qui montrent que les idées mises en œuvre ne sont pas assez fines. À la fin j’ai été amené
à reconnaître qu’il s’agissait toujours d’un changement de polarité : donner à la notion de polarité
la place principale en logique était donc la seule voie possible. Je m’y étais toujours refusé car la
polarisation opère une certaine régression par rapport aux réseaux de démonstration. . . c’est vrai,
mais la contre-partie est le déblocage de la situation. Concrètement il n’y avait plus d’obstacle
31
théorique à la réalisation de mon programme ; il ne restait que des problèmes techniques, ardus
certes, mais plus du tout du même ordre. . . et d’ailleurs que l’article [53], qui réalise la plus
grande partie du programme, traite un fragment logique (multiplicatif/additif) contenant tous
les obstacles susmentionnés.
La notion de polarité (dans un sens plus général que celui utilisé en 3.4.6) nous vient de JeanMarc Andreoli, à ce jour le seul producteur d’un logiciel basé sur la logique linéaire, mais
aussi l’auteur d’une découverte remarquable, la focalisation, qu’il a faite dans le cadre de la
recherche de démonstrations, mais qui fonctionne aussi dans le cadre de la transformation de
démonstrations. La focalisation stipule qu’on peut diviser les opérations logiques en deux classes
duales A positives, négatives B de façon à assurer une certaine A associativité B à l’intérieur
de chaque classe (voir [51], annexe F). La distinction positif/négatif correspond aux notations
adoptées en logique linéaire : les styles algébrique (e.g. ⊗) et logique (e.g. &) correspondant
exactement à positif et négatif ! Ce hasard n’en est pas un, car ces deux styles de notations
avaient été choisis de façon à mémoriser des isomorphismes remarquables (e.g. ⊗ distribue sur
⊕ mais pas sur ` ou &), et la cause profonde de ces isomorphismes, c’est la focalisation. . .
La focalisation peut se voir d’un point de vue temporel A Un paquet d’opérations logiques de
même polarité se comporte comme une seule opération B : autrement dit,
La scansion du temps en logique, c’est l’alternance des polarités.
3.6.2
Desseins et comportements
Les résultats de [53] peuvent se résumer ainsi : d’abord on définit des
Lieux : Il s’agit d’adresses ξ, ξ 0 , . . . (correspondant aux emplacements des sous-formules d’une
formule donnée), que l’on peut voir comme un arbre de suites finies.
Desseins : Il s’agit —modulo focalisation— de ce qu’il reste d’une démonstration formelle
quand on a oublié la syntaxe (formules) et qu’on ne se rappelle plus que les lieux. Un
dessein D a une base, formée d’un lieu et d’une polarité, soit − ξ pour un dessein positif
de base ξ, ξ − pour un dessein négatif de base ξ.
Orthogonalité : Deux desseins D, E de bases opposées forment un réseau, lequel a une forme
normale D | E , qui ne peut prendre que deux valeurs, t (convergence) et Ω (divergence). L’orthogonalité D⊥E correspond à la convergence.
Comportements : Un comportement c’est une ensemble de desseins d’une base donnée égal à
son biorthogonal. C’est la notion abstraite, hors syntaxe, de formule logique.
A chaque formule logique A on peut associer un comportement A, et à chaque démonstration
π de A, on peut associer un dessein π ∈ A. On démontre deux théorèmes (pour la logique
propositionnelle MALL2 (certains termes sont expliqués plus bas).
Théorème 18 (Correction)
Le dessein π ∈ A est gagnant ; il est de plus incarné quand A est de classe Π1 .
Théorème 19 (Complétude pleine)
Si A est de classe Π1 et D ∈ A est gagnant et incarné, alors D = π pour une certaine démonstration π de A.
La notion d’incarnation ne joue qu’un rôle mineur dans ces théorèmes, aussi je me contenterai
d’expliquer les autres termes :
32
Classe Π1 : Les formules sont quantifiées au second ordre, et classe Π1 signifie que la quantification est universelle. La restriction à cette classe correspond au théorème de complétude/d’incomplétude de Gödel et est strictement nécessaire. Intuitivement Π1 correspond
à la classe arithmétique Σ01 .
Gagnant : Tout est basé sur une notion d’orthogonalité. Il est donc nécessaire —par horreur
du vide— d’avoir suffisamment de desseins, ce qui n’est possible que si l’on admet des
A règles incorrectes B ou paralogismes dont le prototype est le démon. Grâce au démon,
il y a un dessein de base donnée Dai orthogonal à tout le monde. . . Les conditions de
gain permettent d’éliminer ces desseins A illogiques B qui sont pourtant essentiels dans la
construction.
3.6.3
Syntaxe contre sémantique
Ces résultats sont formulés en termes relativement classiques, puisque complétude et correction
renvoient à l’adéquation entre syntaxe et sémantique. Or il se trouve que cette distinction devient
obsolète. En effet, quand deux desseins D, E sont orthogonaux, on peut décider d’en voir un
comme A preuve B, l’autre comme A modèle B, l’orthogonalité voulant précisément dire qu’ils se
correspondent. Si E est un ensemble de desseins de base donnée —par exemple l’ensemble des
desseins correspondant aux démonstrations d’une formule donnée—, son orthogonal est donc
l’ensemble des A modèles B et le bi-orthogonal l’ensemble de ce qui est A validé B par tous les
modèles. Il en résulte que la complétude peut s’énoncer de façon purement interne, à savoir
E = E⊥⊥ . De fait le théorème de complétude pleine est démontré comme corollaire de résultats
de complétude interne, par exemple le suivant :
Théorème 20 (Propriété de disjonction)
Si G, H sont des comportements positifs disjoints, i.e., si G ∩ H = {Dai}, alors (G ∪ H)⊥⊥ = G ∪ H.
À la fin, l’espace ludique entre syntaxe et sémantique n’est rien de plus qu’une syntaxe étendue
(par les paralogismes) et épurée, ce que j’ai résumé dans la phrase :
Au fond la syntaxe ne réfère qu’à elle-même
qui prend à contre-pied la tradition logique du XXième siècle, en particulier le Tarskisme, cette
Lapalissade logique. Ce slogan pourrait facilement prêter flanc à des interprétations excessives :
en réalité la syntaxe n’est qu’apparemment interprétée par elle-même, puisque la synthèse la
reconstruit sans la présupposer (les démonstrations, correctes ou non, sont en bijection avec les
desseins, qui ne présupposent en aucune façon la logique). On peut donner une deuxième version,
moins provoquante, de la même chose :
La signification des règles logiques est cachée dans la structure géométrique des règles
elles-mêmes.
3.6.4
Phénomènes locatifs
Pour comprendre l’opposition spirituel/locatif, considérons la notion de somme disjointe d’ensembles, X + Y = X × {0} ∪ Y × {1}. Elle permet de socialiser X, Y à isomorphisme près, et
induit des propriétés remarquables comme l’égalité cardinale
](X + Y ) = ](X) + ](Y )
mais cette notion n’est ni associative, ni commutative et n’admet pas d’élément neutre, à moins
que l’on ne redéfinisse ces concepts à isomorphisme près, ce qui fut en son temps un acquis
33
non-trivial de la théorie des catégories. Mais si on définit les A délocalisations B φ(X) = X × {0},
ψ(X) = X × {1}, on voit que X + Y = φ(X) ∪ ψ(Y ), i.e. que la somme se réduit, modulo
délocalisation à l’union. . . laquelle union est vraiment associative, commutative etc., mais par
contre socialise de façon hasardeuse : ainsi elle ne vérifie que l’inégalité
](X ∪ Y ) ≤ ](X) + ](Y )
La somme est spirituelle, alors que l’union est locative ; on doit constater que si la somme est
plus utile dans la plupart des constructions, l’union est plus primitive, plus essentielle.
Il se passe la même chose avec la notion de produit d’ensembles ; la notion usuelle qui vérifie
l’égalité cardinale
](X × Y ) = ](X).](Y )
n’est associative, etc. qu’à isomorphisme canonique près. Il existe pourtant un A produit locatif B,
i.e. X • Y = {x ∪ y; x ∈ X, y ∈ Y }, qui est vraiment associatif, commutatif, d’élément neutre
{∅}, mais qui ne vérifie que l’inégalité
](X • Y ) ≤ ](X).](Y )
On peut définir le produit usuel (ou plutôt un produit, mais on s’en moque, le spirituel est à
isomorphisme près) au moyen de φ(X) • ψ(Y ).
Passons maintenant à la ludique, et plus précisément aux connecteurs additifs duaux ⊕ et &.
En sémantique cohérente (p. 18), les additifs sont interprétés comme des sommes disjointes de
graphes, ce qui suppose une délocalisation. En ludique, la délocalisation fait toujours sens, et
on peut définir des délocalisations (toujours notées φ, ψ) telles que, si D, D0 , E sont des desseins
respectivement positif, positif et négatif, on ait
1. D⊥φ(E) ⇔ ∃D0 ⊥E D = φ(D0 )
2. D⊥ψ(E) ⇔ ∃D0 ⊥E D = ψ(D0 )
3. φ(D) = ψ(D0 ) ⇔ D = D0 = Dai
L’item 3 exprime que A φ, ψ sont (presque) disjoints B : en effet, comme φ(Dai) = ψ(Dai) = Dai,
on ne peut pas faire mieux. Rappelons que Dai est le démon, ce dessein orthogonal à tout le
monde, qui n’est là que pour remplir l’espace logique.
Examinons maintenant la disjonction de comportements positifs, i.e. formés de desseins positifs.
La notion la plus naturelle c’est bien sûr G ∪ H, qu’il faut biorthogonaliser pour obtenir un
comportement. Evidemment (G ∪ H)⊥⊥ c’est à peu près n’importe quoi, et on ne peut rien
dire sans hypothèse sur les localisations ; par contre ce connecteur locatif est vraiment associatif,
commutatif etc. Une opération moins belle, mais plus contrôlable est G⊕H = (φ(G)∪ψ(H))⊥⊥ .
Rappelons que G ⊕ H = φ(G)⊥⊥ ∪ ψ(H)⊥⊥ = φ(G) ∪ ψ(H), c’est un de nos théorème de complétude interne.
Dualement, la conjonction de comportements négatifs peut s’exprimer par l’intersection, un
connecteur locatif pas si nouveau que ça, puisqu’il correspond à la théorie du A typage intersection B développée essentiellement à Turin (mais qu’on n’a jamais su intégrer dans un cadre
logique). Pour obtenir un connecteur spirituel (la conjonction additive &), il faut délocaliser. Ici
une chose essentielle se passe, à savoir qu’une intersection délocalisée est (vue de la bonne façon)
un produit cartésien. Rentrons dans les détails, ça en vaut la peine. . .
Le théorème de séparation énonce qu’un dessein est déterminé par son orthogonal, comme il
se doit. Cela dit, quand un dessein D est vu à l’intérieur d’un comportement G, il n’y a plus
qu’une partie de ce dessein qui importe, on la note |D|G , c’est l’incarnation de D dans G dont
l’existence est assurée par un autre théorème fondamental de la ludique, le théorème de stabilité.
34
Dans le cas d’une intersection délocalisée, que se passe-t-il au niveau des incarnations ? C’est
très simple, comme G & H est l’orthogonal de l’union φ(G⊥ ) ∪ ψ(H⊥ ), A tout se passe B dans
image de φ ou dans l’image de ψ : l’incarnation de D dans G & H est l’union de ses incarnations
respectives dans φ(G) et ψ(H), soit |G & H| = |ψ(G)| • |ψ(H)| ; on retrouve ici le A produit
cartésien locatif B. La formule précédente s’écrit encore, de façon plus spectaculaire, mais moins
informative
Théorème 21
|G & H| ' |G| × |H|
c’est ce que nous avons appelé le mystère de l’incarnation. Les deux intuitions fondamentale
quant à la conjonction additive (intersection et produit cartésien) coincident !
Si l’on définit la vérité d’un comportement par la présence d’un dessein gagnant (et la fausseté
par la vérité de l’orthogonal), on voit facilement que la conjonction locative viole les tables de
vérité classique dans un sens : G, H peuvent être vrais alors que G ∩ H est faux. Mais ça ne
peut pas aller plus loin. On a une interférence plus ouverte dans le cas de la version locative
de la conjonction multiplicative : G, H peuvent être vrais alors que G H est faux, et G, H
peuvent être faux alors que G H est vrai.
Le problème de l’incomplétude se trouve renouvelé de façon fondamentale par la ludique. Rappelons que le théorème de Gödel n’est jamais que la nième variante du résultat bien connu de
Cantor A les réels ne sont pas dénombrables B. C’est dire que l’incomplétude Gödélienne est de
nature énumérative, et donc un peu artificielle. Or l’examen des formules ludiques fait apparaître
la possibilité d’une incomplétude plus naturelle, liée à l’impossibilité de calculer le biorthogonal
d’une union, même finie. J’ai cherché un exemple simple et j’ai trouvé :
Théorème 22
Sous des hypothèses spirituelles appropriées (qui correspondent à l’utilisation standard de la
logique), tout comportement est égal à sa forme prénexe du second ordre.
Il s’agit d’un pavé dans la mare, car les formes prénexes n’existent pas dans le monde constructif,
et d’ailleurs les sémantiques A Tarskiennes B les réfutent. Pourquoi cette nouveauté qui devrait
induire une simplification essentielle ? Tout simplement parce que la sémantique habituelle ignore
le fait que la quantification est forcément locative (on ne peut pas délocaliser, il y a trop de monde
et pas assez de lieux) et ne peut en aucune façon se gérer comme une A super-conjonction B, qui
correspond à l’idée de copies indépendantes. Il y a deux possibilités :
I Soit il suffit de renforcer les règles de la quantification et il ne reste plus que l’incomplétude
Gödélienne. Dans ce cas on aura gagné un outil technique incomparable.
I Soit c’est fondamentalement impossible, car il y a un manque fondamental. C’est de loin la
possibilité la plus fascinante.
3.7
3.7.1
2002-2006
Un tournant méthodologique
Autour de l’an 2000, parallèlement à la longue mise au point de la ludique, j’écrivais une sorte
de dictionnaire de 100 pages, qui forme la seconde partie de l’article [53]. À l’origine, il s’agissait
d’expliciter mon point de vue en relation avec la tradition logique de la théorie de démonstartion,
donc une œuvre à portée surtout pédagogique. L’idée était de faire un texte plutôt amusant,
avec des images saisissantes, mais aussi un texte très rigoureux, i.e., une argmentation convaincante. Beaucoup d’articles ont-ils ainsi été récrits plusieurs fois, tout simplement du fait que les
nouveautés techniques introduites simultanément dans la première partie amenaient un subtil
changement de point de vue.
35
C’est ainsi qu’à la fin de ce travail, j’ai compris qu’il était possible de parler à nouveau de cette
activité complètement sclérosée, les fondements. . . alors que mon originalité au sein de la théorie
de la démonstration avait toujours consisté à refuser catégoriquement tout A fondamentalisme B
(les démonstrations de cohérence et autres balivernes). Et donc, l’article de survol [54], qui ne
devait à l’origine n’être qu’un résumé de [53], propose un objectif fondationnel clair et ambitieux,
la déréalisation des entiers naturels. En d’autres termes, revenir sur la problème de l’infini, celui
auquel s’attaquait Hilbert vers 1925, mais à l’aide de méthodes modernes, venant en particulier
de la ludique. Il est à noter que la réflexion au sein du groupe LIGC, voir supra, a été un puissant
accélérateur du tournant méthodologique, comme quoi l’épistémologie peut être féconde quand
elle sort de sa sclérose.
Mais pas uniquement, il y avait aussi, de plus en plus en plus marquée, l’influence du programme
déréaliste de Connes, la géométrie non-commutative, qui suggère un au-delà de la théorie des
ensembles. En résumé, toutes ces considérations m’ont amené au programme suivant :
Interpréter la logique dans les algèbres d’opérateurs.
Á vrai dire, ma géométrie de l’interaction (GdI) des années 1987-94 réalisait déjà ce programme,
dans le sens qu’à toute démonstration était associée un opérateur, et que l’élimination des
coupures —l’opération centrale de la logique— correspondait à la solution d’une équation linéaire
(equation de rétroaction). Le succès de cette première GdI fut surtout d’établir la pertinence
d’une approche a priori hardie. Mais cela restait un peu superficiel, car j’avais été amené à
utiliser des particularités inhérentes au langage, par exemple à distinguer une base particulière
d’un Hilbert. . . ce qui est mauvais signe, en particulier, pas question d’effets quantiques.
3.7.2
Espaces cohérents quantiques
Car je voulais introduire un aspect quantique dans la logique, en prenant à rebrousse-poil le point
de vue de la défunte A logique B quantique, dont le but avoué était de punir la physique de faire
des erreurs de logique. En d’autres termes, au lieu d’une interprétation logique du quantique, je
cherchais une interprétation quantique de la logique. Ce n’est qu’en 2002 que j’ai brutalement
compris comment faire, et remplacer mes espaces cohérents par une version quantique, voir [55].
Pour cela on observe qu’on peut définir les espaces cohérents au moyen de la mise en dualité
suivante : deux sous-ensembles a, b du même X sont polaires quand leur intersection a au plus un
point. On peut caractériser les espaces cohérents de support X comme les ensembles de parties
de X égaux à leur bipolaire. Sous cette forme, la notion se laisse facilement généraliser en espaces
cohérents probabilistes : il suffit de remplacer les sous ensembles
par des fonctions du support
P
(discret) à valeurs dans [0, 1], la polarité étant donnée par
f (x)g(x) ≤ 1.
La version quantique consiste à prendre pour support X un Hilbert (de dimension finie), le rôle
des ensembles étant joué par les hermitiens, pas forcément positifs. La mise en dualité se faisant
au moyen de 0 ≤ Tr(fg) ≤ 1. En fait un ecq (espace cohérent quantique) est equipé d’une
semi-norme (pouvant être infinie) ainsi que d’une relation d’ordre (ne coincidant pas forcément
avec l’ordre usuel des hermitiens). Ce qui nous intéresse ce sont les hermitiens A positifs B et de
A norme B au plus 1. Ceci généralise les espaces cohérents usuels et probabilistes.
La logique linéaire s’interpréte naturellement dans les ecq, en fait on ne voit guère la différence
avec le cas de base, non quantique. Sauf que l’axiome d’identié de la logique (C ` C) est
susceptible de deux interprétations différentes, celle venant de la tradition, et une autre —que
le cas A commutatif B ne différenciait pas. Concrètement, prenons l’implication entre A ⊕ B et
A ⊕ B, on a le choix entre :
Commutatif : la fonction qui envoie A sur A, B sur B.
Non-commutatif : la fonction qui envoie n’importe quoi sur lui-même.
36
Dans le monde usuel, commutatif, ces deux fonctions sont indiscernables. Dans un monde quantique, elles le deviennent, en effet l’argument de la fonction peut s’écrire sous-forme de blocs
par rapport à A, B. Le monde commutatif ne s’occupe que des blocs diagonaux, ensemblistes.
Concrètement, la première fonction, appliquée à une matrice par blocs A tue B les deux blocs
non-diagonaux, ce que ne fait pas la seconde. Cette diagonalisation A à la hussarde B opérée par la
première fonction correspond au processus de mesure dans le formalisme des A matrices de densité B de von Neumann. Logiquement, la nuance entre les deux existe, elle est faite par le calcul
(la première fonction est plus coûteuse) mais impossible à expliquer par les entrées/sorties, vu
que dans la cas logique, les entrées seront diagonales. Cette nuance possède un nom en logique,
c’est la η-expansion, variante fonctionnelle de l’axiome d’extensionalité. Pour nous résumer :
L’extensionalité, c’est la réduction du paquet d’ondes.
Les résultats de [55] sont encourageants et originaux. Cela dit, la problématique est limitée, car
on ne peut pas passer en dimension infinie : on a besoin de la trace, i.e., d’une algèbre de type
II1 . Malheureusement, la fonction identique dont venons de parler n’est plus représentable.
3.7.3
L’équation de rétroaction
Encouragé par ce premier succès, je suis revenu à la GdI [56], avec une méthodologie différente :
étudier en général l’équation de rétroaction, hors de toute hypothèse de nature logique. De cette
façon je n’aurai pas les mains liées par des a priori de nature logique, quand je passerai à la
remise en cause des A fondements B.
L’équation de rétroaction suppose la donnée de (H, h, σ) où H est un espace de Hilbert, h est
un hermitien de norme au plus 1, et la rétroaction σ est une symétrie partielle. Comme σ 2 est le
projecteur orthogonal d’un espace S, il induit une décomposition de l’espace en somme directe.
L’équation s’énonce
h(x ⊕ y) = x0 ⊕ σ(y)
Etant donné x, on cherche x0 (et accessoirement y), et l’opérateur σJhK sur R qui donne x0 en
fonction de x est la forme normale.
L’équation de rétrocation n’est pas forcément soluble stricto sensu. C’est pourquoi la forme
normale est construite en trois étapes.
1. Le cas inversible est celui où l’équation est soluble par inversion d’un opérateur. On peut
démontrer que la solution est croissante en h, et même commute aux sups et infs filtrants.
2. Par imitation de l’intégrale de Lebesgue, le cas inversible est étendu au cas semi-inversible
inférieurement (suprémum d’une famille filtrante d’inversibles). Par contre, contrairement
à ce qui se passe avec l’intégrale, cette extension ne commute pas aux infs et là s’arrête
l’imitation.
3. Le cas général consiste à découper la rétroaction σ en différence σ = π − ν de deux
projecteurs, et à se ramener au cas où σ est un projecteur. Dans ce cas particulier, le cas
précédent (s.i.i.) suffit. De plus, on peut utiliser des racines carrées d’hermitiens positifs
et obtenir une formule explicite ; on peut faire la même chose dans le cas de l’opposé d’un
projecteur. On conclut en A recollant les deux cas B, i.e., en définissant
σJhK := πJ(−ν)JhKK = (−ν)JπJhKK
.
Il est à remarquer que l’équation d’associativité
(σ + τ )JhK = σJτ JhKK
37
essentielle dans la dernière partie de la construction, n’est rien d’autre que la version GdI de la
propriété de Church-Rosser des logiciens, i.e., la compositionalité de la GdI. Mais le découpage
de σ en différence de deux projecteurs n’a pas de sens logique, il s’agit donc d’une technique
logique revisitée dans un cadre non-commutatif.
3.8
3.8.1
2007-2010
Le facteur hyperfini
L’équation de rétroaction est donc A résolue B en toute généralité. La solution utilise les opérations
de l’algèbre ainsi que des limites en topologie faible (ou forte), en d’autres termes elle est valide
dans toute algèbre de von Neumann. Mon travail actuel (2006) (chapitres 20, 21 de [63]) consiste
à réinterpréter la logique dans une algèbre de von Neumann de type autre que I, plus précisément
le facteur hyperfini de type II1 .
Le facteur hyperfini est doublement fini :
I La finitude (existence d’une trace, d’une dimension), empêche de créer des copies fraîches
d’objets déjà existants.
I L’hyperfinitude (approximabilité par des algèbres de matrices) empêche de créer de nouvelles
A qualités B, i.e., des opérateurs commutant avec ce que l’on a déjà.
Il s’agit d’impossibilités internes ; du point de vue externe, le facteur hyperfini dispose d’une
quantité impressionnante d’automorphismes. Ce qui permet de renouveler l’idée de finitisme :
contrairement à sa version ancienne, basée sur la combinatoire prétendument innocente des
entiers, on a ici un finitisme non ensembliste, basé sur la distinction entre automorphisme interne
et automorphisme externe.
3.8.2
La vérité subjective
L’interprétation de la logique dans R repose sur une dualité entre hermitiens de norme ≤ 1 :
det(I − uv) 6= 1 (et r(uv) < 1). Les énoncés logiques deviennent alors des conduites, i.e., des
sous-ensembles C ⊂ R égaux à leur bipolaire.
Une question ouverte depuis toujours en logique est celle de la vérité ; M. de la Palice, et à sa
suite Tarski, l’a définie comme la qualité de ce qui est vrai. Dans le cadre du facteur hyperfini, la
condition peut être posée ainsi : si det(I −uv) 6= 1, peut-on, dans certains cas, attribuer la valeur
6= 1 du déterminant à l’un des deux partenaires u, v ? Il n’y a pas de réponse objective, par contre
on peut répondre par rapport à un point de vue, i.e., une sous-algèbre commutative maximale
P ⊂ R : si u, v sont des isométries partielles hermitiennes telles que uPu ⊂ P, vPv ⊂ P, et si
r(uv) < 1, alors uv est nilpotent et donc det(I − uv) = 1.
On peut donc définir la A vérité B d’une conduite C ⊂ R comme l’existence d’une isométrie
partielle hermitienne u ∈ C telle que uPu ⊂ P ; il s’agit d’une notion subjective, relative à un
point de vue. Le théorème de cohérence subjective dit que la vérité subjective est stable par
conséquence logique.
Ce qui mène à ce paradoxe : un théorème A peut être subjectivement faux par rapport à un
point de vue tordu. Cela ne relativise en rien la valeur du théorème A, car la compréhension de
l’énoncé suppose une organisation, un repérage du monde, ce qui se fait au moyen d’une base
ou, plus généralement, d’une sous-algèbre commutative.
3.8.3
Les entiers non commutatifs
La tradition logique interpréte les entiers comme les fonctionnelles d’itération : si f ∈ X ⇒ X,
Φ(f ) = f n ∈ X ⇒ X. Cette dépendance, même si f est une fonction linéaire, n’est pas linéaire :
il faut, pour composer f avec elle-même, la pérenniser.
38
Dans le facteur hyperfini R, la pérennisation prend la forme d’une puissance tensorielle RI
croisée par un groupe G de bijections de I : I o G. Il n’y a pas de choix universel, car le
groupe G doit être moyennable. Ce qui fait que l’on obtient un continuum de notions d’entiers,
paramétrées par ces groupes, et donc la déréalisation espérée des entiers naturels.
Il faudrait bien évidemment exploiter ce qui n’est, pour l’instant, qu’une idée prometteuse. En
particulier, étudier la complexité algorithmique des fonctions définies par GdI sur les différentes
variétés d’entiers. Dans cette optique, il semble inévitable d’étudier les sous-facteurs de R du
point de vue de la complexité algorithmique. [58] (voir infra) est certainement un jalon dans
cette direction.
3.8.4
GdI dans le facteur hyperfini
Plus récemment (2008), j’ai repris la GdI dans le facteur hyperfini, voir l’article [57], paru dans
le volume de TCS en mon honneur. Fondamentalement, l’idée de dialecte, introduite dans [43]
(la communication sans compréhension) reprend brillament du service. Le dialecte est en fait la
ressource : sans compréhension, on ne peut pas le dupliquer. Autrement dit, la pérennité devient
l’absence de dialecte, et la pérennisation, un isomorphisme faisant passer la partie spirituelle (le
dialecte) dans le pôt commun locatif. Remarquer que les logiques allégées apparaissent toutes
deux, simultanément, comme gestion naturelle de l’exponentielle. Autrement dit, le facteur hyperfini produit effectivement de la logique allégée. Les deux variantes LLL,ELL ne sont dues
qu’à des morphologies différentes (on s’intéresse à des genres différents d’énoncés).
3.8.5
Normativité et LOGSPACE
Dans la continuité de ces travaux, mentionnons [58]. Les entiers naturels ne sont uniques qu’à
isomorphisme près, car ils ont une composante dialectale correspondant aux instructions de
duplication. Du point de vue de la GdI où les entiers sont A observés B au moyen de l’équation
de rétroaction par interaction avec des A anti-entiers B, il se pourrait très bien que le résultat
Φ | N de l’A observation B de l’entier représenté par N au moyen de l’opérateur Φ dépende
de la représentation N . Il faut donc trouver un moyen d’assurer l’objectivité de l’observation ;
le plus simple est de demander que Φ et N évoluent dans certaines sous-algèbres spécifiques
du facteur hyperfini (ce que j’appelle une paire normative (I, O)). La paire normative la plus
naturelle est basée sur un produit en couronne. On s’aperçoit alors que la restriction à cette paire
normative correspond à une restriction algorithmique bien connue : si la matrice 6 × 6 de Φ est
à coefficients dans O et celle de la représentation N des entiers binaires à coefficients dans I,
alors le le calcul de Φ | N se fait en espace logarithmique. Réciproquement, la complexité
LOGSPACE peut être caractérisée par ce choix de sous-algèbres.
3.9
Depuis 2011 : la syntaxe transcendantale
Les activités du groupe LIGC m’ont permis de renouer le contact perdu avec la philosophie, en
particulier avec les idées de Kant et Hegel.
3.9.1
Conditions de possibilité
L’explication sémantique courante veut que le langage décrive le réel ; comme la première tâche
du langage est de formater le réel, on a le droit d’émettre des doutes sur cette affirmation
simpliste. En fait, ce que l’on appelle sémantique n’est que du langage fétichisé — après tout, la
sémantique reste abstraite — dont la prétendue A réalité B s’oppose à l’analyse du langage et aux
vraies questions qui se posent : par exemple, comment est-il possible de porter un jugement sur
39
quoi que soit et, surtout, de croire à ce jugement ? Et, dans cette croyance, quelle est la partie
de certitude, quelle est la partie conjecturale liée a l’expérience, au bon sens, etc. ?
Mon ultime programme scientifique est donc l’étude des conditions de possibilité du langage,
autrement dit, en termes kantiens, la syntaxe transcendantale. Il s’agit de déplacer le mobilier
logique de façon à évacuer la sémantique, i.e., l’idée que le langage parle d’un A quelque chose
d’autre B qui se défile toujours. Une telle entreprise aurait été vouée à l’échec au temps de ma
jeunesse ; mais les progrès réalisés — tout spécialement, les réseaux de démonstration —, la
rendent tout à fait viable.
3.9.2
Fondement contradictoire
L’analyse des réseaux de démonstration faisait apparaître les conditions de correction pour A
comme des espèces de démonstration de A⊥ , voir 3.4.5. Ce qui correspond à l’idée hégelienne
de fondement contradictoire. Cette géniale intuition de Hegel a été décriée pour des raisons de
cohérence logique ; ce qui est idiot, car les A démonstrations B à l’œuvre dans les conditions
de correction n’ont qu’une valeur normative, déontique : elles ne réfutent pas (ce qui serait,
effectivement, contradictoire), elles récusent.
Cela dit, le fondement contradictoire, tel qu’il a été développé en GdI ou en ludique, est problématique du point de vue kantien : s’il explique bien le choix des règles par la dialectique des
interdictions mutuelles, il échoue à expliquer le phénomène de conviction procuré par un système formel. Autrement dit, mes travaux précédents donnent une explication satisfaisante de la
morphologie (le choix des règles, etc.), permettent de définir ce qu’est une démonstration, mais
ne donnent aucun critère permettant d’en reconnaître une seule ! Sauf dans le cas multiplicatif,
base de la GdI et de la ludique, mais peut-être trop simple.
La conviction, sur des bases dialectiques, ne peut résulter que d’une hypothèse de finitude :
la démonstration que nous cherchons est dans l’orthogonal d’un ensemble fini ; ce qui est vrai
dans le cas multiplicatif. On peut alors parler d’apodictique, i.e., de certitude dont on ne peut
pas douter raisonnablement. Au-delà des multiplicatifs, ceci devient rapidement faux : si une
démonstration doit passer une infinité de tests — lesquels tests sont de plus testables ! — on ne
conclura jamais. Il faut donc modifier le paradigme pour assurer cette finitude du pré-orthogonal.
Pour trouver les conditions d’affirmation d’une démonstration, je suis donc revenu aux réseaux de
démonstration, mais dans le cas quantifié. On obtient une image assez différente de la dialectique,
du fondement contradictoire. Dans la version courante, on se donne un ensemble de permutations
(ou d’opérateurs) et l’on cherche une permutation (un opérateur) A orthogonal B à cet ensemble.
Dans le cas quantifié, la réponse ne consiste pas seulement en une permuation, mais aussi en
la donnée d’une ensemble auxiliaire de permutations, un A gabarit B, modifiant l’ensemble de
départ. L’orthogonalité se définit par rapport à cet ensemble modifié et c’est ainsi que la finitude
est préservée.
Ceci définit un niveau de base, A tectonique B, source de confiance absolue. Le seul problème est
que ce niveau n’est pas déductif ; en effet, les gabarits doivent vérifier des contraintes d’orthogonalité que l’on ne peut pas vérifier de façon finie. C’est ici, au niveau de la déductivité (ou
encore de la cohérence), que s’introduisent les phénomènes bien connus d’incomplétude. Seules
certaines démonstrations tectoniques sont correctes et il n’y a aucun moyen de savoir lesquelles
le sont. Ce choix est du ressort de l’arbitraire épidictique13 , un arbitraire qui ne peut être analysé, puisque toute analyse serait circulaire. Autrement dit, on atteint ici les fondements absolus,
indépassables. Les objections classiques (incomplétude) ne s’appliquent pas dans ce cas, car la
tectonique a ménagé un espace pour le doute raisonnable.
Ce mot, qui rime avec apodictique, remplace A axiomatique B, usé : il suggère une certitude entachée d’un
certain doute.
13
40
Mes articles les plus récents [43, 46, 47, 48, 49, 50, 51, 52, 53, 55, 56, 81, 83, 84, 85, 57, 58] sont
accessibles à l’URL
http://iml.univ-mrs.fr/~girard/Articles.html
Mon livre récent [62, 63] a été publié chez Hermann : tome 1 296 pp., tome 2 300 pp. ; sa
traduction [64] (550 pp.) vient d’être publiée par la Société Mathématique Européenne.
Références
[1] Une extension de l’interprétation fonctionnelle de Gödel à l’analyse et son application à l’élimination des coupures dans l’analyse et la théorie des types.
In Fenstad, editor, Proceedings of the 2nd Scandinavian Logic Symposium, pages 63–92,
Amsterdam, 1971. North-Holland.
[2] Quelques résultats sur les interprétations fonctionnelles. In Mathias and Rogers,
editors, Cambridge Summer School in Mathematical Logic, pages 232–252, Heidelberg, 1973.
Springer Verlag. Lecture Notes in Mathematics 337.
[3] Interprétation fonctionnelle et élimination des coupures de l’arithmétique
d’ordre supérieur. Thèse de Doctorat d’Etat, Université Paris VII, Paris, juin 1972.
[4] Three-valued logic and cut-elimination : the actual meaning of Takeuti’s conjecture. Dissertationes Mathematicæ, 136 :1–49, 1976.
[5] Functional interpretation and Kripke models. In Butts and Hintikka, editors, Logic,
Foundations of Mathematics and Computability Theory, pages 33–58, Dordrecht, 1977. D.
Reidel.
[6] Functionals and ordinoids. In Colloque international de logique, pages 59–72, Paris,
1977. CNRS. Colloques internationaux du CNRS n◦ 249.
[7] avec P. Päppinghaus. A result on implication of Σ1 sentences and its application
to normal form theorems. Journal of Symbolic Logic, 46 :634–642, 1981.
[8] Π12 -logic, part I : dilators. Annals of Mathematical Logic, 21 :75–219, 1981.
[9] A survey of Π12 -logic. In Logic, Methodology and Philosophy of Science VI, pages 89–107,
Amsterdam, 1982. North-Holland.
[10] Proof-theoretic investigations of inductive definitions, part I. In Logic and algorithmic, pages 207–236, Genève, 1982. L’enseignement mathématique. Monographie n◦ 30.
[11] Herbrand’s Theorem and proof-theory. In Stern, editor, Proceedings of the Herbrand
Symposium, pages 29–38, Amsterdam, 1982. North-Holland.
[12] avec J. Vauzeilles. Functors and ordinal notations I : A functorial construction of
the Veblen hierarchy. Journal of Symbolic Logic, 49 :713–729, 1984.
[13] avec J. Vauzeilles. Functors and ordinal notations II : A functorial construction
of the Bachmann hierarchy. Journal of Symbolic Logic, 49 :1079–1114, 1984.
[14] avec J.-P. Ressayre. Eléments de logique Π1n . In Recursion theory, pages 389–445,
Providence, 1985. AMS. Proceedings of Symposia in Pure Mathematics n◦ 42.
[15] avec D. Normann. Set recursion and Π12 -logic. Annals of Pure and applied logic, 28 :255–
287, 1985.
[16] The Ω-rule. In Proceedings of the International Congress of Mathematicians, pages 307–
321, Warszawa, 1984. PWN.
[17] avec J. Vauzeilles. Les premiers ordinaux récursivement inaccessible et Mahlo et
la théorie des dilatateurs. Archiv für Mathematik und Logik Grundlagen, 24 :167–191,
1985.
41
[18] avec D. Normann. Embeddability of ptykes. Journal of Symbolic Logic, 57 :659–676,
1992.
[19] Introduction to Π12 -logic. Synthèse, 62 :191–216, 1985.
[20] The skeleton of a dilator. In Abrusci and Casari, editors, Logica e filosofia della scienza
oggi, pages 35–49, Bologna, 1986. CLUEB.
[21] avec M. Abrusci et J. van de Wiele. Some uses of dilators in combinatorial problems
I. In Logic and Combinatorics, pages 25–53, Providence, 1987. em AMS. Proceedings of
Symposia in Pure Mathematics n◦ 65.
[22] avec M. Abrusci et J. van de Wiele. Some uses of dilators in combinatorial problems,
part II : increasing F -sequences, F dilator, and inverse Goodstein sequences.
Prepublication, Università di Siena, Siena, 1984.
[23] Π12 -logic and related topics. In Atti degli incontri di logica matematica, pages 13–46,
Siena, 1987. Università di Siena.
[24] Normal functors, power series and λ-calculus. Annals of Pure and Applied logic,
37 :129–177, 1988.
[25] Le λ-calcul du second ordre. Astérisque, 152-153 :173–186, 1987. Séminaire Bourbaki.
[26] The system F of variable types, fifteen years later. Theoretical Computer Science,
45 :159–192, 1986. repris dans Logical Foundations of Functional Programming, AddisonWesley 1990.
[27] Linear logic. Theoretical Computer Science, 50 :1–102, 1987.
[28] Linear Logic and Parallelism. In Venturini-Zilli, editor, Mathematical models for the
semantics of parallelism, pages 166–182, Heidelberg, 1987. Springer Verlag. Lecture Notes
in Computer Science 337.
[29] Multiplicatives. In Lolli, editor, Logic and computer science : new trends and applications,
pages 11–34, Torino, 1988. Università di Torino. Rendiconti del seminario matematico
dell’università e politecnico di Torino, special issue 1987.
[30] avec Y. Lafont. Linear Logic and lazy computation. In Ehrig, Kowalski, Levi, and
Montanari, editors, Proceedings of TAPSOFT 87, pages 52–66, Heidelberg, 1987. Springer
Verlag. Lecture Notes in Computer Science 250.
[31] Quantifiers in linear logic. In dalla Chiara and Galavotti, editors, Temi e prospettive della
logica e della filosofia della scienza contemporanee, pages 95–130, Bologna, 1989. CLUEB.
[32] Towards a geometry of interaction. In Categories in Computer Science and Logic, pages
69–108, Providence, 1989. AMS. Proceedings of Symposia in Pure Mathematics n◦ 92.
[33] avec P. Freyd et A. Scedrov et P. Scott. Semantic parametricity in typed λ-calculus.
In Logic and Computer Science 1988, pages 69–108, Los Alamitos, 1989. IEEE Computer
Society Press.
[34] Geometry of interaction I : interpretation of system F . In Ferro, Bonotto, Valentini,
and Zanardo, editors, Logic Colloquium ’88, Amsterdam, 1989. North-Holland.
[35] Geometry of Interaction II : deadlock-free algorithms. In Martin-Löf and Mints,
editors, Proceedings of COLOG 88, pages 76–93, Heidelberg, 1990. Springer Verlag. Lecture
Notes in Computer Science 417.
[36] avec A. Scedrov et P. Scott. Bounded linear logic : a modular approach to polynomial time computability : extended abstract. In Buss and Scott, editors, Feasible
mathematics, pages 195–209, Boston, 1990. Birkhäuser.
42
[37] avec A. Scedrov et P. Scott. Bounded linear logic : a modular approach to polynomial time computability. Theoretical Computer Science, 97 :1–66, 1992.
[38] Introduction à la logique linéaire. In Courcelle, editor, Logique et informatique : une
introduction, pages 229–256, Rocquencourt, 1991. INRIA.
[39] avec A. Scedrov et P. Scott. Normal forms and cut-free proofs as natural transformations. In Moschovakis, editor, Logic from Computer Science, pages 217–242, Heidelberg,
1992. Springer Verlag.
[40] Quantifiers in linear logic II. In Corsi and Sambin, editors, Nuovi problemi della logica
e della filosofia della scienza, pages 79–90, Bologna, 1991. CLUEB.
[41] A new constructive logic : classical logic. Mathematical structures in Computer
Science, 1 :255–296, 1991.
[42] On the unity of logic. Annals of Pure and Applied Logic, 59 :201–217, 1993.
[43] Geometry of interaction III : accommodating the additives. In Girard, Lafont, and
Regnier, editors, Advances in Linear Logic. Cambridge University Press, 1995.
[44] Logic and exceptions : a few remarks. Journal of Logic in Computation, 2 :111–118,
1992.
[45] Linear logic : a survey. In Bauer, Brauer, and Schwichtenberg, editors, Logic and Algebra
of Specification, pages 63–112, Heidelberg, 1993. Springer Verlag. NATO series F94.
[46] Linear logic, its syntax and semantics. In Girard, Lafont, and Regnier, editors, Advances in Linear Logic. Cambridge University Press, 1995.
[47] Proof-nets : the parallel syntax for proof-theory. In Ursini and Agliano, editors,
Logic and Algebra, New York, 1996. Marcel Dekker.
[48] Light linear logic. Information and Computation, 143 :175–204, 1998.
[49] On denotational completeness. Theoretical Computer Science, 227 :249–273, 1999.
[50] Coherent Banach Spaces : a continuous denotational semantics. Theoretical Computer Science, 227 :275–297, 1999.
[51] On the meaning of logical rules I : syntax vs. semantics. In U. Berger and H. Schwichtenberg, editors, Computational Logic, Heidelberg, 1999. Springer Verlag. NATO series F
165.
[52] On the meaning of logical rules II : multiplicative/additive case. In R. Steinbrüggen F. L. Bauer, editor, Foundation of Secure Computation, Amsterdam, 2000. IOS Press.
NATO series F 175.
[53] Locus Solum. Mathematical Structures in Computer Science, 11 :301 – 506, 2001.
[54] From foundations to ludics. Bulletin of Symbolic Logic, 9(2) :131 – 168, 2003.
[55] Between logic and quantic : a tract. In Ruet, Ehrhard, Girard, and Scott, editors,
Linear Logic in Computer Science, pages 346 – 381. Cambridge University Press, 2004.
[56] Geometry of interaction IV : the feedback equation. In Stoltenberg-Hansen and
Väänänen, editors, Logic Colloquium ’03, pages 76 – 117. ASL, 2006.
[57] Geometry of interaction V : logic in the hyperfinite factor. Theoretical Computer
Science, 412 :1860 – 1883, 2011. Girard’s Festschrift, eds. Ehrhard, Faggian and Laurent.
[58] Normativity in logic. In Epistemology vs. Ontology, 2012. Springer.
[59] Proof-theory and logical complexity I. Bibliopolis, Napoli, 1987.
[60] Proof-theory and logical complexity II. North-Holland, Amsterdam, à paraître.
43
[61] avec Y. Lafont et P.Taylor. Proofs and types, volume 7 of Cambridge tracts in theoretical
computer science. Cambridge University Press, Cambridge, 1990.
[62] Le point aveugle, tome 1 : vers la perfection. Visions des Sciences. Hermann, Paris,
2006. 296 pp.
[63] Le point aveugle, tome 2 : vers l’imperfection. Visions des Sciences. Hermann, Paris,
2007. 300 pp.
[64] J.-Y. Girard. The Blind Spot : lectures on logic. European Mathematical Society,
Zürich, 2011. 550 pp.
[65] Sur le théorème d’incomplétude de Gödel. In Bouleau, editor, Cinq conférences sur
l’indécidabilité, pages 25–48, Paris, 1983. Presses des Ponts & Chaussées.
[66] Démonstration (théorie de la). In Encyclopædia Universalis, pages 1101–1105, Paris,
1984. Encyclopædia Universalis.
[67] avec I. Reznikoff. Intuitionnisme. In Encyclopædia Universalis, pages 74–77, Paris, 1984.
Encyclopædia Universalis.
[68] Une théorie géométrique des ordinaux. Pour la Science, juillet 1985. repris dans Les
mathématiques aujourd’hui, Belin 1986, pp. 97-108.
[69] La logique linéaire. Pour la Science, 150 :74–85, avril 1990.
[70] Le rasoir de Kreisel. l’Ane, juillet 1985.
[71] La mouche dans la bouteille. l’Ane, octobre 1986. repris dans Logic Colloquium ’85,
North-Holland 1987, pp. 9-12.
[72] Sources et ressources de la théorie de la démonstration. l’Ane, octobre 1989.
[73] L’idée d’incomplétude. Sciences et Avenir, 121, janvier 2000.
[74] L’infini en logique : autour du concept d’entier. In Toraldo di Francia, editor,
L’infinito nella scienza, pages 141–150, Roma, 1987. Enciclopedia italiana.
[75] Théorie réductrice de la démonstration. In Storia del 20◦ secolo, Roma, 1994. Encyclopedia italiana.
[76] Le champ du signe. In Le théorème de Gödel, pages 141–171, Paris, 1989. Le Seuil. repris
sous le titre Il sogno del segno dans La prova di Gödel, Boringhieri 1992.
[77] La logique au milieu du gué : logique naturelle et intelligence artificielle. In La
machine de Turing, Paris, 1995. Le Seuil.
[78] Logique et informatique : point de vue d’un logicien. étude, UNESCO, Paris,
décembre 1986.
[79] La logique comme science de l’interaction. étude, UNESCO, Paris, mars 1988.
[80] alias Yann-Joachim Ringard. Mustard watches : an integrated approach to time
and food. Prépublication, Université Paris VII, Paris, 1988.
[81] Du pourquoi au comment : la théorie de la démonstration de 1950 à nos jours.
In Jean-Paul PIER, editor, Developments of mathematics 1950-2000. Birkhauser, 2000.
[82] (en tant qu’A éditeur B). Typed Lambda-Calculi and Applications. LNCS 1581.
Springer, Heidelberg, 1999. Comptes-rendus de la conférence TLCA ’99.
[83] Les fondements des mathématiques. In Yves Michaud, editor, Qu’est-ce que l’univers ?,
pages 42 – 52, Paris, 2000. Odile Jacob.
[84] La théorie de la démonstration : du Programme de Hilbert à la logique linéaire.
In Charpentier, Habsieger, and Nikolski, editors, Leçons de mathématiques d’aujourd’hui,
vol. 2, pages 37 – 100. Cassini, 2002.
44
[85] La logique comme géométrie du cognitif. In Joinet, editor, Comptes-Rendus de la
table-ronde de la Sorbonne, Avril 2003. Presses de la Sorbonne, 2007.
[86] De la syllogistique à l’iconoclasme. In Joinet and Tronçon, editors, Ouvrir la logique
au monde, Paris, 2009. Hermann.
45