TITRES ET TRAVAUX
Transcription
TITRES ET TRAVAUX
TITRES ET TRAVAUX Jean-Yves Girard Institut de Mathématiques de Luminy, UMR 6206 – CNRS 163, Avenue de Luminy, Case 930, F-13288 Marseille Cedex 09 [email protected] Février 2012 1 Mon projet En préambule à cet exercice de modestie1 , je vais exposer mon projet. Il s’agit pour une part de la poursuite d’un programme scientifique personnel —la dualité moniste—, que j’essayerai d’expliquer en termes simples. Il s’agit d’autre part du développement de la logique mathématique en général, et aussi de l’interface mathématiques/informatique, interface où la logique joue un rôle stratégique. 1.1 Vers une dualité moniste Bien que mathématicien, j’ai la chance de travailler dans un domaine qui a toujours affiché, pour le meilleur comme pour le pire, des prétentions philosophiques. C’est seulement en 1987 que j’ai conçu un programme qui ne se résume pas à une liste d’exploits à accomplir. Ce programme de Géométrie de l’Interaction proposait une vue originale de l’activité logique, sur un fort arrière plan mathématique, celui de la théorie de la démonstration. Ce programme était aussi l’illustration d’un changement de point de vue avec l’abandon des obsessions fondamentalistes (le pourquoi) au profit d’une approche en apparence plus modeste (le comment) qui suscite la construction d’un appareillage mathématique beaucoup plus fin2 . Le problème de fond de la logique est de comprendre ce qu’est une démonstration de A. Pour cela on cherche un partenaire qui réfère toujours à la négation de A et on construit une dualité (exprimée sous forme de complétude). Le cas classique, c’est la dualité démonstrations/modèles : A est démontrable quand sa négation ¬A n’a pas de modèle. Elle relie les démonstrations de A et les modèles de ¬A dans une dualité frustrante où les deux partenaires s’excluent mutuellement. On comprend tout de suite que cette position sera difficile et aussi que la dualité est reliée à la négation. 1.1.1 Premier cercle : le réductionnisme Hilbertien La conception classique est vraiment dualiste : l’observateur contre le monde. Les démonstrations (objets finis) sont des observations du monde (les modèles infinis). Cela suppose de clarifier la relation fini/infini. Hilbert a proposé une conception de l’infini comme limite idéale de processus finis, ce qui demande des résultats d’approximation. Ce programme échoue, non par impossibilité de l’approximation, mais parce que l’étude de l’approximation elle-même contient un infini irréductible. C’est le théorème d’incomplétude de Gödel (1931). Une bonne analogie serait le déterminisme continu en physique : la vision sommaire d’un monde continu régi par des équations différentielles ne se tient pas complètement, puisque le comportement instable des solutions contredit l’idée de A continuité B. Après tout, l’impossibilité d’une véritable finitisation est une donnée de bon sens, que l’incomplétude vient fort heureusement étayer. De même, la théorie du chaos ne fait qu’étayer l’impossibilité évidente de prédire certains phénomènes physiques. La logique professionnelle ne se situe donc plus du tout dans ce premier cercle. . . 1.1.2 Second cercle : le malaise Gödelien La plus grande partie de la logique (notamment la théorie des modèles) s’inscrit dans une conception dualiste, d’où l’infini ne peut vraiment être éliminé : c’est la vision de Hilbert en 1 Ce préambule date un peu ; mais il a la vertu d’expliquer mon cheminement. Pour une vision actuelle de mon projet, voir la section finale 3.9. 2 La France continentale est connexe parce qu’on peut lier n’importe quelle ville à Paris ; mais ne pas mépriser la question A comment la France est-elle connexe ? B requiert de construire un réseau de communication beaucoup moins trivial qu’une simple étoile centrée sur Paris. 1 moins naïf. Une analogie physique pour ce second cercle serait la thermodynamique classique, qui reste une lecture tout à fait légitime du monde physique. C’est un univers où l’observateur, réduit à une entité physico-chimique, ne trouve pas sa place : tout comme en logique classique où les démonstrations peuvent être codées (c’est d’ailleurs le ressort du théorème de Gödel), sans pour autant recevoir de statut. On aurait pu dire A d’accord, l’histoire s’arrête là B, si Gentzen n’avait prouvé en 1934 un théorème d’élimination des coupures dans un formalisme logique de son cru, le calcul des séquents qui étayait une élimination de l’infini dans le style de Hilbert. . . en contradiction avec l’esprit du théorème de Gödel. La suite est avant tout idéologique, car les applications que Gentzen fit de son résultat à l’arithmétique de Peano (en 1936 et plus tard) utilisent une forme très forte d’infini. . . et donc n’ont jamais éliminé l’infini, sauf pour les vrais croyants. L’algorithme d’élimination des coupures introduit par Gentzen consistait en une simple technique de réécriture des démonstrations, permettant d’éliminer les notions infinies dans les théorèmes à énoncé finitaire ; la convergence de cet algorithme ne pouvant être démontrée qu’au prix de techniques plus infinies encore que l’infini à éliminer. . . une telle création hybride eut donc une vie très difficile et en particulier beaucoup de mal à trouver un statut dans le cadre limité de la dualité démonstrations/modèles. 1.1.3 Troisième cercle : le subjectivisme Brouwerien L’apport de Brouwer au problème consiste en une rupture avec le dualisme. En effet, pour Brouwer, le monde extérieur n’existe pas et les démonstrations ne réfèrent qu’à elles-mêmes. C’est donc une conception moniste, qu’on peut tirer vers le subjectivisme, comme d’ailleurs nous y invite Brouwer lui-même. Mais ce serait aller bien vite en besogne et les travaux de A sémantique des démonstrations B qui se sont accumulé depuis 35 ans montrent au contraire que l’interaction des démonstrations (dans l’esprit de Brouwer, mais avec la technique héritée de Gentzen) n’a pas du tout la mollesse d’un pur camembert syntaxique : il y a des maths derrière, par exemple de belles catégories (dites cartésiennes fermées), qui sont une des clefs essentielles de la relation logique/informatique. C’est le thème du λ-calcul typé qui a profondément restructuré la théorie de la démonstration. De fait ce troisième cercle ne s’est dépêtré des radotages constructivistes que récemment, quinze, vingt ans au plus. Plutôt qu’une régression subjectiviste, il faut mieux voir en l’intuitionnisme une critique du réalisme naïf, analogue à la théorie de la relativité, qui considère le temps comme la quantification du mouvement par un observateur. 1.1.4 Quatrième cercle : le retour à la dualité La vision de Brouwer n’est pas basée sur une dualité, d’ailleurs, il n’y a pas en intuitionnisme de négation involutive. Ce n’est plus le cas en logique linéaire et la possibilité d’une approche basée sur une dualité moniste (i.e. entre objets de nature semblable) se dessine. Cette possibilité m’est apparue quand j’ai commencé à géométriser complètement les démonstrations de logique linéaire. De fil en aiguille, j’ai énoncé le programme de Géométrie de l’Interaction ou GdI ; il s’agit d’un renversement conceptuel : traditionnellement, on manipule de la syntaxe (réécriture), ce qui crée une dynamique purement formelle. Mon point de vue est plutôt : la dynamique préexiste et la syntaxe (formules, démonstrations etc.) n’est qu’un commentaire sur des objets quasi A physiques B (et n’est donc pas plus responsable de la dynamique que l’inscription A TNT B n’est explosive). La vraie dynamique serait donc recouverte par la réécriture, quoique toujours décelable sous des couches plus ou moins profondes de vernis bureaucratique. Lancé en 1987, le programme de géométrie de l’interaction a réussi à conceptualiser, dans le cadre de l’analyse fonctionnelle, 2 les notions de programme, d’exécution, hors de tout anthropomorphisme, c’est à dire sans présupposer l’existence d’un sujet qui veut connaître le résultat d’un calcul, ce qui implique aussi une rupture avec la tradition descriptiviste du style A Machine de Turing B. La dualité entre A et sa négation (qui est maintenant la négation linéaire A⊥ ) s’exprime par l’échange des entrées et des sorties entre deux opérateurs u, v sur le Hilbert H. C’est assez pour une description de toutes les règles logiques connues, qui deviennent des *-isomorphismes, et pour la notion de calcul qui devient une équation linéaire sur H ; il y manque cependant l’indispensable résultat de complétude, qui, au moyen d’une légère modification de cadre, amènerait à conclure : A et il n’y a pas d’autre règle possible B. C’est ce problème de complétude —qui pour l’essentiel n’est que la recherche d’un cadre plus pointu d’interprétation— qui forme mon programme de dualité moniste. Le succès éventuel de mon entreprise établirait une fois pour toutes la logique hors de tout cadre bureaucratique, puisqu’il ne s’agirait plus que de la description d’interactions A physiques B, donc déjà existantes. Car mon intuition méthodologique est physique : souvenons-nous que la mécanique est basée sur la fiction d’un système clos, pour lequel un certain nombre d’invariants sont nuls ; pour étudier un système S on lui adjoint donc le A reste du monde B R pour former un système clos S + R et c’est le passage du A reste du monde B au second membre qui permet d’écrire finalement les équations pour S. De même la négation A⊥ joue le rôle de A reste du monde B pour A. La logique linéaire présente d’ailleurs une particularité : elle fait apparaître la logique classique comme un cas limite (au moyen de !A qui veut dire A A autant qu’on veut B) ; de plus le passage au classique est non-déterministe. On ne peut pas s’empêcher de voir là plus que des analogies avec la mécanique quantique. 1.1.5 La distinction syntaxe/sémantique Je considère maintenant avoir mené à bien —sous le nom de ludique3 — la première phase du programme que je viens d’exposer, voir [53]. Les grandes lignes de la solution sont résumées en 3.6. Il me semble qu’elle change notre vision de la logique, en abolissant la distinction entre syntaxe et sémantique. I Traditionnellement, on distingue entre syntaxe (langage, description) et sémantique (objet, modèle), que l’on relie au moyen de la correction (ce qui est prouvable est vrai) et de la complétude (ce qui est vrai est prouvable). En particulier les règles de la logique ne sont que le reflet de la réalité. Il n’est pas question de nier la valeur de cette vision réaliste et dualiste du monde, mais enfin cette dichotomie entre esprit et matière, c’est un peu daté : je considère pour ma part que la distinction syntaxe/sémantique est un legs obsolète du XIXième siècle. I Cette vue du monde est associée au célèbre Tarski, qui s’est penché en particulier sur la notion de vérité : la vérité de A c’est A mais A méta B, i.e. A dans un univers préexistant. . . en fait la vérité à la Tarski, c’est la vérité de La Palice, et tout l’apport de Tarski se résume à la distinction exprimée par méta, une distinction nécessaire, mais d’importance somme toute secondaire. En fait le Tarskisme a tellement perverti la pensée logique que les mots en ont perdu leur sens ; en particulier la A complétude B, qu’on a abusivement réduite à son aspect sémantique, alors qu’elle signifie que rien ne manque ! A propos de complétude, on est en train de découvrir que la complétude de la logique est purement interne, autrement dit qu’il y a des moyens d’exprimer le fait que rien n’a été oublié sans référer à un univers extérieur dans lequel la logique préexisterait. Ce résultat était au fond Il fallait remplacer l’expression A GdI B ; le mot A dualité moniste B ne passant pas et A dialectique B étant trop. . . connoté, nous avons opté pour cette expression sans prétention qui rappelle la nature interactive de l’approche. 3 3 prévisible sur la base de la propriété de sous-formule de Gentzen, mais il aura fallu tout ce temps pour arriver à le formuler de façon claire. A ce propos, remarquons que cette complétude interne se fait au prix de l’introduction de règles logiques incorrectes ; ces paralogismes ne sont pas choisis au hasard : ils préservent les structures essentielles (élimination des coupures). Cet espace de règles logiques dont certaines sont fausses est le véritable espace d’interprétation des opérations logiques4 . La phrase : Au fond la syntaxe ne réfère qu’à elle-même. qu’il ne faut pas prendre au pied de la lettre, résume bien le tournant opéré. 1.1.6 L’irruption du locatif Au fil de la rédaction de [53] —qui voulait être la version définitive de mon programme ludique— s’est développé l’opposition spirituel/locatif, une opposition assez improbable, car le point de vue spirituel va tellement de soi que sa formulation-même semble un truisme assez indécent : La logique réfère à des entités abstraites, des idées, des invariants, quoi. . . en particulier tout est à isomorphisme près. C’est un principe essentiel à la déduction mathématique, et il n’est pas question de remettre en cause son opérationalité,. . . mais il se trouve qu’il est fondamentalement faux. Existence du locatif Une variable, qui nous semble référer à un certain type d’objets, est en réalité un lieu (en informatique, une adresse dans la mémoire). Les interprétations dont j’ai parlé plus haut (géométrie de l’interaction, ludique), mais aussi les machines abstraites telle celle due à Krivine, supposent des lieux bien précis, par exemple un espace de Hilbert en GdI. En particulier, si on manipule les objets P localisés, onP s’expose à des erreurs (confusion de variables muettes, voirPla différence P entre i ai .bi et ij ai bj ). Le locatif existe donc, mais la différence entre i bi et j bj que je viens de relever est-elle d’un quelconque intérêt, on peut en douter. . . Universalité du locatif Comment évite-t-onP en mathématiques les conflits de variables ? On P les renomme, par exemple en remplaçant i bi par j bj . De même en GdI, la conjonction consiste à former, à partir de deux opérateurs Φ, Ψ sur l’espace H un nouvel opérateur A somme B qui ne dépend que de la classe d’isomorphisme de Φ et Ψ : celui qui s’impose est défini par la matrice diagonale Φ 0 Θ= 0 Ψ Or Θ opère sur H ⊕ H, ce qui ne convient pas, et on utilise un isomorphisme x ⊕ y 7→ p(x) + q(y) de H ⊕ H dans H pour obtenir un opérateur de H, soit pΦp∗ + qΨq ∗ , voir p. 23. On remarque que pΦp∗ et qΨq ∗ ne sont rien d’autre que des images isomorphes A disjointes B de Φ et Ψ. Cette délocalisation des opérateurs (que l’on retrouve telle quelle en ludique) est l’équivalent du renommage de variables. Les opérations logiques usuelles apparaissent donc comme des opérations locatives (ici la somme d’opérateurs) combinées à des délocalisations ; au prix d’un certain pédantisme (la mention explicite des lieux), on peut se passer de délocalisation, ce qui montre que le locatif est universel. 4 C’est du moins sa forme analytique, explicite ; le même espace admet aussi une définition synthétique, et c’est l’identité entre les deux définitions qui établit la pertinence de l’approche. 4 Intérêt du locatif Encore faut-il qu’il soit intéressant. . . en effet les poubelles des mathématiques sont remplies de généralisations sans intérêt. Or on découvre que les opérations logiques qui ne sont pour l’interprétation catégorique usuelle (e.g. espaces cohérents voir p. 18), commutatifs, associatifs qu’à isomorphisme canonique près, ont une version locative strictement commutative, associative etc. La structure locative sous-jacente est donc de bonne tenue —en fait de meilleure tenue que la structure spirituelle. Le locatif doit donc être pris au sérieux. La difficulté est qu’il ne saurait en rien ressembler au spirituel, puisque les formules logiques interfèrent dès qu’on ne prend pas de précaution, i.e. dès que l’on ne délocalise pas à outrance : ainsi la conjonction de A et B peut être vraie alors que A, B sont faux, ou fausse alors que A, B sont vrais. La délocalisation n’a donc pour but que d’éviter l’interférence, i.e. de permettre de décrire les propriétés conjointes de A et B à partir des propriétés de A et B : elle doit être considérée comme la source de la complétude logique ; c’est pourquoi le locatif sera incomplet, bizarre quoi, et devra trouver ses propres grilles d’analyse. Au passage notons qu’un pas important en direction de la physique a été franchi. Le locatif nous incite à rouvrir (avec circonspection) le cercueil des A fondements B : une question délicate qui touche à la nature ultime des entités mathématiques, dominée par ce résultat assez surestimé, le théorème d’incomplétude. Réexaminons donc la complétude à la lumière de la ludique : on définit un A comportement B (le signifiant logique de base, qui correspond à la notion d’énoncé mathématique) comme un ensemble de desseins égal à son biorthogonal, voir p. 32. Un ensemble G de desseins spécifié syntaxiquement (au moyen de règles de déduction) engendre donc un comportement G⊥⊥ , et la complétude n’est rien d’autre que l’égalité G = G⊥⊥ , cette formulation interne exprimant qu’il ne A manque rien B à la présentation G. Pour comprendre l’apparition de l’incomplétude, observons que la disjonction (G ∪ H)⊥⊥ n’a aucune raison d’être égale à G⊥⊥ ∪ H⊥⊥ (le seul cas d’égalité important est le cas spirituel : G et H (presque) disjoints)5 . Si la complétude veut dire qu’il ne manque rien, l’incomplétude est donc le manque, mais de quoi au juste ? On a tendance à penser que le manque présuppose la totalité, mais pourquoi donc ? Après tout un opérateur non-borné est incomplet sans qu’il soit possible de le compléter, ne fût-ce qu’en pensée. . . D’où l’hypothèse selon laquelle le biorthogonal ne serait —au niveau de la signification mathématique— rien de plus qu’une fiction parfaitement manipulable ; en particulier le théorème de Gödel ne serait pas tant l’existence d’une formule vraie —la vérité référant au biorthogonal— non prouvable, que la mauvaise structure globale des formules prouvables. . . Mais, si le cadavre des fondements s’est remis (peut-être) à bouger, il ne faut pas aller trop vite en besogne : attendons d’avoir accumulé suffisamment de résultats mathématiques, dérangeants de préférence, autour du locatif ; alors seulement il sera possible de dire quelque chose de plus élaboré sur ce problème qui, dans le fond, nous intéresse tous bien un peu. . . 1.1.7 Le non-commutatif Plus récemment, j’ai intégré un nouvel aspect à ma reconstruction logique, le quantique, ou plutôt le non-commutatif au sens de Connes. Ceci a donné lieu à deux publications, l’une sur les espaces cohérents quantiques [55], qui font le rapport entre la réduction du paquet d’ondes et le principe ensembliste de base, l’extensionalité ; l’autre sur la solution générale de l’équation de la géométrie de l’interaction [56]. Ce dernier article, qui reprend la GdI hors de toute hypothèse logique, hors de toute référence spaciale distinguée, permet d’envisager une remise à plat totale de la logique, ce qui devrait m’occuper dans les années à venir. 5 Si les mathématiques sont incomplètes, c’est parce qu’on ne peut pas toujours délocaliser : ainsi, dans le cas d’une quantification ∀xA[x], toutes les instances A[i] ne peuvent occuper que le même lieu. . . elles sont nécessairement corrélées, ce qui est une autre façon de dire que la quantification est A uniforme B 5 Ce programe est maintenant sur les rails. On en trouvera les premiers résultats dans les chapitres 20 et 21 de mon cours de théorie de la démonstration [63], ainsi que dans l’article [57]. Fondamentalement, l’interprétation se fait dans le facteur hyperfini de Murray-von Neumann. La dualité est basée sur le déterminant : det(I − uv) 6= 1 ; on peut définir la vérité relativement à une sous-algèbre commutative maximale. 1.2 1.2.1 Le développement de la logique A l’IML J’ai été contacté en 1991 par Gérard Rauzy pour diriger une équipe au ci-devant LMD et j’ai finalement accepté pour des raisons de politique scientifique. I La logique était mal distribuée en France, grosso modo tout à Paris VII. Au problème de la concentration en un lieu se superposait celui de la priorité accordée par le CNRS au recrutement en A région B. L’idée d’un deuxième grand pôle de logique en province était une occasion à ne pas laisser passer, sauf à accepter le départ pour l’informatique des meilleurs étudiants. Il a fallu quelques années et notamment la venue de Thomas Ehrhard —recruté CR1 en mathématiques en 1994— pour obtenir la masse critique nécessaire ; le pôle Marseillais, même s’il reste un peu modeste numériquement est thématiquement assez homogène et sa visibilité internationale en fait le second pôle de logique français. I Pour moi, les Mathématiques Discrètes, c’est le versant mathématique de l’informatique. D’ailleurs je n’exprimerai jamais assez aux informaticiens ma reconnaissance de nous avoir sortis, nous les logiciens, de la problématique fondamentaliste où nous étions englués. . . Mais chacun son métier : ce serait une erreur stratégique que d’abandonner la jonction mathématiques/informatique aux seuls informaticiens. D’abord parce qu’on ne sait pas jusqu’où peut aller l’engouement des politiques pour l’informatique et puis (pour ceux qui pensent que les maths de l’informatique ne sont pas très smart) parce que les mathématiques ont beaucoup à y gagner en intuitions et en motivations. D’ailleurs, comme tout vrai mathématicien, je n’ai que faire des applications et je ne crois pas à la vision de la théorie descendant de son cheval pour abreuver la pratique : je vois plutôt la théorie comme un guide que la pratique suit d’assez loin et l’existence d’applications comme le signe que les outils théoriques sont bien affûtés6 . C’est pourquoi je suis pour une coopération avec les informaticiens, mais sans confusion des rôles. 1.2.2 I Hors IML Il ne me semble pas obscène de faire de la vulgarisation de bonne tenue. Je dirais même, que passé un certain âge, un scientifique a mieux à faire en s’occupant de sa communauté (en particulier de la relève), qu’à chatouiller son ego par quelque prouesse technique. La logique, discipline qui a toujours beaucoup intrigué, devrait se prêter à la vulgarisation. C’est d’ailleurs ce qu’ont fait certains auteurs américains, mais leur message est plutôt vulgaire, du genre A la logique c’est quand on n’y comprend rien B, voir Smullyan, sans parler de Hoffstater, le PaulLoup Sulitzer de la logique. J’ai consacré par le passé un certain temps à la vulgarisation (en prenant soin de réserver l’essentiel de mon activité à la recherche), témoins deux livres au Seuil (Sources du Savoir), un sur Gödel, un autre sur Turing, [76, 77]. Il ne me semble pas qu’il existe sur ce sujet, y compris dans la littérature technique, une réflexion équivalente. 6 A ce propos le logiciel de navigation sur le Web développé depuis 1995 par Andreoli aux Laboratoires Xerox de Grenoble est le premier exemple d’une application pratique de la logique linéaire. 6 I Je projette aussi d’écrire un livre sur A La Logique B, de nature assez philosophique, développant le point de vue que j’ai esquissé dans mon programme scientifique. L’éthique scientifique me fait subordonner une telle rédaction à l’achèvement du projet que le livre est supposé illustrer. Mon cours récent à Rome [62, 63], qui est à la fois un cours assez complet de théorie de la démonstration et une réflexion méthodologique radicale, correspond à peu près à ce vieux projet. Quand je parle de vulgarisation, je suis un peu réducteur : bien sûr je crois qu’il est important de méditer l’exemple des astronomes qui vulgarisent pour le plus grand bénéfice de leur labo ; mais je crois aussi que la période se caractérise par une grande confusion, et qu’il faut y répondre. Par exemple mon texte sur Turing prend position sur la logique de l’intelligence artificielle. C’est devenu nécessaire devant l’avalanche de papiers véreux et d’escroqueries en tout genre, type A logique floue B : car le premier cercle a été récemment squatté par la paralogique, ce remake du programme de Hilbert, mais sans Hilbert. Ce n’est pas une tâche de tout repos, car à attaquer maladroitement, on peut paradoxalement crédibiliser son adversaire. Le travail sur le style (trouver des images grotesques, du genre A montres à moutarde B, voir mon article apocryphe [80]) est alors essentiel7 . L’avenir me dira si sur ce point j’ai réussi ; en tout cas il est pour moi impensable de laisser se développer une logique révisionniste basée sur la négation éhontée du théorème de Gödel. Bien entendu, cette A direction de conscience B n’est qu’accessoirement négative et défensive : je tiens la logique pour un des sujets les plus fascinants qui soient mais qui, si elle a beaucoup progressé depuis Gödel, n’a pas encore trouvé l’espace idéologique à la hauteur de son renouveau. 1.2.3 Le groupe LIGC Les lignes qui précèdent sont antérieures à l’an 2000. Depuis quelque chose a bougé, la création du groupe LIGC, A Logique et interaction : pour une géométrie de la cognition B qui en est à sa cinquième réunion. Il est franco-italien et regroupe des scientifiques (mathématiques, informatique, physique, biologie) et des épistémologues. J’ai écrit une sorte de manifeste pour le groupe [85] : on y verra que les positions défendues sont hautement originales et changent de la soupe tiède qui nous est servie par les épistémologues A établis B. Avec une réunion par an, on peut parler d’un franc succès. Je ne vois pas l’intérêt de résumer ici les positions du groupe, ce sont celles exposées plus haut, en plus fin et en plus large (à cause des contacts avec d’autres domaines), et d’ailleurs je ne pourrais que reproduire textuellement le tract [85], disponible sur ma page Oueb. L’URL du groupe est http ://www.philo.univ-paris1.fr/Joinet/ligc.html. L’activité du groupe a donné lieu à deux publications collectives (dans lesquelles on trouve mes articles [85, 86]. Par exemple voici une analogie très fidèle des A logiques B non-monotones, à l’usage des mathématiciens : A Les opérateurs non-bornés sont partiels, c’est triste, n’est-ce pas ? Nous commencerons donc par les étendre en opérateurs totaux de H dans H. B 7 7 2 Curriculum Vitæ 2.1 Scolarité Né à Lyon en 1947, j’ai été élève-maître à l’Ecole Normale d’Instituteurs de Lyon (1962-65), puis après un an de préparation à l’ENI de Montpellier, élève-professeur à l’ENS de St Cloud (1966-70). Durant cette période, j’ai passé licence (1967), maîtrise (1968) et agrégation (1969). En 1969-70, j’ai obtenu un DEA de logique sous la direction de Jean-Louis Krivine. J’ai aussi commencé une recherche personnelle (système F, voir partie scientifique), qui m’a amené à rentrer au CNRS en mars 1971 et à soutenir ma thèse d’Etat en juin 1972, avec Georg Kreisel comme rapporteur. 2.2 Activité au CNRS Promu chargé de recherches au 1.10.73, puis maître de recherches (DR 2) au 1.1.1981, DR 1 au 1.10.90, DR 0 au 1.10. 01, j’ai travaillé à l’Université Paris VII, dans l’Equipe de Logique Mathématique (UA 753) jusqu’au 30.9.92. Depuis, je suis à Marseille, où j’ai dirigé l’équipe de Logique de la Programmation au sein de l’Institut de Mathématiques de Luminy (ci-devant Laboratoire de Mathématiques Discrètes) (UPR 9016). Membre nommé du Comité National (section 03) 1983-1986. Membre élu du Comité National (section 01) 1991-1995. 2.3 2.3.1 Invitations Mathématiques Un exposé de 40mn au Congrès International de Varsovie, (ICM ’83) 08/1983. Séminaire Bourbaki, 02/87. Mordell Lecture, Cambridge, 02/1994. Question d’Actualité à l’Académie des Sciences, 02/94. 2.3.2 Logique mathématique Orléans (Logic Colloquium) 09/1972 ; Clermont-Ferrand (Logic Colloquium) 07/1975 ; Oxford (Logic Colloquium) 07/1976 ; Zürich (Specker Festschrift) 02/1980 ; Firenze 06/1981 ; Marseille (Logic Colloquium) 07/81 ; Bö, Norvège 06/82 ; Cornell (Congrès AMS A Recursion Theory B) 07/1982 ; San Gimignano 12/1983 ; UCLA 01/1984 ; Siena 01/1985 ; Roma 01/1986 ; Cesena 01/1987 ; Padova (Logic Colloquium) 08/1988 ; Viareggio 01/1990 ; Ecole d’Eté, Crète 07/1990 ; Tokyo (4th Asian Logic Conference) 09/1990 ; Melbourne 11/1991 ; Oslo 02/1992 ; Utrecht (Van Dalen Festschrift) 03/93 ; Ecole de Logique Linéaire, Bari 05/1993 ; Siena 04/94 ; St Petersburg 07/94 ; Clermont-Ferrand (Logic Colloquium) 07/1994 ; Ecole de logique linéaire, Lisbonne 02/1995 ; San Sebastian (Logic Colloquium) 07/1996 ; Logique non-commutative, Frascati 04/99 ; Ecole de logique linéaire, Açores 09/00 ; Logic Colloquium, Philadelphie, 03/01 ; Logic Colloquium, Helsinki, 08/03, Logic Colloquium, Paris 07/10. . . ainsi qu’une dizaine de séjours à Oberwolfach. Parmi toutes les invitations à des congrès en Logique Mathématique, distinguons quatre invitations aux congrès internationaux A Logique et Philosophie des Sciences B, qui se tiennent tous les 4 ans : London (Ontario) 08/1975, Hanovre 08/1979, Florence 08/1995, Cracovie 08/1999. 8 2.3.3 Informatique théorique Workshop on Parallelism, Roma 09/1986 ; Logic in Computer Science, Torino 10/1986 ; Tutorial on Type Theory (8 heures de cours sur la Logique Linéaire) Austin 06/1987 ; Congrès AMS A Categories in Computer Science B, Boulder 06/1987 ; A Categories and Computer Science B, Edinburgh 09/1987 ; AFCET, Bordeaux 02/1988 ; Ecole d’Eté A Categories in computer Science B, Isle of Thorns 08/1988 ; Tallinn 12/1988 ; Ecole de Printemps Albi 04/1989 ; Bästad (Suède) 05/1989 ; Congrès AMS A Feasible Mathematics B, Cornell 06/1989 ; Ecole d’Eté, Glasgow 09/1989 ; A Logic from Computer Science B, Berkeley 11/1989 ; Ecole d’Eté, Marktoberdorf 07/1991 ; Congrès GWAI Bonn 09/1991 ; Congrès CSL, Berne 10/1991 ; Ecole d’Hiver, Brno 02/1992 ; Aarhus, 03/1992 ; Oxford 04/1992 ; Açores 09/92 ; 25◦ Anniversaire INRIA 12/1992 ; Ecole d’Eté, Chambéry, 06/1993 ; Ecole d’Eté, Marktoberdorf 07/1993 ; Rome (Böhm Festschrift) 12/93 ; Congrès COMPUR, Stockholm 08/94 ; Ecole d’Eté Udine 09/94 ; Cambridge 10/95 ; Venezia 10/95 ; Cambridge 11/95 ; Roma 01/96 ; Lisbonne 02/96 ; Ecole d’été Marktoberdorf 07/97 ; Rome 10/97 ; Utrecht 11/97 ; Sienne 01/98 ; CIRM 04/1998 ; Ecole d’Eté Marktoberdorf 07/99 ; JFPLC, Marseille 06/00 ; Ecole d’Eté Marktoberdorf 07/01 ; CSL,Paris 09/01 ; Ecole d’Automne A Basics B Pékin 10/01 ; Nijmegen 04/02 ; Table-Ronde A Calcul quantique B, Ottawa 06/03 ; Roma 09/03 ; Tokyo 03/04 ; Torino 09/04 ; Tokyo 03/07 ; Siena (Mai 07) ; Uppsala (réunion A Martin-Löf B) 05/09, A Logic, Categories, Semantics B, Bordeaux 12/11 ;. . . On distinguera particulièrement les invitations à parler aux premier et quatorzième congrès LICS (Boston 1986, Trento 1999), et au congrès de programmation logique (ICLP, Paris 07/1991). 2.3.4 Séjours de moyenne et longue durée CALTECH (Janvier 1984), à l’invitation d’A. S. Kechris ; PENN (Octobre-Décembre 1987) à l’invitation conjointe des départements Maths et Info, A. Scedrov et D. Miller ; Siena (Décembre 89 à Janvier 1990) ; Melbourne (Décembre 1990) ; Melbourne (Novembre 1991) ; Rome (Mai 1993) ; Beijing-Tokyo (Mai 1994) ; Varsovie(Janvier 1995) ; Tokyo (Mars 96) ; IHES (Mai 1996), à l’invitation de M. Gromov ; Siena (Mars 97), Tokyo (Février/Mars 1999), Roma (Février 2000), Philadelphie (Mars 2001), Siena (Avril 2001), Roma (Mai 2002), Tokyo (Février 03), Tokyo (Mars 2005), Tokyo (Mars 2006), Tokyo (Février 2008). Dans le cadre de l’Université Franco-italienne, j’ai obtenu en 2004 une des quatre chaires (toutes disciplines confondues) Venturi de Giorgi, ce qui a donné lieu au cours [62, 63], (Université Roma Tre, 10-12/2004). J’écris cette mise à jour depuis le RIMS de Kyoto où j’ai passé trois mois (15.10.2011-15.01.2012) à l’invtation de K. Terui. 2.3.5 Congrès spécifiques Autour des idées que j’ai introduites, plusieurs réunions ont été organisées : I Table-ronde sur la logique Π1 2 à Oslo (08/1984). er I 1 congrès de logique linéaire à Cornell (06/1993), qui a donné lieu au livre A Advances in Linear Logic B (voir [43]). I 2ème congrès de logique linéaire à Keio University (Tokyo) (03/1996), qui a donné lieu a deux volumes de comptes rendus dans TCS (1999). I 3ème congrès de logique linéaire à Luminy (04/1998). I Plusieurs écoles de logique linéaire ; la dernière a eu lieu aux Açores (Septembre 2000). I Auxquels on peut rattacher les A évènements B organisés à l’occasion de mes 60 ans : à Siena, Mai 2007 (Aldo Ursini) et à Paris, Septembre 2007 (IHP, Pierre-Louis Curien). 9 2.4 2.4.1 Activités d’encadrement scientifique A l’INRIA De septembre 1989 à décembre 1991, j’ai exercé les fonctions de conseiller scientifique auprès du projet FORMEL de l’INRIA, dirigé par Gérard Huet. 2.4.2 Dans la CEE J’ai dirigé un projet Stimulation de la CEE, intitulé Lambda-calcul typé et qui regroupait des participants de 7 universités de la CEE : I Paris VII (Krivine etc.) I Laboratoire ENS (Curien etc.) I Université d’Edinburgh (Plotkin etc.) I Université de Nijmegen (Barendregt etc.) I Université de Roma (Böhm etc.) I Université de Pisa (Longo etc.) I Université de Torino (Ronchi, Coppo, Veneri etc.) Le projet, qui avait débuté le 1/03/1988, a duré trois ans et demi pour un montant global de 3.106 FF. Il comportait un aspect matériel important -du moins pour les standards de l’époque en mathématiques- ce qui a bien aidé le développement de l’informatique à Paris VII-Maths, ainsi qu’un aspect coopération internationale. Cinq petites tables rondes se sont tenu : mai 1988 à Torino, novembre 1988 à Nijmegen, septembre 1989 à Edinburgh, mai 1990 à Bari, février 1991 à Paris. Le système F et la logique linéaire (voir partie scientifique) étaient les deux principaux thèmes de ce projet. Un projet Capital Humain et Mobilité, d’un montant total de 610 000 ECU étalés sur 5 ans, sur le même thème et toujours sous ma direction, a débuté en 1993 et s’est terminé en Avril 1998. A quelques modifications près (la plus importante étant l’adjonction d’un nouveau site à Marseille comme site principal, du fait de mon départ de Paris), il reprenait l’ancien projet Stimulation. Ce projet a été relayé à partir du 1/05/1998 par un projet TMR Formation et Mobilité des Chercheurs, d’un montant de 1 310 000 ECU. Ce projet était centré sur la logique linéaire, et coordonné de Marseille (par Laurent Regnier). Les participants en étaient I Marseille-IML (J.-Y. Girard) I Paris VII (V. Danos) I Edinburgh (S. Abramsky) I Cambridge (M. Hyland) I Bologna (A. Asperti) I Roma (M. Abrusci) I Lisbõa (J. Fiadeiro) Le réseau a bien fonctionné, autour de l’import/export de postdocs au rythme de réunions biannuelles (Tende Septembre 1998, Edinburgh Juin 1999, Oxford Avril 2000, Ecole d’Eté aux Açores Septembre 2000). 2.4.3 Evaluation scientifique Outre mon activité de commissaire au CNRS (1983-86, 1991-95), j’ai fait partie comme tout le monde de comités de programme. En particulier j’ai fait à deux reprises partie du comité de programme A logique B d’un Congrès International des Mathématiques : ICM-86 et ICM-98. J’ai été président du comité de programme de la conférence TLCA (Typed lambda-calculus and applications, L’Aquila, Avril 1999) et j’ai coorganisé avec Philip Scott une séminaire thématique A Logique et Interaction B dans le cadre de la réunion AMS-SMF de Juillet 2001. 10 De 92 à 94 j’ai fait partie du comité d’experts mathématiques/informatique du programme Capital Humain et Mobilité de la DG XII, et en 2001 du comité d’experts (maths/info) du programme Research Training Networks de la même DG XII. 2.4.4 Travail éditorial A Managing editor B de la revue Annals of Pure & Applied Logic. Membre du comité de rédaction de la revue allemande Archive for Mathematical Logic. Membre du comité de rédaction de la revue Mathematical Structures in Computer Science. 2.4.5 Direction de recherches Depuis 1972, j’ai constamment dirigé un séminaire de théorie de la démonstration à l’Université Paris VII, ce qui, avec l’enseignement régulier de cours de troisième cycle m’a assuré un certain flux d’étudiants de bonne qualité, par exemple J. Vauzeilles, J. van de Wiele, et plus tard Y. Lafont (actuellement dans mon équipe). En 1986, devant l’importance prise par l’aspect A informatique théorique B de la théorie de la démonstration, le séminaire a été fondu avec le groupe de travail A λ-calcul typé B de Krivine, ce qui avec l’enseignement d’un cours fondamental de DEA en 1986-87 a cristallisé un groupe d’étudiants remarquables. De cette A génération de 1986 B, on retiendra les noms de L. Regnier, T. Ehrhard (tous deux dans mon équipe), Ch. Rétoré, A. Fleury, E. Duquesne, sans bien sûr oublier V. Danos, une des valeurs les plus sûres de l’équipe de Paris VII. 2.5 Direction d’Equipe J’ai dirigé une Equipe à l’Institut de Mathématiques de Luminy (IML). Yves Lafont, Laurent Regnier m’ont suivi en 1992, rejoints en 1994 par Thomas Ehrhard. J’ai pu ainsi développer le second —en importance— pôle logique de France. Le problème de l’entretien d’une masse critique d’étudiants à Luminy est en partie résolu par l’établissement de relations privilégiées avec l’INRIA Sophia-Antipolis. Un élément essentiel de cette politique, c’est la mise sur pied d’un DEA entre l’INRIA Sophia et l’IML. L’existence d’un DEA spécifique à l’IML (dont j’assure la direction) est un fort facteur de cohésion inter-équipes. Mais ce n’est pas le seul, car on peut penser à l’exploitation de thèmes de recherche communs : ma première initiative dans ce sens a été (en janvier 1993) la création d’un groupe de travail (coanimé par François Blanchard) Logique et Théorie Ergodique, qui s’est donné pour but l’analyse par la théorie de la démonstration de résultats de combinatoire utilisant des méthodes abstraites (ici la théorie ergodique). J’avais une certaine expérience dans ce domaine, ayant A désossé B la démonstration de Furstenberg & Weiss du théorème de Van der Waerden. Le groupe de travail a tenu une réunion au CIRM en octobre 94, avec des experts internationaux et même la présence (assez symbolique, somme toute) de Paul Erdös. L’équipe possède, outre son séminaire, un groupe de travail informel auquel participent aussi les étudiants et les invités de passage. Tous les deux ans nous organisons une rencontre au CIRM sur un sujet original, pour éviter le ronron : par exemple en Septembre 1996 A Logique et modèles du calcul B. En Janvier 1998, une expérience originale a été tentée : l’organisation d’une réunion sans programme précis et sur invitations privées à la Chartreuse de Sienne ; la thématique a été choisie de manière très serrée : la sémantique des jeux. J’ai passé la main en Janvier 2004 à Thomas Ehrhard. 11 2.6 Vulgarisation scientifique J’ai participé à de nombreux séminaires du type A philosophie des mathématiques B, dont la seule trace imprimée est [65] ; j’ai exposé dans Pour la Science mes travaux sur les dilatateurs [68], et un article sur la logique linéaire dans la même revue est sorti en mars 1990 [69] ; j’ai collaboré de façon épisodique à l’Ane (articles sur Georg Kreisel et Jean van Heijenoort, sur la théorie de la démonstration, [70], [71], [72]), et aussi à France-Culture (autour du théorème de Gödel ou du programme de Hilbert) ; écrit des articles pour l’Universalis [66], [67], pour l’Enciclopedia Italiana [75], et deux rapports pour l’UNESCO [78], [79]. . . j’ai publié au Seuil une postface à un livre sur le théorème de Gödel [76] ; le succès de ce livre (ma postface a été traduite par un éditeur italien) a incité le Seuil à récidiver : un livre sur Turing dans lequel j’ai écrit une longue postface (prenant position sur l’intelligence artificielle) est sorti en 1996 [77] ; très récemment, j’ai écrit un article démystifiant sur Gödel [73] pour un hors-série de Sciences et Avenir. Je devrais parler de logique dans le cadre de l’A Université de tous les savoirs B le 17 Juin 2000. J’ai rédigé le texte [81] sur la théorie de la démonstration pour l’encyclopédie millénariste coordonnée par J.-P. Pier A les Mathématiques 1950-2000 B ; ça m’a demandé un gros travail de synthèse doublé d’un effort stylistique en rapport avec la difficulté de A faire passer B les grandes lignes du domaine. L’année 2000 m’a apporté un exposé à l’Université de Tous Les Savoirs, ainsi qu’un passage subséquent à France-Culture (Juin 2000), voir [83]. 2.7 Livres scientifiques Mon livre de théorie de la démonstration [59], [60] essaye de faire le tour du sujet (c’était avant l’époque de la logique linéaire). Le livre contient de nombreux résultats nouveaux qu’il serait fastidieux d’énumérer et une curiosité, l’analyse détaillée, étape par étape, d’une A vraie B démonstration : la démonstration topologique du théorème de Van der Waerden (due à Furstenberg & Weiss) est complètement ramenée à son contenu combinatoire par une application des méthodes de Gentzen. Beaucoup plus récent -et bien moins complexe- est mon livre [61] (traduit et amélioré par Y. Lafont et P. Taylor). Au lieu de se vouloir l’encyclopédie d’un sujet, il se contente d’introduire, en évitant tout détail fastidieux, au sujet du λ-calcul typé. Les grandes lignes de la théorie de la démonstration y sont évoquées, et le livre se conclut naturellement sur une introduction à la logique linéaire. La légèreté du style l’a fait adopter dans de nombreuses universités de par le monde comme texte de base dans le domaine. Fin 2004, dans le cadre de la chaire Venturi-de Giorgi de l’Université Franco-Italienne, j’ai fait un cours de trois mois, en vingt chapitres et presque 500 pages, à l’université Roma Tre. Ce cours est une synthèse de la théorie de la démonstration, depuis le théorème de Gödel jusqu’aux tous derniers développements liés aux algèbres d’opérateurs. C’est aussi une réflexion méthodologique et philosophique approfondie sur la logique ; ainsi le premier chapitre s’intitule-il A Existence contre essence B. 2.8 Divers Médaille d’Argent du CNRS en 1983. Prix Poncelet de l’Académie des Sciences en 1990. Membre correspondant de l’Académie des Sciences depuis 1994. Membre de l’Académie Européenne depuis 1995. 12 Un réseau électronique LINEAR, géré a Stanford comportant plusieurs centaines d’abonnés et spécialisé en logique linéaire, a été créé en 19918 ; comme la plupart de ce type de réseaux, il a progesssivement cessé toute activité. Pour ses trente ans, en Juillet 2005, la revue Theoretical Computer Science a décerné un prix à l’article (de loin, paraît-il) le plus cité qu’elle a publié ; cet article n’est autre que [27], le texte fondateur de la logique linéaire, publié en 1987. 3 Recherche scientifique 3.1 1970-1972 Pour comprendre mon premier travail [1], [2], [3], il n’est pas inutile de poser quelques repères : Hilbert (1925) avait posé la question d’une réduction finitiste des mathématiques ; Gödel (1931) avait, par ses théorèmes d’incomplétude, montré l’impossibilité du Programme de Hilbert ; cependant, Herbrand (1930), puis Gentzen (1934) avaient démontré la possibilité d’une réduction finitiste en l’absence d’axiomes. Ce résultat de Gentzen, le Hauptsatz, un des résultats les plus profonds de la logique, ne commence à être vraiment compris que de nos jours, grâce à l’informatique : ce théorème est à la base du typage (programmation modulaire) et d’un langage comme PROLOG. Gentzen a introduit une formulation symétrique des axiomes et règles de la logique, le calcul des séquents, pas très utile pour écrire la logique, mais essentielle pour l’étudier (un peu comme les équations de Hamilton en mécanique, qu’on utilise peu en pratique, mais qui permettent de poser les problèmes de façon abstraite). Cette formulation lui permit de démontrer (en l’absence d’axiomes) ce qu’on pourrait appeler un principe de pureté des méthodes, à savoir que pour démontrer A, seulement les sous-formules de A sont nécessaires. En particulier, si A a un contenu finitaire (sans quantification universelle), A se démontre sans quantificateurs universels, c’est à dire par un calcul fini. De plus, Gentzen donna un procédé mécanisable (l’élimination des coupures) permettant de remplacer une démonstration quelconque par une autre qui vérifie la propriété. De nos jours, on peut donc voir une démonstration abstraite comme un programme, que l’on calcule par élimination des coupures. Par exemple, le programme énonce l’existence d’un entier vérifiant une propriété finitaire, et l’élimination des coupures nous donne sa valeur. Le problème s’est alors posé d’étendre le résultat de Gentzen à des cadres plus généraux. En 1953, Takeuti remarquait que la logique du second ordre permettait de formuler sans axiomes toutes les mathématiques courantes, et il proposait un procédé effectif d’élimination des coupures pour étendre le théorème de Gentzen : c’est la conjecture de Takeuti. En 1965, Tait démontrait l’existence de démonstrations sans coupure pour le calcul des séquents de Takeuti, mais l’essentiel manquait, à savoir la convergence du procédé d’élimination proposé par Takeuti. C’est ce que j’ai démontré en 1970, dans l’article [1], résultat amélioré dans [2] et [3]. En fait, ce résultat se présentait comme un système de calcul fonctionnel typé, (le système F), dans lequel on pouvait définir un type nat des entiers (i.e. dont les objets sont les entiers), avec deux théorèmes principaux : Théorème 1 Le procédé de calcul dans F converge (normalisation). Il n’y a pas que la A logique B floue qui ait du succès au Japon : on peut aussi y vendre de la logique sérieuse, témoins le Congrès de Logique Linéaire tenu à l’Université Keio en Mars 1996 (soutenu par le CNRS, le JSPS japonais et l’ONR américain), et le livre du père tutélaire de la logique japonaise, G. Takeuti, sur la logique linéaire. 8 13 Théorème 2 Tout algorithme fonctionnel (envoyant les entiers dans les entiers) dont on peut établir la terminaison au moyen des mathématiques courantes, se représente dans F au moyen d’un objet de type nat ⇒ nat. L’intérêt soulevé en théorie de la démonstration par la solution de la conjecture de Takeuti retomba vite, car on ne sut que faire du résultat : on tourna la page. Cela dit, les informaticiens devaient plus tard redécouvrir le système F (Reynolds 1974) et mettre en avant son intérêt pour la programmation modulaire : en effet, le système, malgré son nombre limité (5) de schémas, permet de définir tous les types de données courants (entiers, booléens, arbres, listes etc.) et garantit la bonne marche des calculs. Des langages comme ML sont clairement reliés au système F. Le système (rebaptisé λ-calcul polymorphe par les informaticiens) est aujourd’hui le principal outil d’étude de la programmation modulaire, car il est simple et général. Mentionnons tout particulièrement les travaux en cours de Krivine sur l’arithmétique fonctionnelle du second ordre, travaux basés sur les théorèmes 1 et 2. Au sujet du système F et des développements récents du sujet, on pourra consulter mon exposé au séminaire Bourbaki [25]. 3.2 1973-1975 En 1972, j’ai eu des contacts suivis avec Georg Kreisel, qui était alors l’éminence grise de la théorie de la démonstration. Il se livrait (comme toujours) à une critique féroce du sujet, critique qui devait profondément influencer mon travail. Kreisel dénonçait (sans apporter de réponse) le côté arbitraire des concepts de théorie de la démonstration et une idéologie par trop prisonnière du programme périmé de Hilbert. Les travaux de la période 1973-75 sont des tentatives divergentes de trouver une problématique moins critiquable. De ces travaux [4], [5], [6], [7], on peut sauver [4], car il pose les bases d’une interprétation asymétrique des travaux de Gentzen (interprétation du style majoration/minoration) ; [4] vaut surtout par son importance conceptuelle, car on retrouvera l’interprétation asymétrique dans de nombreux résultats ultérieurs, jusqu’au récent [33]. Des travaux récents en informatique (Vauzeilles, puis Stärk d’après Kunen) utilisent [4] pour axiomatiser la négation de PROLOG. 3.3 3.3.1 1976-1985 Le rasoir de Kreisel Parmi les têtes de Turc de Kreisel, la théorie de la démonstration allemande (dirigée par Schütte depuis la mort prématurée de Gentzen en 1945) avec son utilisation des ordinaux. Au départ, comme toujours, on trouve Gentzen, qui avait étendu son Hauptsatz à l’arithmétique ; mais, pour tenir compte du principe de récurrence, il avait dû introduire des démonstrations infinies. A ce prix, il put étendre le principe de pureté des méthodes ; de plus, dans certains cas (absence de quantification universelle), les démonstrations restaient finies. Mais, pour travailler sur ces démonstrations infinies, il fallait mesurer leur hauteur par des ordinaux et dans le cas de l’arithmétique, Gentzen fit apparaître l’ordinal 0 qui se manipule bien grâce à la forme normale de Cantor. Après la guerre, ces travaux furent généralisés à Munich, en introduisant des ordinaux de plus en plus gros, et des systèmes de notations pour les représenter. Kreisel dénonçait justement l’arbitraire de ces énormes dictionnaires ordinaux, sans vraie structure mathématique : en quelque sorte la théorie de la démonstration devenait la classification des animaux selon Borges. . . 14 3.3.2 Les dilatateurs Mes travaux sur les dilatateurs : [8], [9], [10], [11], [12], [13], [14], [15], [16], [17], [18], [19], [20], [21], [22], [23], et le livre [60] sont une réponse à la question : A Quelle est la structure géométrique de la représentation des ordinaux ? B. L’idée essentielle est que les opérations infinies sur les ordinaux sont le plus souvent définies sur les entiers, puis étendues aux ordinaux par limite inductive filtrante : en effet les entiers sont denses dans la catégorie ON des ordinaux, quand on prend pour morphismes l’ensemble I(n, n0 ) des fonctions strictement croissantes de n dans n0 . Par exemple, si n et m sont des entiers, on sait définir non seulement la somme n + m d’entiers, mais aussi la somme de morphismes d’entiers : si f ∈ I(n, n0 ), g ∈ I(m, m0 ), f + g ∈ I(n + n0 , m + m0 ) vérifie (f + g)(z) = f (z) si z < n, (f + g)(n + z) = m + g(z). La somme ordinale est alors définie au moyen d’une extension par limite directe. Il en va de même pour le produit, l’exponentielle etc. et plus généralement pour les fonctions ordinales utilisées dans les panzerdivisions de la théorie de la démonstration allemande. Les particularités de l’arithmétique ordinale s’expliquent aisément à partir de pures considérations sur la partie finie des foncteurs ainsi introduits. Par exemple, du fait que l’identité (f + g) + h = f + (g + h) est vraie sur les entiers, la somme ordinale est associative ; par contre sa non-commutativité vient du fait que déjà sur les entiers, f + g 6= g + f . A ce sujet, on pourra lire mon article de vulgarisation dans Pour la Science [68]. Le concept essentiel est celui de dilatateur, à savoir celui de foncteur des ordinaux dans les ordinaux préservant limites directes et produits fibrés. Il s’agit en fait d’une approche finitaire, avec un important aspect géométrique [20], qui permet de coder les ordinaux par des invariants structurels, et non pas de façon arbitraire, comme on le faisait jusque là. En particulier, les fonctions infinies extrêmement compliquées de Veblen et Bachmann, se trouvaient représentées au moyen du foncteur Λ, qui envoie les dilatateurs dans les dilatateurs (voir [8], [12], [13]), c’est à dire complètement finitisées. Le foncteur Λ a de nombreuses applications, mentionnons le problème alors ouvert de la comparaison des hiérarchies, que j’ai résolu en 1976 (voir [8]) : on peut définir des hiérarchies de fonctions de N dans N, λ0 (n) = n λα+1 (n) = λα (n + 1) λξ (n) = λξ[n] (n) γ0 (n) = 0 γα+1 (n) = γα (n) + 1 γξ (n) = γξ[n] (n) indicées par des ordinaux ; dans le dernier cas, ξ est limite et on doit choisir une A suite fondamentale B ξ[n] tendant vers ξ. La hiérarchie λ croît extrêmement vite, et sert à A mesurer B les théories mathématiques courantes : par exemple, si on peut prouver la terminaison d’un algorithme qui envoie N dans N au moyen de l’arithmétique, alors l’algorithme est majoré par un λα , pour un α < 0 . Par contre γ, plus lente, compte en quelque sorte les étapes de calcul. On ne savait pas manipuler γ (avant l’invention des dilatateurs) à cause de l’arbitraire du choix des suites fondamentales dans le cas limite. Mais il est possible de faire apparaître derrière les suites fondamentales une structure de dilatateur. En gros on obtient γD(ω) = D(n) et λD(ω) = (ΛD)(n) quand D est un dilatateur, ce qui résoud de façon simple le problème de comparaison des hiérarchies : Théorème 3 Si D est un dilatateur, alors γ(ΛD)(ω) = λD(ω) . Cas particulier : λ0 = γη0 , où η0 est l’A ordinal de Howard B, ce qui associe un nouvel ordinal à l’arithmétique. 15 Toujours autour du foncteur Λ, Paris et Kirby avaient considéré un résultat combinatoire, le théorème de Goodstein ; dans [21] et [22], les résultats de Paris et Kirby sont analysés et généralisés au moyen de Λ. 3.3.3 Vers la récursion généralisée En 1979, je me suis intéressé à l’analyse des théories dites de définitions inductives, pour lesquelles la théorie de la démonstration allemande n’avait pas pu obtenir de principe de pureté des méthodes. Le principal outil, outre les dilatateurs, fut le théorème de β-complétude. Il s’agissait là d’un problème ouvert par Mostowski depuis les années 60, et que j’ai résolu en 1978. Pour traiter la récurrence ordinaire, on sait que Gentzen introduisit des règles infinies : le problème était de trouver une nouvelle règle infinie, la β-règle, correspondant à la récurrence transfinie. Le problème demandait une solution syntaxique de type absolument nouveau : par exemple, K. Apt avait imprudemment A démontré B que le problème n’a pas de solution ; en réalité, pas de solution hors des chemins battus. . . La réponse que j’ai trouvée (voir [16] et [60]) est basée sur la notion de limite inductive filtrante de démonstrations : en se donnant pour chaque entier n, une démonstration Πn A de largeur n B, on peut dans certains cas, étendre fonctoriellement la famille (Πn ) (au moyen d’opérations chirurgicales) de façon à obtenir une démonstration Πα de largeur α pour chaque ordinal α. De tels foncteurs, appelés β-démonstrations, ont en fait une structure bien plus satisfaisante que les démonstrations infinies qu’ils généralisent. Le théorème s’énonce : Théorème 4 Si A est vrai dans tous les β-modèles de la théorie T , alors A admet une β-démonstration primitive récursive dans T . L’application aux définitions inductives [9], [10], [60] utilise les dilatateurs, les β-démonstrations, et le foncteur Λ ; outre la pureté des méthodes, on gagne le fait que les β-démonstrations sont en fait des familles de démonstrations finies satisfaisant à un critère géométrique de recollement. Cette approche a donc un aspect fini proéminent, ce qui n’était pas vraiment le cas avec les démonstrations infinies traditionnelles. Cette A finitisation B devait avoir un corollaire remarquable en théorie de la récursion généralisée [9] : Théorème 5 Si F est une fonction récursive généralisée de ω1CK dans lui-même, alors on peut trouver un dilatateur récursif primitif D, tel que f (x) 6 D(x) pour tout x infini. Pour comprendre l’intérêt de ce résultat, rappelons que la récursion généralisée a ceci de particulier qu’elle n’est pas calculable ; mais les dilatateurs le sont. Autrement dit, du point de vue de la croissance, les fonctions récursives généralisées sont calculables. Ce résultat a eu une belle postérité ; d’abord mentionnons la thèse de 3ème cycle de J. Van de Wiele, qui, au moyen de généralisations du théorème 5, démontrait l’équivalence de deux formes de récursion généralisée, causant une certaine surprise chez les spécialistes du sujet. Les travaux avec D. Normann [15] et J. Vauzeilles [17] arrivent à A finitiser B des situations bien pires que celles du théorème 5 ; ici encore on retrouve le foncteur Λ. 3.3.4 Vers la détermination Dès 1982, j’ai essayé d’appliquer mes idées à la théorie des ensembles, en particulier aux propriétés de détermination (existence de stratégies gagnantes) dans les jeux infinis. En 1985 (résultats 16 jamais publiés, à cause de l’urgence de la logique linéaire, qui ne m’a guère laissé souffler depuis), j’obtenais un résultat qui permettait de donner une interprétation géométrique à la détermination des jeux Π11 : Théorème 6 La détermination Π11 est équivalente à l’égalisation des dilatateurs, c’est à dire (modulo quelques petites restrictions techniques) au fait que ∀D∀D0 ∃D(D ◦ D = D0 ◦ D) Cette nouvelle approche permettait de faire apparaître le fameux réel O] des théoriciens des ensembles comme l’égalisateur des dilatateurs récursifs. Tout aussi inattendu est le résultat suivant, lui aussi sur les jeux Π11 : Théorème 7 La détermination Π11 est équivalente à l’énoncé du théorème 4, mais pour la logique intuitionniste. L’approche initiée par les théorèmes 6 et 7 est très prometteuse ; en particulier, la méthode utilisée pour le théorème 6 est si générale qu’elle ne semble demander que quelques considérations géométriques simples pour s’étendre au cas Π1n (n > 1), ce qui devrait donner des analogues de O] dans ces cas. Ces travaux ont été (provisoirement ?) interrompus par la logique linéaire. 3.3.5 Les Ptykes Finalement, j’ai introduit la notion de ptyx [14], [18], [60], une généralisation de la notion de dilatateur. Alors que les dilatateurs ont une structure géométrique très fine et complètement connue (voir [20]), les ptykes ne sont que des généralisations de type fini, qui ont le bon goût d’être des dilatateurs quand ils sont de type 1. C’est l’égalisation des ptykes (ou plutôt d’une amélioration du concept avec plus de régularité géométrique) qui aurait dû correspondre à la détermination Π1n . Mais c’est pour une autre raison qu’on les trouvera ici : le système de fonctionnelles T de Gödel (fonctionnelles de type fini au dessus de N) joue un certain rôle en théorie de la démonstration et en informatique. La question s’est posé depuis longtemps (dans la lignée de Gentzen) d’associer des ordinaux à ce système, de façon à mesurer la vitesse de croissance des algorithmes qui y sont représentés. Toutes les solutions proposées étaient de l’ordre du bricolage plus ou moins ingénieux. Mais à l’aide des dilatateurs (et pour les types > 1, des ptykes), il est possible de répondre très clairement à la question : d’abord, on modifie l’équation principale du système (définition par récurrence) pour la rendre croissante, puis on remarque que les équations peuvent s’écrire, non seulement pour les entiers, mais aussi pour les morphismes d’entiers ; en passant à la limite directe, on vérifie qu’on envoie bien ainsi les ordinaux dans les ordinaux. On mesure alors la complexité d’un algorithme f de type nat ⇒ nat (fonction des entiers dans les entiers) au moyen de f ∗ (ω), où f ∗ est le dilatateur associé à f . On a le résultat [60] : Théorème 8 ∀n f (n) 6 γf ∗ (ω) (n). Les ordinaux f ∗ (ω) vont jusqu’à l’ordinal de Howard η0 (voir théorème 3). Ce résultat (et le fait que le système T est un sous-système du système F) m’a amené à acclimater les idées du type A dilatateur B en informatique. C’est pour mes travaux sur les dilatateurs que j’ai reçu en 1982 la médaille d’argent du CNRS. 17 3.4 3.4.1 1984-1991 La sémantique dénotationnelle Au départ, quand j’ai commencé à m’intéresser à l’informatique théorique, je ne prenais pas le sujet bien au sérieux ; en particulier je n’en comprenais pas les problèmes. De plus le caractère de A pièce montée B de beaucoup de prétendues conceptualisations informatiques —qui dépassent rarement le niveau de la paraphrase— n’était guère engageant. Mais j’avais sur des points techniques mineurs des améliorations géométriques à apporter, ce qui m’a amené à écrire deux articles [24], [26] ; j’ai alors découvert que l’informatique est plus qu’un sujet à la mode ou une source de crédits, car elle induit une remise en cause totale des bases de la logique, et qu’en particulier, les problèmes considérés par les grands logiciens des années 30 comme Gentzen prennent une nouvelle dimension. . . D’où la logique linéaire et la géométrie de l’interaction. Au départ, il y eut le problème de la sémantique dénotationnelle du système F. La sémantique dénotationnelle avait été introduite par Dana Scott en 1969 : il s’agit de modéliser des algorithmes fonctionnels au moyen de fonctions possédant certaines propriétés de finitude. Les tentatives faites par Scott et ses élèves pour modéliser F n’avaient mené qu’à des horreurs. En effet, le système F permet de considérer des expressions du genre de I = λαλxα xα , qui est A typé B de type Λα(α ⇒ α) ; cette expression a le sens suivant : c’est une fonction qui prend pour argument un type quelconque τ et nous rend le résultat λxτ xτ ; cette nouvelle fonction prend pour argument un objet a de type τ et nous rend a. Autrement dit, I est la fonction identique universelle. Le théorème 1 nous assure (bien que parmi les types τ acceptés par I comme argument, il y ait le propre type de I) que de tels objets ne mènent pas à des boucles dans les calculs. Mais modéliser ce type d’intuition fonctionnelle est très délicat pour des raisons de circularité plus ou moins évidentes. L’idée a été d’adapter le principe de prolongement par limites directes qui avait réussi dans le cas des dilatateurs. Dans le cas de I, il suffirait d’avoir une notion de domaine abstrait (du genre des domaines de Scott), avec la propriété que tout domaine est limite directe de domaines finis. On considérerait alors les fonctions identiques i(D) de tous les domaines finis, et la fonction identique d’un domaine infini quelconque s’obtiendrait par limite directe, ce qui éliminerait les problèmes de circularité. . . Mais pour mener à bien ce programme, il fallait d’abord nettoyer la sémantique de Scott, car un domaine de Scott n’est pas limite directe de domaines finis. En fait Scott avait travaillé dans la pure tradition logicienne qui consiste à se contenter de codages finis arbitraires, au lieu de codages par des invariants structurels ; il ne fut pas très difficile de trouver une simplification des domaines de Scott (espaces cohérents, [24], [26]), avec une possibilité de codage par des invariants. Dans la sémantique cohérente, les types deviennent des graphes et les objets sont des cliques dans ces graphes. Le côté le plus spectaculaire de l’interprétation donnée dans [26] est la toute petite taille des interprétations, par exemple : Théorème 9 Le type Λα(α ⇒ α), en tant que graphe, n’a qu’un point. La sémantique cohérente se prête à de nombreuses manipulations de style catégorique, voir en particulier [33]. Ce n’est pas étonnant, si on pense que la nouveauté essentielle est l’exploitation de la préservation des produits fibrés, venue en droite ligne des dilatateurs. D’ailleurs, Gérard Berry avait déjà considéré cette préservation, sous le nom de stabilité, dans son travail de 1978 sur la séquentialité. Plus récemment (1992) Thomas Ehrhard a trouvé une amélioration de la sémantique cohérente, les hypercohérences, et a ainsi fait progressé spectaculairement le problème de la séquentialité. 18 3.4.2 La logique linéaire La sémantique de Scott était si compliquée à manipuler (car pleine d’informations redondantes) qu’on ne pouvait pas prendre un objet fonctionnel simple et écrire sa sémantique noir sur blanc ; avec la sémantique cohérente, cela devint possible. A ce moment là (fin 1985), je me suis rendu compte que l’opération fondamentale du typage (la flèche σ ⇒ τ entre deux types, qui est aussi l’implication intuitionniste) n’est pas primitive : elle se décompose en opérations plus simples. Il n’était pas évident a priori que cette décomposition pouvait être internalisée, c’est à dire exprimée au moyen de nouvelles opérations logiques ; en fait on peut écrire une implication intuitionniste A ⇒ B comme (!A) −◦ B, où A −◦ B désigne l’implication linéaire qui a le sens d’une causalité (algorithmiquement, σ −◦ τ est le type des algorithmes fonctionnels de σ vers τ qui appellent leur argument exactement une fois) ; A ! B (bien sûr) a le sens d’une répétition A A autant de fois que l’on veut B et correspond algorithmiquement à une mise en mémoire. En poussant l’analyse plus loin est apparue la négation linéaire, qui a le sens de l’échange entrées/sorties : ainsi, A −◦ B est identique à B ⊥ −◦ A⊥ , ce qui est l’analogue de la transposition en algèbre linéaire. La logique linéaire apparaît dans l’article [27]. Elle se distingue de la logique usuelle en ce qu’elle est basée sur de nombreux petits connecteurs qui ont une signification en termes de ressources. Par ressources, on entendra aussi bien de l’argent que du temps de calcul ou encore de l’espace mémoire. Les connecteurs linéaires peuvent s’expliquer ainsi : I L’implication A −◦ B énonce qu’en utilisant (mieux : en usant) A, j’ai B ; bien sûr, une fois utilisé, A n’est plus là (exemple trivial : en déboursant A, j’ai B). I ⊗ (fois) énonce plus qu’une simple conjonction : les ressources pour A et pour B s’ajoutent (exemple : B n’est pas identique à B ⊗ B, car B ⊗ B demande deux fois les ressources pour B). I & (avec) est une conjonction qui n’a les ressources que pour l’un des deux (quand on a A & B, on a A ou B, au choix, mais pas les deux) ; il s’agit bien d’une conjonction, puisque A&B −◦A est valide. I !A (bien sûr) énonce que l’on a A sans limitation de ressources ; c’est typiquement la situation des mathématiques, où l’utilisation d’un lemme ne s’oppose pas à sa réutilisation ultérieure ! Ainsi, si l’on sature les formules logiques à l’aide de A ! B, on retrouve les principes de la logique classique, qui apparaît donc comme un cas particulier de la logique linéaire. Du point de vue technique, la logique linéaire se présente comme une modification très naturelle de la logique usuelle, formulée à la Gentzen : on se contente de faire disparaître les règles dites d’affaiblissement (de B déduire A −◦ B) et de contraction (de A déduire A ⊗ A), qui énoncent précisément l’absence de problèmes de ressources ; par contre ces règles restent vraies dans le cas où A est de la forme !C, c’est à dire les deux règles deviennent les règles du connecteur A ! B. En fait toute la logique linéaire est bâtie sur une analogie avec l’algèbre linéaire : A −◦ B se comporte comme l’espace des applications linéaires, A ⊗ B comme le produit tensoriel, A & B comme la somme directe, A ! B comme l’algèbre symétrique etc. Les connecteurs de la logique linéaire sont du genre tenseur (−◦9 , ⊗, ` A Par B, le dual de A fois B), et appelés multiplicatifs, ou du genre somme (&, ⊕ A Plus B, le dual de A Avec B) et appelés additifs, ou du genre algebre tensorielle (!, ? A Pourquoi pas B le dual de A Bien sûr B) et appelés exponentiels. L’explication informelle des nouveaux connecteurs peut en fait être rendue rigoureuse : on peut (Lincoln, Mitchell, Scedrov & Shankar ; Kanovitch) coder naturellement tout un tas de machines abstraites, ou plus prosaïquement axiomatiser des jeux comme les échecs grâce à la logique linéaire. Rappelons que ceci est strictement impossible en logique classique, sauf à introduire de 9 Ce connecteur, le plus important pourtant, se définit à partir de Par et de la négation, et c’est pourquoi il n’apparaît que rarement dans les énoncés. 19 hideux paramètres temporels. 3.4.3 Applications informatiques L’article [30] (avec Y. Lafont) posait les bases d’une nouvelle gestion de la mémoire au moyen de A ! B ; en particulier, il devient possible, grâce aux informations supplémentaires sur l’utilisation de la mémoire qu’apporte la logique linéaire, de savoir quand une case mémoire ne sera plus utilisée, et donc de la récupérer. Plus généralement la logique linéaire semble s’appliquer dans d’autres domaines de l’informatique ; une des données essentielles des problèmes informatiques est la possibilité de révision, à la différence des mathématiques où les acquis ne sont (en principe) jamais remis en cause. C’est que nous parlons des états d’un système en constante évolution ; si on cherche à les décrire avec des formules logiques, il va tout simplement arriver qu’un état ultérieur soit en contradiction avec l’état présent. La logique classique, qui est basée sur un principe de pérennité de la vérité (ce que j’ai, je le garde, que je l’utilise ou non) est mal adaptée à cette situation nouvelle ; il en va de même de la logique intuitionniste. Par contre la logique linéaire, qui efface (en l’absence de A ! B) les formules utilisées, se prête tout naturellement à la révision. Parmi les applications en cours, je mentionnerai : (on consultera aussi mon article de vulgarisation paru dans Pour la Science [69]) I Le parallélisme, et plus généralement la structure fine des calculs : nous aurons l’occasion d’y revenir longuement. Mentionnons les travaux d’Yves Lafont sur les réseaux d’interaction, un modèle assez concret du calcul parallèle : on assemble de petites cellules munies de fils, dont un distingué par cellule ; quand deux cellules sont reliées par leurs fils distingués respectifs, elles se transforment en un nouvel assemblage, ce qui produit une algorithmique de type déterministe, parallèle et asynchrone, qui est un peu au parallélisme ce que la machine de Turing est au calcul séquentiel. La théorie des réseaux de démonstration de la logique linéaire permet d’étudier de tels réseaux, en particulier de garantir l’absence de bloquage. I L’application de la logique linéaire aux A langages orientés-objet B initiée par Andreoli et Pareschi à l’ECRC de Munich. Il s’agit d’utiliser les possibilités de révision de la logique linéaire pour déplacer des points sur des écrans etc. avec un langage du style PROLOG. On implante l’algorithme comme une recherche de démonstration et l’état courant de la recherche est affiché sur l’écran. Une recherche de démonstration en logique intuitionniste (ou classique) pourrait ainsi déplacer des points, mais sans pouvoir effacer leurs positions antérieures (principe de pérennité), alors que la même recherche en logique linéaire produira l’effacement désiré. . . Maintenant aux Laboratoires Xerox de Grenoble, Andreoli est passé aux applications pratiques, la mise au point d’un logiciel de navigation sur le Web, voir à l’adresse http://www.xrce.xerox.com/research/ct/prototypes/forumtalk/home.html il reste suffisamment de logique linéaire dans ce produit pour pouvoir parler de véritable application. I Certaines questions d’intelligence artificielle ; c’est ainsi que l’article [44] s’intéresse à la question des exceptions. Il s’agit du sujet de la rétraction d’informations dans une base de données ; les paralogiciens qui sévissent en IA ne sont jamais arrivés à rien car ils s’entêtent à donner des A solutions B qui traitent de la rétraction logique en général, une cause perdue d’avance : un mathématicien sait instinctivement que les axiomes mathématiques ne se rétractent pas (peut-on enlever la commutativité en algèbre commutative ?), et les plaisantins qui ont essayé de bricoler la logique classique l’ont appris à leur dépens : l’ampleur de l’enjeu nécessite une refonte de la logique et non pas un lifting incompatible avec l’exceptionnelle robustesse de la logique classique10 . Cet obstacle à la rétraction vient du côté extrêmement imbriqué de la 10 C’est comme si on disait : A Au Paradis, il y a des cafés, des vélos, des percepteurs, même des Eglises : tout 20 I conséquence mathématique, classique ou intuitionniste. A l’aide de la logique linéaire il est possible d’individualiser un raisonnement taxinomique de nature plus limité que le raisonnement mathématique et qui se prête à la révision. Grâce au système LU (voir plus bas) on peut maintenant mêler librement du raisonnement taxinomique (géré linéairement) et du raisonnement mathématique (géré classiquement) sans qu’il y ait de confusion regrettable. C’est une direction de recherches prometteuse, que Jacqueline Vauzeilles essaye de développer dans le milieu de l’IA. La complexité des calculs, plus précisément l’étude du temps polynomial (avec André Scedrov & Philip Scott, dans [36]) : pour la première fois la logique arrive à manipuler implicitement des bornes sur le temps de calcul ; avant la logique linéaire les tentatives dans ce sens -basées sur la complexité des calculs- ne sont arrivées qu’à des formalismes éléphantesques où tout était explicité, ce qui est la négation même de l’idée de logique. L’idée fondamentalement nouvelle ici est que la complexité temporelle d’un calcul n’est pas un paramètre primitif, qu’elle se manipule mal, mais que par contre, le décompte des règles de contraction utilisées est un paramètre qui se manipule bien et dont on peut déduire la complexité du calcul. De plus -ô merveille- ce décompte fait intervenir des coefficients binomiaux, c’est à dire que les polynômes (essentiels en complexité) apparaissent sans qu’on ait besoin de les appeler. Les résultats fondamentaux de [36, 37] s’énoncent : Théorème 10 Dans le système BLL de la logique linéaire bornée : – tous les calculs se font en temps polynomial ; – réciproquement tout algorithme numérique polynomial est représentable dans le système. I En d’autres termes, la logique n’assure plus seulement la correction et la terminaison des calculs, mais aussi que ces calculs sont A faisables B, c’est à dire de taille acceptable. Malgré tout BLL avait le défaut rédhibitoire de mentionner explicitement des paramètres de taille, et finalement n’a été que le brouillon de LLL, voir section 3.5. Dans cette foire aux applications, il y a beaucoup d’appelés et peu d’élus. Par exemple on a pensé très tôt à appliquer la logique linéaire aux réseaux de Petri, mais après un départ tapageur, le sujet n’a jamais décollé. De même, les applications à la négation dans PROLOG n’ont pas vraiment convaincu. . . mais ce serait de l’acharnement thérapeutique que vouloir mettre de la logique où il n’y en a pas (la programmation logique s’est en effet aventuré très loin de ses bases). 3.4.4 Les réseaux de démonstration Mais l’enjeu fondamental reste les fondements de l’algorithmique parallèle, et c’est là-dessus que j’ai fait porter l’essentiel de mes efforts, en partant de la remarque que la négation linéaire est involutive, comme celle de la logique classique, avec en plus un sens algorithmique (on sait que c’est faux en logique classique : voir les théorèmes de théorie des nombres qui énoncent l’existence d’entiers sans qu’il soit possible de les calculer). L’involutivité de la négation permet de postuler l’équivalence des entrées et des sorties, une entrée de type A pouvant être vue comme une sortie de type A⊥ et réciproquement : on perd ainsi la notion (ou plutôt la fiction) d’un calcul qui serait orienté de l’entrée vers la sortie, puisque, si l’on veut, il n’y a plus que des sorties, et on se retrouve dans un univers de calcul parallèle. Ce qui induit une A parallèlisation B de la syntaxe. . . comme sur Terre, sauf qu’il n’y a pas les Tibéri. B 21 Le premier problème résolu (pour les connecteurs ⊗, (−)⊥ et ` (le dual de ⊗ par rapport à la négation) était de trouver une nouvelle syntaxe, plus proche du calcul que les formalismes à la Gentzen. Ces formalismes contiennent en effet des informations redondantes qu’on est ensuite obligé de gérer, de modifier : c’est typiquement l’ordre d’application des règles logiques, qui n’a souvent d’autre signification que la nécessité toute bureaucratique d’écrire des règles dans un certain ordre. Les réseaux de démonstration écrivent (pour le fragment logique mentionné plus haut) les démonstrations (ou les programmes) sans ordonner les règles, c’est à dire sous forme d’un graphe à conclusions multiples. Le problème mathématique qui se pose est alors de savoir reconnaître, parmi tous les graphes qui se présentent, ceux dans lesquels on peut trouver au moins un ordre pour les règles, c’est à dire ceux qui sont séquentialisables. La solution [27] consiste à donner des instructions de voyage dans le réseau, dépendant du positionnement préalable d’interrupteurs ; ces interrupteurs sont choisis suivant un principe de dualité : pour exprimer que deux parties d’un graphe ne communiquent pas, on les force à communiquer en un point, pour exprimer que ces deux parties communiquent, on empêche la communication en ce point. Le principal théorème de [27] s’énonce alors : Théorème 11 Un réseau est séquentialisable ssi quelque soit la position de ses interrupteurs, le voyage n’a qu’un cycle (absence de court-circuit). Il m’est tout de suite apparu que les réseaux, à cause de leur structure symétrique entrée/sortie devaient enfin permettre une approche décente au calcul parallèle [28]. Mais, pour cela, il fallait pouvoir étendre le théorème 11 à tout le calcul linéaire. L’article [31] (nettement amélioré dans [40]) étend les résultats au cas des quantificateurs. Pour cela j’ai introduit de nouveaux types d’interrupteurs (A à saut B, qui expriment l’interdiction de certaines dépendances) et j’ai démontré : Théorème 12 Le théorème 11 s’étend au cas des quantificateurs. L’approche A réseaux B est à la base des réseaux d’interaction d’Yves Lafont (voir supra). 3.4.5 La géométrie de l’interaction Un changement de point de vue fondamental est opéré par l’article [29], systématisé en programme sous le nom de géométrie de l’interaction dans [32]. Il s’agit ni plus ni moins que d’expulser totalement la syntaxe de la description des démonstrations pour les remplacer par des opérateurs (au sens des C ∗ -algèbres). Dans [29], qui ne considère que le fragment A multiplicatif B (⊗, `(−)⊥ ), une démonstration de A devient une permutation σ des atomes p1 , . . . pn de A. Chaque positionnement S des interrupteurs définit une permutation τS des mêmes atomes, et on note Σ(A) l’ensemble de ces τS . La condition du théorème 11 se réécrit : A στS est cyclique pour tout S ∈ Σ(A) B. Si on introduit la notation σ ⊥ τ pour dire que στ est cyclique, une démonstration de A est donc un élément de Σ(A)⊥ . Mieux, on peut démontrer que : Théorème 13 Σ(A)⊥ = Σ(A⊥ )⊥⊥ (A⊥ est la négation linéaire de A). 22 Ce résultat exprime (rappelons-nous que Σ(A)⊥ est l’ensemble des démonstrations de A), qu’à la bi-orthogonalité près, les voyages dans A⊥ sont exactement les démonstrations de A ; en fait ils sont denses (par rapport à la bi-orthogonalité) dans les démonstrations de A et donc les voyages peuvent être vus comme des démonstrations virtuelles de A. Malgré des apparences contraires, il n’y a pas de contradiction à supposer l’existence de A démonstrations B pour toute formule ; ce qui se passe c’est que n’importe quoi va avoir des A pré-démonstrations B, mais les A vraies B démonstrations (ou les vrais programmes) doivent vérifier une propriété supplémentaire. Une analogie en théorie des jeux : stratégies générales/stratégies gagnantes11 . Ce qui fait la nouveauté fondamentale du théorème 13 est qu’il suggère une nouvelle façon de calculer : jusque là on utilisait des algorithmes de réécriture qui implantent, de façon plus ou moins astucieuse, les résultats de normalisation dans le style du théorème 1. La géométrisation du théorème 13 permet de se passer de l’essentiel de la réécriture : on s’aperçoit que la réécriture ne fait qu’assurer la A mise en contact B de deux permutations σ et τ , mais qu’elle le fait de façon particulièrement coûteuse. On peut exprimer le calcul multiplicatif en introduisant des matrices de permutation : un calcul (dans le fragment considéré) se présente comme un couple (u, σ) où u est unitaire et σ est une symétrie partielle représentant la A mise en contact B qui indique une situation dynamique (si σ = 0, alors il n’y a rien à calculer). Les propriétés du calcul s’énoncent alors au moyen du Théorème 14 Le calcul (u, σ) converge exactement quand σu est nilpotent. Le résultat est alors le couple ((1 − σ 2 )u(1 − σu)−1 (1 − σ 2 ), 0) Cette formule exprime le résultat de Gentzen dans un cas sans doute très limité, mais sous une forme tout à fait inattendue. La terminaison des calculs devient une propriété de nilpotence, les coupures deviennent une symétrie partielle σ, et la forme normale est obtenue au moyen de RES(u, σ) = (1 − σ 2 )u(1 − σu)−1 (1 − σ 2 ) (1) Il est tentant de penser qu’une telle expression (1) est la règle. Le programme de géométrie de l’interaction [32] se donne pour but de trouver une base à l’algorithmique au moyen de considérations entièrement géométriques (par exemple les isométries partielles des espaces de Hilbert), la clef de voûte étant la formule d’exécution écrite plus haut. Les problèmes de dynamique (on n’a pas de contrôle a priori sur l’ordre de nilpotence de σu, qui n’est rien d’autre que la complexité temporelle du calcul) suggèrent une notion de A dimension continue B et il m’est apparu assez vite que la solution devait employer pour cette raison des algèbres stellaires. Le choix exact de l’algèbre fut par contre beaucoup plus délicat et c’est seulement fin 1988 que j’ai obtenu la première vague de résultats qui étayent le programme. La C ∗ -algèbre Λ∗ peut se décrire aussi bien concrètement (comme agissant sur un espace `2 ) ou abstraitement (sans référence à une représentation) ; les deux approches sont complémentaires, la seconde ayant un contenu algorithmique important. Fondamentalement, Λ∗ est obtenue en internalisant : I Une isométrie de H ⊕ H dans H ; si on écrit cette isométrie x ⊕ y 7→ p(x) + q(y), cela nous donne les équations : p∗ p = q ∗ q = 1 p∗ q = q ∗ p = 0 11 Pour le fragment multiplicatif, le théorème 13 constitue déjà un parfait résultat de dualité moniste. Voir aussi la section 3.6.1 pour une mise en œuvre complète de ces idées. 23 I Une isométrie de H ⊗ H sur H, ce qui permet de définir un A produit tensoriel interne B dans Λ∗ , u, v 7→ u ⊗ v ; la non-associativité de ce produit est compensée par la présence d’un unitaire t tel que : t(u ⊗ (v ⊗ w))t∗ = (u ⊗ v) ⊗ w L’interprétation a la forme suivante : I A chaque démonstration sans coupure d’un énoncé A, on associe un opérateur de Λ∗ . I Plus généralement, à chaque démonstration sans coupure d’un séquent − A1 , . . . , An on associe une matrice n × n d’opérateurs de Λ∗ . I A une démonstration d’un séquent ` A1 , . . . , An avec m coupures, on associe deux matrices u et σ de taille 2m + n × 2m + n, σ étant la symétrie partielle qui échange les indices 1 et 2, 3 et 4,. . ., 2m − 1 et 2m. 1 − σ 2 est le projecteur orthogonal sur le sous-espace correspondant aux indices 2m + 1, . . . , 2m + n. (exemple typique : si θ est un terme normal, par exemple du système F, avec n variables libres, on lui associera une matrice n + 1 × n + 1 -soit M -, les n premiers indices pour les variables, le dernier pour le résultat. Si on veut parler du remplacement des variables x1 , . . . xn par des termes normaux et clos représentés par des opérateurs u1 , . . . un on adjoindra n indices supplémentaires (disons 10 , . . . n0 ) à M , et pour ces nouveaux indices une diagonale formée des ui ; la dynamique du remplacement sera représentée par la symétrie partielle σ qui échange 1 et 10 , . . ., n et n0 .) Il n’est pas question de détailler ici cette traduction qui fait l’objet de l’article [34]. Donnons seulement quelques points de repère : I Les règles logiques sont interprétées par des ∗-isomorphismes (sans préservation de l’élément neutre). Par exemple les règles multiplicatives (conjonction/disjonction, ⊗/`) sont interprétées par la contraction de deux indices en un seul au moyen de p et q. Les règles pour le point d’exclamation font intervenir la tensorisation avec 1 : en effet 1 ⊗ a se comporte comme une mise en mémoire de a (à partir de 1 ⊗ a on peut récupérer a, au moyen de a = d∗ (1 ⊗ a)d (où d est un opérateur de Λ∗ ) ; surtout l’utilisation du produit tensoriel interne permet de faire commuter certaines opérations dans des cas cruciaux ; ainsi pour créer deux copies de 1 ⊗ a à partir de 1 ⊗ a on comprendra -sans que je rentre dans les détails- qu’on ait besoin d’un plongement de H ⊕ H dans H ; mais si on utilisait celui qui est défini au moyen de p et q, on se heurterait à des problèmes de commutation insurmontables (on ne sait rien de a), problèmes immédiatement résolus par l’utilisation de p ⊗ 1 et q ⊗ 1). I La procédure d’élimination des coupures de Gentzen correspond au fait que les règles logiques sont des ∗-isomorphismes, et donc que la formule d’exécution (1) qui dénote le résultat ultime du calcul est invariante. Tout ceci se combine en un modèle du système F (ou de la logique linéaire sans sa partie A additive B, i.e. sans &, ⊕), avec le théorème suivant : Théorème 15 A chaque terme θ du système F est associé un couple (u, σ) tel que : I uσ est toujours nilpotent I (en gros) si la forme normale de θ est représentée par u0 alors u0 = RES(u, σ). Curieusement je n’ai obtenu qu’après coup l’explication suivante de la formule d’exécution, explication d’une simplicité déconcertante : on peut voir un algorithme, une démonstration etc. comme une boîte munie d’une prise. Cette boîte est caractérisée par un opérateur d’entrée-sortie qui me donne (en fonction d’une entrée x dans H) une sortie u(x) dans H. Les matrices (cas des démonstrations à plusieurs conclusions) correspondent à plusieurs sorties en fonction de plusieurs entrées. Ainsi examinons le cas de l’application d’une fonction à un argument : 24 I D’un côté j’ai mon argument, caractérisé par une équation u(x) = x0 I (2) D’autre part j’ai ma fonction (deux entrées, deux sorties) caractérisée par le système : a(y) + b(z) = y 0 (3) 0 (4) c(y) + d(z) = z La règle de coupure, c’est à dire brancher l’argument et la fonction, consiste à identifier les entrées-sorties de (2) avec les premières sorties-entrées de (3), (4). . . comme nous le ferions pour un vulgaire appareil électrique, soit y = x0 , x = y 0 . Notre système devient u(x) = y a(y) + b(z) = x c(y) + d(z) = z 0 Ce qu’on appelle élimination des coupures, normalisation, exécution, n’est rien d’autre que la solution symbolique de ce système, c’est à dire l’opérateur donnant z 0 en fonction de z. Il est facile de voir que cet opérateur est précisément celui qui est calculé par notre formule d’exécution. Tout l’appareillage logique ne sert finalement qu’à établir l’existence d’une solution pour le système. Pour revenir au théorème 15, l’ordre de nilpotence de uσ est grosso modo le nombre d’étapes de calcul. En particulier il peut devenir extrêmement gros. La seconde partie du théorème n’est quant à elle vraie que sous certaines restrictions. La différence entre notre exécution (de type parallèle asynchrone) et celle prévue par la syntaxe (de type séquentiel synchrone) est réelle et complique le véritable énoncé de la seconde partie ; mais c’est loin d’être un défaut. En effet, la seule divergence est le cas du calcul d’une fonction dont on ne donne pas l’argument : la syntaxe permet de faire alors des opérations globales que l’exécution géométrique ne peut effectuer, car elle doit transiter A physiquement B à travers l’argument, ce qui est d’ailleurs en accord avec la pratique informatique : on ne calcule jamais de fonction sans leur donner d’argument. Comme on peut par ailleurs démontrer que cette différence n’affecte que la structure des calculs (qui sont entièrement A parallélisés B) mais pas le résultat final, c’est finalement un résultat théorique de parallélisation du calcul qui est caché dans l’A en gros B hypocrite du théorème. On pourrait s’inquiéter du fait que la modélisation ultime du calcul proposée ici réfère à l’espace de Hilbert et à ses isométries partielles. Ces notions ont la réputation d’être passablement infinies. . . et on n’a peut-être fait que reculer pour mieux sauter. Ce serait par exemple le cas si les isométries partielles utilisées pour représenter une fonction f avaient un quelconque rapport avec la fonction f en tant que graphe et toute cette construction ne serait qu’une pédante escroquerie. En fait nous n’utilisons que p, q, t que nous combinons au moyen des opérations +, ·, ⊗, (−)∗ de façon finie. Si on faisait opérer les opérateurs ainsi obtenus sur un Hilbert H, on verrait que les fonctions induites sont très élémentaires et ne peuvent pas servir à cacher une dynamique. Ce résultat a besoin d’être digéré. D’abord, c’est la première fois qu’on modélise mathématiquement le calcul, le seul précédent étant la sémantique de Scott, qui ne s’occupe pas vraiment du calcul puisqu’elle ne tient compte que du résultat. A long terme, les solutions très générales trouvées au problème de la parallélisation asynchrone du calcul séquentiel devraient s’avérer déterminantes. A plus court terme, l’emploi d’isométries partielles pour parler de copies situées dans des cases mémoires différentes devrait rationaliser une partie de l’algorithmique traditionnellement laissée à l’astuce des ingénieurs. Au niveau théorique, on peut raisonnablement penser que la formule d’exécution représente, sinon la forme la plus générale de l’algorithmique, du moins la forme générale d’un algorithme déterministe. Ceci est corroboré par l’extension de ces résultats aux algorithmes qui ne s’arrêtent pas : [35] se penche sur le cas de la programmation récursive, A par point fixe B. Dans ce cas l’essentiel est préservé, à quelques nuances près : 25 La nilpotence de σu devient une nilpotence (en topologie) faible. Ce qui signifie qu’en termes de remplacement d’une question par une autre, puis de cette autre par une tierce etc. on ne revient jamais à la question de départ (absence de blocage). I La partie centrale de la formule d’exécution, u(1 − σu)−1 (qui représente le calcul proprement dit) devient un opérateur non borné. I Le résultat de l’exécution (qui n’est plus dans Λ∗ ) a toujours un sens dans B(H). Dans la même ligne, mes élèves -en particulier Danos, Regnier, Malacaria- ont obtenu une interprétation faiblement nilpotente du λ-calcul pur. Plus récemment, Gonthier (INRIA) a établi un lien entre la géométrie de l’interaction et la mystérieuse et controversée exécution optimale du λ-calcul proposée par Lamping. . . comme quoi les considérations développées ici sont pleines d’applications potentielles. Le travail de Gonthier a d’ailleurs eu une certaine importance sociologique : fin 1988, la géométrie de l’interaction avait été poliment accueillie par les informaticiens et les logiciens (en grande partie par un réflexe de peur face à l’utilisation, pourtant bien élémentaire, de notions d’analyse fonctionnelle) : ce A succès d’estime B m’a même fait douter un temps de la pertinence du programme. . . mais grâce à Gonthier la géométrie de l’interaction est maintenant acceptée comme une des principales approches au calcul, essentielle dans les problèmes d’optimisation liées au partage de données. Hors du cadre déterministe rien n’est connu ; il ne semble pourtant pas absurde de penser que l’isométricité correspond précisément au déterminisme et qu’une libéralisation des conditions pourrait rendre compte de classes beaucoup plus larges. Quoi qu’il en soit, ce qui est en cause ici, c’est la définition générale de la notion d’algorithme avec peut-être une restriction du genre déterministe. L’avenir nous dira si le type de définition que nous proposons pour le concept d’algorithme est le bon ; on devrait au moins s’accorder sur le fait qu’une définition mathématique de la notion de base de l’informatique fait à l’heure actuelle cruellement défaut ; en particulier, faute de notion générale, trop de résultats dépendent d’une machine ou d’un système précis. Trouver le cadre approprié pour formuler des théorèmes sur le calcul, voilà l’un des enjeux ultimes du programme de géométrie de l’interaction. I 3.4.6 L’unité de la logique Le programme de géométrie de l’interaction temporairement mené à bien (et fraîchement reçu au départ), je suis retourné à la syntaxe ou à des sémantiques plus familières pour A engranger B de nouveaux résultats. Traditionnellement la logique classique est considérée comme non-constructive. Il y a là-dedans une réalité bien naïve : les théorèmes existentiels classiques ne s’explicitent pas, ou du moins ne s’explicitent pas de façon évidente. La logique linéaire indique pourtant bien une voie possible, plus large, pour donner un contenu constructif au cas classique, mais on se heurte alors au non-déterminisme fondamental de l’algorithme à nous légué par Gentzen : le contenu implicite d’une démonstration classique est capricieux, instable, inutilisable quoi ! La découverte fin 90 d’un tableau miraculeux permettant de donner un sens raisonnable aux connecteurs logiques classiques a mis fin à une situation paradoxale qui n’avait que trop duré : le système logique le plus facile d’accès était en même temps celui à la structure la plus complexe. La difficulté est de donner une sémantique dénotationnelle associative à la conjonction (ou la disjonction) classique, tout en préservant l’involutivité de la négation. Cela n’est possible que sur la base d’un nouveau concept, celui de polarité. La polarité sert à régler le protocole d’élimination des coupures ; en tenant compte des polarités, il est possible de donner une interprétation associative de la conjonction : une conjonction est positive quand un de ses deux membres l’est, elle est négative autrement. La conjonction de deux positifs est donnée par ⊗, de deux négatifs par & ; pour combiner un positif et un négatif on utilise ⊗ et ! (exemple N ∧ P est !N ⊗ P ). La 26 négation classique coïncide avec la négation linéaire, ce qui est un gage d’involutivité. Sémantiquement parlant, les positifs sont des comonoïdes et les négatifs leurs duaux. L’étude en théorie de la démonstration de la logique classique ainsi polarisée fait apparaître des aspects constructifs inattendus. Par exemple la propriété de disjonction est souvent vraie classiquement, au moins sous forme d’une préférence. La logique s’organise sous forme d’un nouveau calcul des séquents LC [41], bien meilleur que le fameux LK de Gentzen. Il se trouve en fait que le passage de LK à LC est non-déterministe : les polarités ne suffisent pas à rendre LK déterministe. Faut-il ne voir là qu’un défaut de la théorie de la démonstration classique, où est-ce l’esquisse d’un lien tant de fois annoncé, mais toujours décommandé, avec la mécanique quantique ? L’étude du calcul des séquents LC fait ressortir des analogies surprenantes avec le calcul intuitionniste ; c’est pourquoi une logique unifiée [42] apparaît finalement. Dans LU, s’ajoute une troisième polarité (neutre) qui correspond au comportement (linéaire) par défaut. Les différences logiques traditionnelles apparaissent comme des différences de fragment : en restreignant les formules, on obtient les systèmes habituels -classique, intuitionniste et linéaire-. Il est important de noter -pour le non-spécialiste- qu’il s’agit d’un résultat absolument surprenant et qui n’est rendu possible que par l’accumulation récente de résultats en théorie de la démonstration. Pour la première fois il devient possible d’imaginer qu’un résultat intuitionniste ait des conséquences classiques et vice-versa. Ces travaux établissent la possibilité de travailler la logique comme un système expert ; mais au lieu de fabriquer des montres à moutarde (pour citer le titre d’un de mes canulars scientifiques, voir [80]) en triturant la règle du jeu, on peut fixer une fois pour toutes cette règle et se concentrer sur le choix des connecteurs. Il semble que dans LU il y ait assez d’espace pour les besoins logiques, même les plus exotiques. . . voir en particulier mon article [44]. Une mesure spectaculaire du succès de cette unification de la logique, c’est que les fragments de LU correspondant aux systèmes classique, intuitionniste ou linéaire sont bien meilleurs que les systèmes isolés qu’ils reproduisent. 3.5 1992-1996 Mon installation à Marseille fut un choix délibéré et longuement mûri en faveur de ce qui semblait alors être une chance exceptionnelle de développement de la partie des mathématiques qui m’intéresse. Cette installation ne s’est pas fait sans difficultés, matérielles et morales, ce qui a produit dans mon travail une intermittence bien supérieure à ce que la dialectique naturelle création/abattement devait naturellement produire après les résultats jumeaux [41] et [42]. Disons que j’ai eu droit à deux ans de stérilité au lieu d’un. Aujourd’hui ce passage à vide est bien oublié. 3.5.1 Réseaux additifs J’ai obtenu en 1993 une extension assez satisfaisante des réseaux au cas additif, [47]. Par rapport aux réseaux multiplicatifs traditionnels, ces nouveaux réseaux se distinguent par l’adoption de poids booléens, correspondant aux règles logiques pour le connecteur &. Le critère de correction (qui permet d’étendre le théorème 11) utilise des sauts dans le style des réseaux avec quantificateurs, qui sont activés par la dépendance des poids des formules par rapport aux paramètres booléens. Mais si le critère est facile à trouver, la notion de réseau sous-jacente est moins A satisfaisante B que dans le cas de base ; malgré ses limitations cette généralisation constitue un progrès technologique majeur et constitue la base des percées réalisées depuis. 27 3.5.2 La communication sans compréhension En 1993 un nouveau résultat sur les réseaux ne pouvait plus se suffire à lui-même : en effet, le cas de base (multiplicatif) avait donné naissance à la géométrie de l’interaction (à travers le théorème 14), qui suggérait la formule (1). Malgré l’utilisation d’algèbres de Boole (homogènes donc en principe aux C ∗ -algèbres utilisées en géométrie de l’interaction), la solution était bien cachée. . . Les résultats obtenus dans [43] sont : I Une généralisation du paradigme de géométrie de l’interaction à toute la logique linéaire, ce qui en tenant compte de l’existence de LU veut concrètement dire toute la logique. La formule d’exécution (1) est toujours valide et on peut donc démontrer un analogue du théorème 15 en toute généralité. I Une modification de l’algèbre stellaire : les opérateurs de base de la nouvelle algèbre sont des clauses p 7→ q de. . . programmation logique (avec les mêmes variables dans p et q), et la composition est la résolution. La formule d’exécution (1) peut encore se lire comme une boucle de style PROLOG ; si on pense que la programmation logique descend elle aussi du théorème de Gentzen, c’est bien moral. . . mais c’est surtout révolutionnaire, car jusqu’à présent aucun point de contact solide entre les deux postérités informatiques de Gentzen n’avait pu être établi. I Une illustration spectaculaire du thème de la communication sans compréhension : si les opérateurs u et v doivent, pour communiquer, partager certaines structures, tels les indices de ligne/colonne de la matrice, (ce que nous appellerons des canaux publics), une autre partie des données est à usage interne : c’est un dialecte privé, par nature incommunicable. Ceci peut s’exprimer à l’aide d’une relation de variance, induite par un groupe G d’unitaires : u ∼ v si ∃g ∈ G u = g ∗ vg. Le dialecte, c’est précisément ce qui distingue u de ses variantes. Quand u et v interagissent, ils commencent d’abord par créer des variantes u0 et v 0 , de façon à ce que la classe de variance de u0 + v 0 ne dépende que des classes de u et v. Expérimentalement on trouve deux choix possibles pour u0 , v 0 : – La tensorisation des dialectes : cela veut dire concrètement que chacun accepte génériquement le dialecte de l’autre, sans y comprendre un mot. C’est le cas de la conjonction multiplicative ⊗. – La sommation des dialectes : cela veut dire que u0 et v 0 se placent dans deux copies orthogonales de l’espace de Hilbert : il n’y aura jamais de contact, car u0 v 0 = 0. C’est le cas de la conjonction additive &. Un exemple simple de communication sans compréhension est donné par une matrice 3 × 3 a11 a12 a13 u = a21 a22 a23 a31 a32 a33 dont les coefficients sont en pur dialecte, c’est à dire ∗ g a11 g g ∗ a12 g u = g ∗ a21 g g ∗ a22 g g ∗ a31 g g ∗ a32 g qu’on ne peut différencier de g ∗ a13 g g ∗ a23 g g ∗ a33 g Une telle matrice ne partage avec l’extérieur que le nom des canaux (1, 2, 3). Cela n’empêche pas la communication avec une matrice 2 × 2 b11 b12 v= b21 b22 28 Les dialectes sont tensorisés de façon à éviter toute compréhension accidentelle ; aij devient aij ⊗ 1, bij devient 1 ⊗ bij . Les matrices obtenues sont juxtaposées en 1 ⊗ b11 1 ⊗ b12 0 0 0 1 ⊗ b21 1 ⊗ b22 0 0 0 0 0 a11 ⊗ 1 a12 ⊗ 1 a13 ⊗ 1 U = 0 0 a21 ⊗ 1 a22 ⊗ 1 a23 ⊗ 1 0 0 a31 ⊗ 1 a32 ⊗ 1 a33 ⊗ 1 et on forme σ= 0 0 1 0 0 0 0 0 1 0 1 0 0 0 0 0 1 0 0 0 0 0 0 0 0 qui exprime la mise en contact des canaux de même indice, 1 ou 2 de u et v, etc. Le cas le plus simple est celui de 0 1 v= 1 0 auquel cas RES(U, σ) revient à rebrancher u sur lui-même, en échangeant les indices 1 et 2 : – la sortie d’indice 2 de u lui est redonnée comme entrée en indice 1 – la sortie d’indice 1 de u lui est redonnée comme entrée en indice 2 On comprend ce qui se passe dans cet exemple très simple : les coefficients de u se A comprennent B mutuellement car ils sont écrits dans le même dialecte. Par contre, v qui ne les comprend pas détermine finalement quels coefficients de u seront finalement mis en contact. Autrement dit le partenaire externe v ne sert que de relais pour un processus purement interne à u. Cela me semble d’ailleurs une bonne image de la communication en général. . . 3.5.3 Les deux logiques allégées A l’été 1994, je me suis repenché sur la question de la complexité de l’élimination des coupures, déjà traitée (imparfaitement) dans [36]. Les résultats (exposés dans [48]) sont les suivants : I La découverte de deux systèmes logiques LLL et ELL où la complexité de l’élimination des coupures est constante, autrement dit ne dépend pas de la complexité des coupures. Application spectaculaire : la théorie des ensembles naïve devient utilisable, car on peut voir les contradictions bien connues (Paradoxe de Russell etc.) comme le fait que la complexité A grimpe trop B, tellement que l’élimination des coupures ne converge pas. Les deux systèmes sont basés sur le remplacement des règles usuelles d’exponentiation par des règles plus faibles. La mise au point de ces systèmes et le calcul précis de leur complexité est un tour de force qui utilise de façon essentielle la technique des réseaux, en particulier le récent [47]. I LLL (le premier A L B pour light, c’est à dire allégé), est un système a complexité constante polynomiale (le degré du polynôme dépend d’un invariant de profondeur). C’est le premier système avec une telle propriété, et qui soit vraiment A naturel B. Avec LLL, on se trouve pour la première fois avec un système intrinsèquement polynomial, et on conçoit que la mise sur pied d’une sémantique non-triviale pour LLL puisse avoir des retombées théoriques spectaculaires sur les problèmes de complexité algorithmique. I ELL (la lettre A E B pour élémentaire, c’est à dire la classe de complexité correspondant aux tours d’exponentielles) a une plus grande complexité, puisqu’il permet d’exprimer l’exponentiation (au sens usuel des fonctions exponentielles) et partant, permet sans doute de développer une grande partie des mathématiques courantes. D’autre part, il contient la théorie 29 naïve des ensembles, c’est à dire qu’on peut y définir à peu près n’importe quoi. Ce système est le candidat idéal pour la formalisation de l’intelligence artificielle. Théorème 16 Les démonstrations de taille h et de profondeur d de LLL (resp. ELL) se normalisent en temps ···2h d h2 (resp. une tour d’exponentielles 22 3.5.4 de hauteur d). La complétude dénotationnelle Les modèles fondamentaux de la logique linéaire sont de nature homogène, c’est à dire moniste. Ils ne satisfont pas complètement au programme de dualité moniste, car ils sont incomplets, en d’autre termes ils ont A trop d’éléments B par rapport à ce qu’ils interprètent. Par exemple, la notion naturelle d’orthogonalité entre opérateurs, A uv nilpotent B fait en sorte que l’opérateur nul est orthogonal à tout autre et donc —si les notions logiques sont définies par orthogonalité—, appartient à tout énoncé logique, ce qui est absurde. La condition supplémentaire qui permettrait d’éliminer des opérateurs comme 0 de l’interprétation n’est toujours pas connue. Par contre une solution très satisfaisante a été trouvée [49] dans le cas plus simple de la sémantique dénotationnelle, qui, rappelons-le ne rend compte que des entrées/sorties en ignorant la dynamique. En sémantique cohérente une formule logique devient un graphe réflexif-symétrique (et sa négation le graphe complémentaire augmenté de la diagonale) ; une démonstration de A est alors representée par une clique dans le graphe associé à A. Il y a évidemment beaucoup trop de cliques, typiquement la clique vide, pour qu’il y ait complétude. On améliore très légèrement la situation en considérant la forme bilinéaire qui à une clique a de A et à une clique b de A⊥ associe le cardinal < a, b > de leur intersection (qui est 0 ou 1) : on peut alors espérer affiner l’orthogonalité en prescrivant la valeur de < a, b >. Malheureusement, il n’y a que 4 prescriptions possibles, ce qui n’est pas assez pour éliminer les mauvaises herbes. Mais on peut procéder en analogie avec l’algèbre linéaire, où un groupe commutatif devient un A-module libre par tensorisation avec A. Ce qui va jouer le rôle d’anneau c’est un A Parmonoïde B P, i.e. un comonoïde dualisé12 . On fixe donc un tel P et on remplace l’espace cohérent X par le A P-module libre B X ` P, dont les cliques sont appelées les P-cliques de X. La forme bilinéaire associe maintenant à deux P-cliques, a de A et b de A⊥ , une clique < a, b > de P. Si l’orthogonalité est définie par < a, b >∈ B, où B est un ensemble de cliques de P, on obtient le résultat désiré, à savoir (pour l’essentiel) : Théorème 17 Pour tous P et B, la P clique associée à une démonstration est acceptée par la sémantique. Réciproquement si a est une (vraie) clique de A telle que a ` P soit acceptée pour tous P et B, alors a est l’interprétation d’une démonstration de A. 3.5.5 La continuité en logique Une objection sérieuse à la géométrie de l’interaction est l’absence de vrais paramètres (réels ou complexes) dans l’interprétation. Pour cette raison je suis revenu aux motivations originales de Dana Scott (la sémantique continue). Scott voulait faire de la topologie, mais la pléthore de fonctionnelles canoniques Õ rendre continues (e.g. x, f ; f (x)) interdit les espaces uniformes, d’où son repli sur des topologies très marginales (topologies T0 ), et en particulier l’impossibilité d’acclimater les nombres réels. La logique linéaire a permis de reposer le problème, en termes simples, voir [50] : prenons des espaces métriques complets, et puisque linéarité il y a, des espaces de Banach complexes. Ce qui 12 Du fait que le produit tensoriel n’est pas auto-dual, le dual d’un comonoïde n’est pas un monoïde. 30 joue le rôle des cliques, ce sont les vecteurs de norme 6 1. Pour pallier le défaut de réflexivité de ces espaces, le dual est A donné à l’avance B, et les constructions naturelles aux Banach permettent d’interpréter facilement les constructions multiplicatives et additives. Observons au passage que la différence E & F/E ⊕ F est rendue au moyen des normes `∞ /`1 qui peuvent toutes deux équiper la somme directe algébrique. Le point d’exclamation est interprété à partir de l’implication intuitionniste E ⇒ F , qui est l’espace des fonctions analytiques de la boule unité ouverte de E dans F , équipé de la norme `∞ . Tout se passe bien encore, à ceci près qu’on ne peut toujours pas contourner le problème d’uniformité sur lequel avait buté Scott : les fonctions analytiques de norme 1 envoient la boule ouverte de E dans la boule fermée de F , et donc ne se composent pas. Qu’à cela ne tienne, au lieu de former f ◦ g, on formera f ◦ λg, avec |λ| < 1, ce qui correspond à une légère modification du point d’exclamation. A ce prix on obtient la première sémantique logique continue. 3.5.6 L’invariant scalaire J’ai alors un peu avancé dans la recherche de l’invariant scalaire du calcul, en supposant qu’il y en ait un. Pour donner une idée, la clique < u, v > du Par-monoïde P est un tel invariant, dont le seul défaut est d’être à valeurs dans un objet sacrément abstrait, alors qu’on voudrait un réel ou un complexe. Si on se restreint à des Hilbert de dimension finie, on obtient deux invariants scalaires : I Si U et V sont des opérateurs traités dans l’esprit de la sémantique dénotationnelle (article [50]), le scalaire T r(U V ). I Si u et v sont traités dans l’esprit de la géométrie de l’interaction, le scalaire det(1 − uv). Bien entendu, il ne peut s’agir que du même invariant, dans des incarnations différentes. Ce qui impose pratiquement la relation suivante entre les deux types d’interprétation : le passage au dénotationnel, c’est le foncteur A algèbre extérieure B autrement dit on peut définir à partir de u sa dénotation U = Λ(iu), ce qui est cohérent avec le fait que T r(Λ(−uv)) = det(1 − uv). Ensuite vient le problème du passage en dimension infinie, i.e. du point d’exclamation. A ce moment-là on perd trace de la trace, et on se retrouve face au problème déjà rencontré dans [50] : dans cet article on avait résolu la question en multipliant par un scalaire |λ| < 1 ; on peut toujours le faire ici (et on forme alors des opérateurs à trace). Tout ça c’est du bricolage ; en l’absence de perspective claire, je me suis rabattu sur la ludique. Ce n’est qu’en 2005 que je me suis repenché sur la question, précisément dans le cadre des algèbres de von Neumann finies (de type II1 ), où la notion de déterminant prend tout son sens, voir infra. 3.6 3.6.1 1997-2001 La signification des règles logiques J’ai mis à profit l’ambiance quasi-monastique de la Chartreuse de Pontignano (Mars-Avril 1997), près de Sienne, pour opérer ce qui devrait être la percée décisive, citemeaning1,meaning2,locus. En fait je menais depuis 10 ans mon projet de dualité en m’acharnant sur 4 ou 5 cas très difficiles à traiter, qui montrent que les idées mises en œuvre ne sont pas assez fines. À la fin j’ai été amené à reconnaître qu’il s’agissait toujours d’un changement de polarité : donner à la notion de polarité la place principale en logique était donc la seule voie possible. Je m’y étais toujours refusé car la polarisation opère une certaine régression par rapport aux réseaux de démonstration. . . c’est vrai, mais la contre-partie est le déblocage de la situation. Concrètement il n’y avait plus d’obstacle 31 théorique à la réalisation de mon programme ; il ne restait que des problèmes techniques, ardus certes, mais plus du tout du même ordre. . . et d’ailleurs que l’article [53], qui réalise la plus grande partie du programme, traite un fragment logique (multiplicatif/additif) contenant tous les obstacles susmentionnés. La notion de polarité (dans un sens plus général que celui utilisé en 3.4.6) nous vient de JeanMarc Andreoli, à ce jour le seul producteur d’un logiciel basé sur la logique linéaire, mais aussi l’auteur d’une découverte remarquable, la focalisation, qu’il a faite dans le cadre de la recherche de démonstrations, mais qui fonctionne aussi dans le cadre de la transformation de démonstrations. La focalisation stipule qu’on peut diviser les opérations logiques en deux classes duales A positives, négatives B de façon à assurer une certaine A associativité B à l’intérieur de chaque classe (voir [51], annexe F). La distinction positif/négatif correspond aux notations adoptées en logique linéaire : les styles algébrique (e.g. ⊗) et logique (e.g. &) correspondant exactement à positif et négatif ! Ce hasard n’en est pas un, car ces deux styles de notations avaient été choisis de façon à mémoriser des isomorphismes remarquables (e.g. ⊗ distribue sur ⊕ mais pas sur ` ou &), et la cause profonde de ces isomorphismes, c’est la focalisation. . . La focalisation peut se voir d’un point de vue temporel A Un paquet d’opérations logiques de même polarité se comporte comme une seule opération B : autrement dit, La scansion du temps en logique, c’est l’alternance des polarités. 3.6.2 Desseins et comportements Les résultats de [53] peuvent se résumer ainsi : d’abord on définit des Lieux : Il s’agit d’adresses ξ, ξ 0 , . . . (correspondant aux emplacements des sous-formules d’une formule donnée), que l’on peut voir comme un arbre de suites finies. Desseins : Il s’agit —modulo focalisation— de ce qu’il reste d’une démonstration formelle quand on a oublié la syntaxe (formules) et qu’on ne se rappelle plus que les lieux. Un dessein D a une base, formée d’un lieu et d’une polarité, soit − ξ pour un dessein positif de base ξ, ξ − pour un dessein négatif de base ξ. Orthogonalité : Deux desseins D, E de bases opposées forment un réseau, lequel a une forme normale D | E , qui ne peut prendre que deux valeurs, t (convergence) et Ω (divergence). L’orthogonalité D⊥E correspond à la convergence. Comportements : Un comportement c’est une ensemble de desseins d’une base donnée égal à son biorthogonal. C’est la notion abstraite, hors syntaxe, de formule logique. A chaque formule logique A on peut associer un comportement A, et à chaque démonstration π de A, on peut associer un dessein π ∈ A. On démontre deux théorèmes (pour la logique propositionnelle MALL2 (certains termes sont expliqués plus bas). Théorème 18 (Correction) Le dessein π ∈ A est gagnant ; il est de plus incarné quand A est de classe Π1 . Théorème 19 (Complétude pleine) Si A est de classe Π1 et D ∈ A est gagnant et incarné, alors D = π pour une certaine démonstration π de A. La notion d’incarnation ne joue qu’un rôle mineur dans ces théorèmes, aussi je me contenterai d’expliquer les autres termes : 32 Classe Π1 : Les formules sont quantifiées au second ordre, et classe Π1 signifie que la quantification est universelle. La restriction à cette classe correspond au théorème de complétude/d’incomplétude de Gödel et est strictement nécessaire. Intuitivement Π1 correspond à la classe arithmétique Σ01 . Gagnant : Tout est basé sur une notion d’orthogonalité. Il est donc nécessaire —par horreur du vide— d’avoir suffisamment de desseins, ce qui n’est possible que si l’on admet des A règles incorrectes B ou paralogismes dont le prototype est le démon. Grâce au démon, il y a un dessein de base donnée Dai orthogonal à tout le monde. . . Les conditions de gain permettent d’éliminer ces desseins A illogiques B qui sont pourtant essentiels dans la construction. 3.6.3 Syntaxe contre sémantique Ces résultats sont formulés en termes relativement classiques, puisque complétude et correction renvoient à l’adéquation entre syntaxe et sémantique. Or il se trouve que cette distinction devient obsolète. En effet, quand deux desseins D, E sont orthogonaux, on peut décider d’en voir un comme A preuve B, l’autre comme A modèle B, l’orthogonalité voulant précisément dire qu’ils se correspondent. Si E est un ensemble de desseins de base donnée —par exemple l’ensemble des desseins correspondant aux démonstrations d’une formule donnée—, son orthogonal est donc l’ensemble des A modèles B et le bi-orthogonal l’ensemble de ce qui est A validé B par tous les modèles. Il en résulte que la complétude peut s’énoncer de façon purement interne, à savoir E = E⊥⊥ . De fait le théorème de complétude pleine est démontré comme corollaire de résultats de complétude interne, par exemple le suivant : Théorème 20 (Propriété de disjonction) Si G, H sont des comportements positifs disjoints, i.e., si G ∩ H = {Dai}, alors (G ∪ H)⊥⊥ = G ∪ H. À la fin, l’espace ludique entre syntaxe et sémantique n’est rien de plus qu’une syntaxe étendue (par les paralogismes) et épurée, ce que j’ai résumé dans la phrase : Au fond la syntaxe ne réfère qu’à elle-même qui prend à contre-pied la tradition logique du XXième siècle, en particulier le Tarskisme, cette Lapalissade logique. Ce slogan pourrait facilement prêter flanc à des interprétations excessives : en réalité la syntaxe n’est qu’apparemment interprétée par elle-même, puisque la synthèse la reconstruit sans la présupposer (les démonstrations, correctes ou non, sont en bijection avec les desseins, qui ne présupposent en aucune façon la logique). On peut donner une deuxième version, moins provoquante, de la même chose : La signification des règles logiques est cachée dans la structure géométrique des règles elles-mêmes. 3.6.4 Phénomènes locatifs Pour comprendre l’opposition spirituel/locatif, considérons la notion de somme disjointe d’ensembles, X + Y = X × {0} ∪ Y × {1}. Elle permet de socialiser X, Y à isomorphisme près, et induit des propriétés remarquables comme l’égalité cardinale ](X + Y ) = ](X) + ](Y ) mais cette notion n’est ni associative, ni commutative et n’admet pas d’élément neutre, à moins que l’on ne redéfinisse ces concepts à isomorphisme près, ce qui fut en son temps un acquis 33 non-trivial de la théorie des catégories. Mais si on définit les A délocalisations B φ(X) = X × {0}, ψ(X) = X × {1}, on voit que X + Y = φ(X) ∪ ψ(Y ), i.e. que la somme se réduit, modulo délocalisation à l’union. . . laquelle union est vraiment associative, commutative etc., mais par contre socialise de façon hasardeuse : ainsi elle ne vérifie que l’inégalité ](X ∪ Y ) ≤ ](X) + ](Y ) La somme est spirituelle, alors que l’union est locative ; on doit constater que si la somme est plus utile dans la plupart des constructions, l’union est plus primitive, plus essentielle. Il se passe la même chose avec la notion de produit d’ensembles ; la notion usuelle qui vérifie l’égalité cardinale ](X × Y ) = ](X).](Y ) n’est associative, etc. qu’à isomorphisme canonique près. Il existe pourtant un A produit locatif B, i.e. X • Y = {x ∪ y; x ∈ X, y ∈ Y }, qui est vraiment associatif, commutatif, d’élément neutre {∅}, mais qui ne vérifie que l’inégalité ](X • Y ) ≤ ](X).](Y ) On peut définir le produit usuel (ou plutôt un produit, mais on s’en moque, le spirituel est à isomorphisme près) au moyen de φ(X) • ψ(Y ). Passons maintenant à la ludique, et plus précisément aux connecteurs additifs duaux ⊕ et &. En sémantique cohérente (p. 18), les additifs sont interprétés comme des sommes disjointes de graphes, ce qui suppose une délocalisation. En ludique, la délocalisation fait toujours sens, et on peut définir des délocalisations (toujours notées φ, ψ) telles que, si D, D0 , E sont des desseins respectivement positif, positif et négatif, on ait 1. D⊥φ(E) ⇔ ∃D0 ⊥E D = φ(D0 ) 2. D⊥ψ(E) ⇔ ∃D0 ⊥E D = ψ(D0 ) 3. φ(D) = ψ(D0 ) ⇔ D = D0 = Dai L’item 3 exprime que A φ, ψ sont (presque) disjoints B : en effet, comme φ(Dai) = ψ(Dai) = Dai, on ne peut pas faire mieux. Rappelons que Dai est le démon, ce dessein orthogonal à tout le monde, qui n’est là que pour remplir l’espace logique. Examinons maintenant la disjonction de comportements positifs, i.e. formés de desseins positifs. La notion la plus naturelle c’est bien sûr G ∪ H, qu’il faut biorthogonaliser pour obtenir un comportement. Evidemment (G ∪ H)⊥⊥ c’est à peu près n’importe quoi, et on ne peut rien dire sans hypothèse sur les localisations ; par contre ce connecteur locatif est vraiment associatif, commutatif etc. Une opération moins belle, mais plus contrôlable est G⊕H = (φ(G)∪ψ(H))⊥⊥ . Rappelons que G ⊕ H = φ(G)⊥⊥ ∪ ψ(H)⊥⊥ = φ(G) ∪ ψ(H), c’est un de nos théorème de complétude interne. Dualement, la conjonction de comportements négatifs peut s’exprimer par l’intersection, un connecteur locatif pas si nouveau que ça, puisqu’il correspond à la théorie du A typage intersection B développée essentiellement à Turin (mais qu’on n’a jamais su intégrer dans un cadre logique). Pour obtenir un connecteur spirituel (la conjonction additive &), il faut délocaliser. Ici une chose essentielle se passe, à savoir qu’une intersection délocalisée est (vue de la bonne façon) un produit cartésien. Rentrons dans les détails, ça en vaut la peine. . . Le théorème de séparation énonce qu’un dessein est déterminé par son orthogonal, comme il se doit. Cela dit, quand un dessein D est vu à l’intérieur d’un comportement G, il n’y a plus qu’une partie de ce dessein qui importe, on la note |D|G , c’est l’incarnation de D dans G dont l’existence est assurée par un autre théorème fondamental de la ludique, le théorème de stabilité. 34 Dans le cas d’une intersection délocalisée, que se passe-t-il au niveau des incarnations ? C’est très simple, comme G & H est l’orthogonal de l’union φ(G⊥ ) ∪ ψ(H⊥ ), A tout se passe B dans image de φ ou dans l’image de ψ : l’incarnation de D dans G & H est l’union de ses incarnations respectives dans φ(G) et ψ(H), soit |G & H| = |ψ(G)| • |ψ(H)| ; on retrouve ici le A produit cartésien locatif B. La formule précédente s’écrit encore, de façon plus spectaculaire, mais moins informative Théorème 21 |G & H| ' |G| × |H| c’est ce que nous avons appelé le mystère de l’incarnation. Les deux intuitions fondamentale quant à la conjonction additive (intersection et produit cartésien) coincident ! Si l’on définit la vérité d’un comportement par la présence d’un dessein gagnant (et la fausseté par la vérité de l’orthogonal), on voit facilement que la conjonction locative viole les tables de vérité classique dans un sens : G, H peuvent être vrais alors que G ∩ H est faux. Mais ça ne peut pas aller plus loin. On a une interférence plus ouverte dans le cas de la version locative de la conjonction multiplicative : G, H peuvent être vrais alors que G H est faux, et G, H peuvent être faux alors que G H est vrai. Le problème de l’incomplétude se trouve renouvelé de façon fondamentale par la ludique. Rappelons que le théorème de Gödel n’est jamais que la nième variante du résultat bien connu de Cantor A les réels ne sont pas dénombrables B. C’est dire que l’incomplétude Gödélienne est de nature énumérative, et donc un peu artificielle. Or l’examen des formules ludiques fait apparaître la possibilité d’une incomplétude plus naturelle, liée à l’impossibilité de calculer le biorthogonal d’une union, même finie. J’ai cherché un exemple simple et j’ai trouvé : Théorème 22 Sous des hypothèses spirituelles appropriées (qui correspondent à l’utilisation standard de la logique), tout comportement est égal à sa forme prénexe du second ordre. Il s’agit d’un pavé dans la mare, car les formes prénexes n’existent pas dans le monde constructif, et d’ailleurs les sémantiques A Tarskiennes B les réfutent. Pourquoi cette nouveauté qui devrait induire une simplification essentielle ? Tout simplement parce que la sémantique habituelle ignore le fait que la quantification est forcément locative (on ne peut pas délocaliser, il y a trop de monde et pas assez de lieux) et ne peut en aucune façon se gérer comme une A super-conjonction B, qui correspond à l’idée de copies indépendantes. Il y a deux possibilités : I Soit il suffit de renforcer les règles de la quantification et il ne reste plus que l’incomplétude Gödélienne. Dans ce cas on aura gagné un outil technique incomparable. I Soit c’est fondamentalement impossible, car il y a un manque fondamental. C’est de loin la possibilité la plus fascinante. 3.7 3.7.1 2002-2006 Un tournant méthodologique Autour de l’an 2000, parallèlement à la longue mise au point de la ludique, j’écrivais une sorte de dictionnaire de 100 pages, qui forme la seconde partie de l’article [53]. À l’origine, il s’agissait d’expliciter mon point de vue en relation avec la tradition logique de la théorie de démonstartion, donc une œuvre à portée surtout pédagogique. L’idée était de faire un texte plutôt amusant, avec des images saisissantes, mais aussi un texte très rigoureux, i.e., une argmentation convaincante. Beaucoup d’articles ont-ils ainsi été récrits plusieurs fois, tout simplement du fait que les nouveautés techniques introduites simultanément dans la première partie amenaient un subtil changement de point de vue. 35 C’est ainsi qu’à la fin de ce travail, j’ai compris qu’il était possible de parler à nouveau de cette activité complètement sclérosée, les fondements. . . alors que mon originalité au sein de la théorie de la démonstration avait toujours consisté à refuser catégoriquement tout A fondamentalisme B (les démonstrations de cohérence et autres balivernes). Et donc, l’article de survol [54], qui ne devait à l’origine n’être qu’un résumé de [53], propose un objectif fondationnel clair et ambitieux, la déréalisation des entiers naturels. En d’autres termes, revenir sur la problème de l’infini, celui auquel s’attaquait Hilbert vers 1925, mais à l’aide de méthodes modernes, venant en particulier de la ludique. Il est à noter que la réflexion au sein du groupe LIGC, voir supra, a été un puissant accélérateur du tournant méthodologique, comme quoi l’épistémologie peut être féconde quand elle sort de sa sclérose. Mais pas uniquement, il y avait aussi, de plus en plus en plus marquée, l’influence du programme déréaliste de Connes, la géométrie non-commutative, qui suggère un au-delà de la théorie des ensembles. En résumé, toutes ces considérations m’ont amené au programme suivant : Interpréter la logique dans les algèbres d’opérateurs. Á vrai dire, ma géométrie de l’interaction (GdI) des années 1987-94 réalisait déjà ce programme, dans le sens qu’à toute démonstration était associée un opérateur, et que l’élimination des coupures —l’opération centrale de la logique— correspondait à la solution d’une équation linéaire (equation de rétroaction). Le succès de cette première GdI fut surtout d’établir la pertinence d’une approche a priori hardie. Mais cela restait un peu superficiel, car j’avais été amené à utiliser des particularités inhérentes au langage, par exemple à distinguer une base particulière d’un Hilbert. . . ce qui est mauvais signe, en particulier, pas question d’effets quantiques. 3.7.2 Espaces cohérents quantiques Car je voulais introduire un aspect quantique dans la logique, en prenant à rebrousse-poil le point de vue de la défunte A logique B quantique, dont le but avoué était de punir la physique de faire des erreurs de logique. En d’autres termes, au lieu d’une interprétation logique du quantique, je cherchais une interprétation quantique de la logique. Ce n’est qu’en 2002 que j’ai brutalement compris comment faire, et remplacer mes espaces cohérents par une version quantique, voir [55]. Pour cela on observe qu’on peut définir les espaces cohérents au moyen de la mise en dualité suivante : deux sous-ensembles a, b du même X sont polaires quand leur intersection a au plus un point. On peut caractériser les espaces cohérents de support X comme les ensembles de parties de X égaux à leur bipolaire. Sous cette forme, la notion se laisse facilement généraliser en espaces cohérents probabilistes : il suffit de remplacer les sous ensembles par des fonctions du support P (discret) à valeurs dans [0, 1], la polarité étant donnée par f (x)g(x) ≤ 1. La version quantique consiste à prendre pour support X un Hilbert (de dimension finie), le rôle des ensembles étant joué par les hermitiens, pas forcément positifs. La mise en dualité se faisant au moyen de 0 ≤ Tr(fg) ≤ 1. En fait un ecq (espace cohérent quantique) est equipé d’une semi-norme (pouvant être infinie) ainsi que d’une relation d’ordre (ne coincidant pas forcément avec l’ordre usuel des hermitiens). Ce qui nous intéresse ce sont les hermitiens A positifs B et de A norme B au plus 1. Ceci généralise les espaces cohérents usuels et probabilistes. La logique linéaire s’interpréte naturellement dans les ecq, en fait on ne voit guère la différence avec le cas de base, non quantique. Sauf que l’axiome d’identié de la logique (C ` C) est susceptible de deux interprétations différentes, celle venant de la tradition, et une autre —que le cas A commutatif B ne différenciait pas. Concrètement, prenons l’implication entre A ⊕ B et A ⊕ B, on a le choix entre : Commutatif : la fonction qui envoie A sur A, B sur B. Non-commutatif : la fonction qui envoie n’importe quoi sur lui-même. 36 Dans le monde usuel, commutatif, ces deux fonctions sont indiscernables. Dans un monde quantique, elles le deviennent, en effet l’argument de la fonction peut s’écrire sous-forme de blocs par rapport à A, B. Le monde commutatif ne s’occupe que des blocs diagonaux, ensemblistes. Concrètement, la première fonction, appliquée à une matrice par blocs A tue B les deux blocs non-diagonaux, ce que ne fait pas la seconde. Cette diagonalisation A à la hussarde B opérée par la première fonction correspond au processus de mesure dans le formalisme des A matrices de densité B de von Neumann. Logiquement, la nuance entre les deux existe, elle est faite par le calcul (la première fonction est plus coûteuse) mais impossible à expliquer par les entrées/sorties, vu que dans la cas logique, les entrées seront diagonales. Cette nuance possède un nom en logique, c’est la η-expansion, variante fonctionnelle de l’axiome d’extensionalité. Pour nous résumer : L’extensionalité, c’est la réduction du paquet d’ondes. Les résultats de [55] sont encourageants et originaux. Cela dit, la problématique est limitée, car on ne peut pas passer en dimension infinie : on a besoin de la trace, i.e., d’une algèbre de type II1 . Malheureusement, la fonction identique dont venons de parler n’est plus représentable. 3.7.3 L’équation de rétroaction Encouragé par ce premier succès, je suis revenu à la GdI [56], avec une méthodologie différente : étudier en général l’équation de rétroaction, hors de toute hypothèse de nature logique. De cette façon je n’aurai pas les mains liées par des a priori de nature logique, quand je passerai à la remise en cause des A fondements B. L’équation de rétroaction suppose la donnée de (H, h, σ) où H est un espace de Hilbert, h est un hermitien de norme au plus 1, et la rétroaction σ est une symétrie partielle. Comme σ 2 est le projecteur orthogonal d’un espace S, il induit une décomposition de l’espace en somme directe. L’équation s’énonce h(x ⊕ y) = x0 ⊕ σ(y) Etant donné x, on cherche x0 (et accessoirement y), et l’opérateur σJhK sur R qui donne x0 en fonction de x est la forme normale. L’équation de rétrocation n’est pas forcément soluble stricto sensu. C’est pourquoi la forme normale est construite en trois étapes. 1. Le cas inversible est celui où l’équation est soluble par inversion d’un opérateur. On peut démontrer que la solution est croissante en h, et même commute aux sups et infs filtrants. 2. Par imitation de l’intégrale de Lebesgue, le cas inversible est étendu au cas semi-inversible inférieurement (suprémum d’une famille filtrante d’inversibles). Par contre, contrairement à ce qui se passe avec l’intégrale, cette extension ne commute pas aux infs et là s’arrête l’imitation. 3. Le cas général consiste à découper la rétroaction σ en différence σ = π − ν de deux projecteurs, et à se ramener au cas où σ est un projecteur. Dans ce cas particulier, le cas précédent (s.i.i.) suffit. De plus, on peut utiliser des racines carrées d’hermitiens positifs et obtenir une formule explicite ; on peut faire la même chose dans le cas de l’opposé d’un projecteur. On conclut en A recollant les deux cas B, i.e., en définissant σJhK := πJ(−ν)JhKK = (−ν)JπJhKK . Il est à remarquer que l’équation d’associativité (σ + τ )JhK = σJτ JhKK 37 essentielle dans la dernière partie de la construction, n’est rien d’autre que la version GdI de la propriété de Church-Rosser des logiciens, i.e., la compositionalité de la GdI. Mais le découpage de σ en différence de deux projecteurs n’a pas de sens logique, il s’agit donc d’une technique logique revisitée dans un cadre non-commutatif. 3.8 3.8.1 2007-2010 Le facteur hyperfini L’équation de rétroaction est donc A résolue B en toute généralité. La solution utilise les opérations de l’algèbre ainsi que des limites en topologie faible (ou forte), en d’autres termes elle est valide dans toute algèbre de von Neumann. Mon travail actuel (2006) (chapitres 20, 21 de [63]) consiste à réinterpréter la logique dans une algèbre de von Neumann de type autre que I, plus précisément le facteur hyperfini de type II1 . Le facteur hyperfini est doublement fini : I La finitude (existence d’une trace, d’une dimension), empêche de créer des copies fraîches d’objets déjà existants. I L’hyperfinitude (approximabilité par des algèbres de matrices) empêche de créer de nouvelles A qualités B, i.e., des opérateurs commutant avec ce que l’on a déjà. Il s’agit d’impossibilités internes ; du point de vue externe, le facteur hyperfini dispose d’une quantité impressionnante d’automorphismes. Ce qui permet de renouveler l’idée de finitisme : contrairement à sa version ancienne, basée sur la combinatoire prétendument innocente des entiers, on a ici un finitisme non ensembliste, basé sur la distinction entre automorphisme interne et automorphisme externe. 3.8.2 La vérité subjective L’interprétation de la logique dans R repose sur une dualité entre hermitiens de norme ≤ 1 : det(I − uv) 6= 1 (et r(uv) < 1). Les énoncés logiques deviennent alors des conduites, i.e., des sous-ensembles C ⊂ R égaux à leur bipolaire. Une question ouverte depuis toujours en logique est celle de la vérité ; M. de la Palice, et à sa suite Tarski, l’a définie comme la qualité de ce qui est vrai. Dans le cadre du facteur hyperfini, la condition peut être posée ainsi : si det(I −uv) 6= 1, peut-on, dans certains cas, attribuer la valeur 6= 1 du déterminant à l’un des deux partenaires u, v ? Il n’y a pas de réponse objective, par contre on peut répondre par rapport à un point de vue, i.e., une sous-algèbre commutative maximale P ⊂ R : si u, v sont des isométries partielles hermitiennes telles que uPu ⊂ P, vPv ⊂ P, et si r(uv) < 1, alors uv est nilpotent et donc det(I − uv) = 1. On peut donc définir la A vérité B d’une conduite C ⊂ R comme l’existence d’une isométrie partielle hermitienne u ∈ C telle que uPu ⊂ P ; il s’agit d’une notion subjective, relative à un point de vue. Le théorème de cohérence subjective dit que la vérité subjective est stable par conséquence logique. Ce qui mène à ce paradoxe : un théorème A peut être subjectivement faux par rapport à un point de vue tordu. Cela ne relativise en rien la valeur du théorème A, car la compréhension de l’énoncé suppose une organisation, un repérage du monde, ce qui se fait au moyen d’une base ou, plus généralement, d’une sous-algèbre commutative. 3.8.3 Les entiers non commutatifs La tradition logique interpréte les entiers comme les fonctionnelles d’itération : si f ∈ X ⇒ X, Φ(f ) = f n ∈ X ⇒ X. Cette dépendance, même si f est une fonction linéaire, n’est pas linéaire : il faut, pour composer f avec elle-même, la pérenniser. 38 Dans le facteur hyperfini R, la pérennisation prend la forme d’une puissance tensorielle RI croisée par un groupe G de bijections de I : I o G. Il n’y a pas de choix universel, car le groupe G doit être moyennable. Ce qui fait que l’on obtient un continuum de notions d’entiers, paramétrées par ces groupes, et donc la déréalisation espérée des entiers naturels. Il faudrait bien évidemment exploiter ce qui n’est, pour l’instant, qu’une idée prometteuse. En particulier, étudier la complexité algorithmique des fonctions définies par GdI sur les différentes variétés d’entiers. Dans cette optique, il semble inévitable d’étudier les sous-facteurs de R du point de vue de la complexité algorithmique. [58] (voir infra) est certainement un jalon dans cette direction. 3.8.4 GdI dans le facteur hyperfini Plus récemment (2008), j’ai repris la GdI dans le facteur hyperfini, voir l’article [57], paru dans le volume de TCS en mon honneur. Fondamentalement, l’idée de dialecte, introduite dans [43] (la communication sans compréhension) reprend brillament du service. Le dialecte est en fait la ressource : sans compréhension, on ne peut pas le dupliquer. Autrement dit, la pérennité devient l’absence de dialecte, et la pérennisation, un isomorphisme faisant passer la partie spirituelle (le dialecte) dans le pôt commun locatif. Remarquer que les logiques allégées apparaissent toutes deux, simultanément, comme gestion naturelle de l’exponentielle. Autrement dit, le facteur hyperfini produit effectivement de la logique allégée. Les deux variantes LLL,ELL ne sont dues qu’à des morphologies différentes (on s’intéresse à des genres différents d’énoncés). 3.8.5 Normativité et LOGSPACE Dans la continuité de ces travaux, mentionnons [58]. Les entiers naturels ne sont uniques qu’à isomorphisme près, car ils ont une composante dialectale correspondant aux instructions de duplication. Du point de vue de la GdI où les entiers sont A observés B au moyen de l’équation de rétroaction par interaction avec des A anti-entiers B, il se pourrait très bien que le résultat Φ | N de l’A observation B de l’entier représenté par N au moyen de l’opérateur Φ dépende de la représentation N . Il faut donc trouver un moyen d’assurer l’objectivité de l’observation ; le plus simple est de demander que Φ et N évoluent dans certaines sous-algèbres spécifiques du facteur hyperfini (ce que j’appelle une paire normative (I, O)). La paire normative la plus naturelle est basée sur un produit en couronne. On s’aperçoit alors que la restriction à cette paire normative correspond à une restriction algorithmique bien connue : si la matrice 6 × 6 de Φ est à coefficients dans O et celle de la représentation N des entiers binaires à coefficients dans I, alors le le calcul de Φ | N se fait en espace logarithmique. Réciproquement, la complexité LOGSPACE peut être caractérisée par ce choix de sous-algèbres. 3.9 Depuis 2011 : la syntaxe transcendantale Les activités du groupe LIGC m’ont permis de renouer le contact perdu avec la philosophie, en particulier avec les idées de Kant et Hegel. 3.9.1 Conditions de possibilité L’explication sémantique courante veut que le langage décrive le réel ; comme la première tâche du langage est de formater le réel, on a le droit d’émettre des doutes sur cette affirmation simpliste. En fait, ce que l’on appelle sémantique n’est que du langage fétichisé — après tout, la sémantique reste abstraite — dont la prétendue A réalité B s’oppose à l’analyse du langage et aux vraies questions qui se posent : par exemple, comment est-il possible de porter un jugement sur 39 quoi que soit et, surtout, de croire à ce jugement ? Et, dans cette croyance, quelle est la partie de certitude, quelle est la partie conjecturale liée a l’expérience, au bon sens, etc. ? Mon ultime programme scientifique est donc l’étude des conditions de possibilité du langage, autrement dit, en termes kantiens, la syntaxe transcendantale. Il s’agit de déplacer le mobilier logique de façon à évacuer la sémantique, i.e., l’idée que le langage parle d’un A quelque chose d’autre B qui se défile toujours. Une telle entreprise aurait été vouée à l’échec au temps de ma jeunesse ; mais les progrès réalisés — tout spécialement, les réseaux de démonstration —, la rendent tout à fait viable. 3.9.2 Fondement contradictoire L’analyse des réseaux de démonstration faisait apparaître les conditions de correction pour A comme des espèces de démonstration de A⊥ , voir 3.4.5. Ce qui correspond à l’idée hégelienne de fondement contradictoire. Cette géniale intuition de Hegel a été décriée pour des raisons de cohérence logique ; ce qui est idiot, car les A démonstrations B à l’œuvre dans les conditions de correction n’ont qu’une valeur normative, déontique : elles ne réfutent pas (ce qui serait, effectivement, contradictoire), elles récusent. Cela dit, le fondement contradictoire, tel qu’il a été développé en GdI ou en ludique, est problématique du point de vue kantien : s’il explique bien le choix des règles par la dialectique des interdictions mutuelles, il échoue à expliquer le phénomène de conviction procuré par un système formel. Autrement dit, mes travaux précédents donnent une explication satisfaisante de la morphologie (le choix des règles, etc.), permettent de définir ce qu’est une démonstration, mais ne donnent aucun critère permettant d’en reconnaître une seule ! Sauf dans le cas multiplicatif, base de la GdI et de la ludique, mais peut-être trop simple. La conviction, sur des bases dialectiques, ne peut résulter que d’une hypothèse de finitude : la démonstration que nous cherchons est dans l’orthogonal d’un ensemble fini ; ce qui est vrai dans le cas multiplicatif. On peut alors parler d’apodictique, i.e., de certitude dont on ne peut pas douter raisonnablement. Au-delà des multiplicatifs, ceci devient rapidement faux : si une démonstration doit passer une infinité de tests — lesquels tests sont de plus testables ! — on ne conclura jamais. Il faut donc modifier le paradigme pour assurer cette finitude du pré-orthogonal. Pour trouver les conditions d’affirmation d’une démonstration, je suis donc revenu aux réseaux de démonstration, mais dans le cas quantifié. On obtient une image assez différente de la dialectique, du fondement contradictoire. Dans la version courante, on se donne un ensemble de permutations (ou d’opérateurs) et l’on cherche une permutation (un opérateur) A orthogonal B à cet ensemble. Dans le cas quantifié, la réponse ne consiste pas seulement en une permuation, mais aussi en la donnée d’une ensemble auxiliaire de permutations, un A gabarit B, modifiant l’ensemble de départ. L’orthogonalité se définit par rapport à cet ensemble modifié et c’est ainsi que la finitude est préservée. Ceci définit un niveau de base, A tectonique B, source de confiance absolue. Le seul problème est que ce niveau n’est pas déductif ; en effet, les gabarits doivent vérifier des contraintes d’orthogonalité que l’on ne peut pas vérifier de façon finie. C’est ici, au niveau de la déductivité (ou encore de la cohérence), que s’introduisent les phénomènes bien connus d’incomplétude. Seules certaines démonstrations tectoniques sont correctes et il n’y a aucun moyen de savoir lesquelles le sont. Ce choix est du ressort de l’arbitraire épidictique13 , un arbitraire qui ne peut être analysé, puisque toute analyse serait circulaire. Autrement dit, on atteint ici les fondements absolus, indépassables. Les objections classiques (incomplétude) ne s’appliquent pas dans ce cas, car la tectonique a ménagé un espace pour le doute raisonnable. Ce mot, qui rime avec apodictique, remplace A axiomatique B, usé : il suggère une certitude entachée d’un certain doute. 13 40 Mes articles les plus récents [43, 46, 47, 48, 49, 50, 51, 52, 53, 55, 56, 81, 83, 84, 85, 57, 58] sont accessibles à l’URL http://iml.univ-mrs.fr/~girard/Articles.html Mon livre récent [62, 63] a été publié chez Hermann : tome 1 296 pp., tome 2 300 pp. ; sa traduction [64] (550 pp.) vient d’être publiée par la Société Mathématique Européenne. Références [1] Une extension de l’interprétation fonctionnelle de Gödel à l’analyse et son application à l’élimination des coupures dans l’analyse et la théorie des types. In Fenstad, editor, Proceedings of the 2nd Scandinavian Logic Symposium, pages 63–92, Amsterdam, 1971. North-Holland. [2] Quelques résultats sur les interprétations fonctionnelles. In Mathias and Rogers, editors, Cambridge Summer School in Mathematical Logic, pages 232–252, Heidelberg, 1973. Springer Verlag. Lecture Notes in Mathematics 337. [3] Interprétation fonctionnelle et élimination des coupures de l’arithmétique d’ordre supérieur. Thèse de Doctorat d’Etat, Université Paris VII, Paris, juin 1972. [4] Three-valued logic and cut-elimination : the actual meaning of Takeuti’s conjecture. Dissertationes Mathematicæ, 136 :1–49, 1976. [5] Functional interpretation and Kripke models. In Butts and Hintikka, editors, Logic, Foundations of Mathematics and Computability Theory, pages 33–58, Dordrecht, 1977. D. Reidel. [6] Functionals and ordinoids. In Colloque international de logique, pages 59–72, Paris, 1977. CNRS. Colloques internationaux du CNRS n◦ 249. [7] avec P. Päppinghaus. A result on implication of Σ1 sentences and its application to normal form theorems. Journal of Symbolic Logic, 46 :634–642, 1981. [8] Π12 -logic, part I : dilators. Annals of Mathematical Logic, 21 :75–219, 1981. [9] A survey of Π12 -logic. In Logic, Methodology and Philosophy of Science VI, pages 89–107, Amsterdam, 1982. North-Holland. [10] Proof-theoretic investigations of inductive definitions, part I. In Logic and algorithmic, pages 207–236, Genève, 1982. L’enseignement mathématique. Monographie n◦ 30. [11] Herbrand’s Theorem and proof-theory. In Stern, editor, Proceedings of the Herbrand Symposium, pages 29–38, Amsterdam, 1982. North-Holland. [12] avec J. Vauzeilles. Functors and ordinal notations I : A functorial construction of the Veblen hierarchy. Journal of Symbolic Logic, 49 :713–729, 1984. [13] avec J. Vauzeilles. Functors and ordinal notations II : A functorial construction of the Bachmann hierarchy. Journal of Symbolic Logic, 49 :1079–1114, 1984. [14] avec J.-P. Ressayre. Eléments de logique Π1n . In Recursion theory, pages 389–445, Providence, 1985. AMS. Proceedings of Symposia in Pure Mathematics n◦ 42. [15] avec D. Normann. Set recursion and Π12 -logic. Annals of Pure and applied logic, 28 :255– 287, 1985. [16] The Ω-rule. In Proceedings of the International Congress of Mathematicians, pages 307– 321, Warszawa, 1984. PWN. [17] avec J. Vauzeilles. Les premiers ordinaux récursivement inaccessible et Mahlo et la théorie des dilatateurs. Archiv für Mathematik und Logik Grundlagen, 24 :167–191, 1985. 41 [18] avec D. Normann. Embeddability of ptykes. Journal of Symbolic Logic, 57 :659–676, 1992. [19] Introduction to Π12 -logic. Synthèse, 62 :191–216, 1985. [20] The skeleton of a dilator. In Abrusci and Casari, editors, Logica e filosofia della scienza oggi, pages 35–49, Bologna, 1986. CLUEB. [21] avec M. Abrusci et J. van de Wiele. Some uses of dilators in combinatorial problems I. In Logic and Combinatorics, pages 25–53, Providence, 1987. em AMS. Proceedings of Symposia in Pure Mathematics n◦ 65. [22] avec M. Abrusci et J. van de Wiele. Some uses of dilators in combinatorial problems, part II : increasing F -sequences, F dilator, and inverse Goodstein sequences. Prepublication, Università di Siena, Siena, 1984. [23] Π12 -logic and related topics. In Atti degli incontri di logica matematica, pages 13–46, Siena, 1987. Università di Siena. [24] Normal functors, power series and λ-calculus. Annals of Pure and Applied logic, 37 :129–177, 1988. [25] Le λ-calcul du second ordre. Astérisque, 152-153 :173–186, 1987. Séminaire Bourbaki. [26] The system F of variable types, fifteen years later. Theoretical Computer Science, 45 :159–192, 1986. repris dans Logical Foundations of Functional Programming, AddisonWesley 1990. [27] Linear logic. Theoretical Computer Science, 50 :1–102, 1987. [28] Linear Logic and Parallelism. In Venturini-Zilli, editor, Mathematical models for the semantics of parallelism, pages 166–182, Heidelberg, 1987. Springer Verlag. Lecture Notes in Computer Science 337. [29] Multiplicatives. In Lolli, editor, Logic and computer science : new trends and applications, pages 11–34, Torino, 1988. Università di Torino. Rendiconti del seminario matematico dell’università e politecnico di Torino, special issue 1987. [30] avec Y. Lafont. Linear Logic and lazy computation. In Ehrig, Kowalski, Levi, and Montanari, editors, Proceedings of TAPSOFT 87, pages 52–66, Heidelberg, 1987. Springer Verlag. Lecture Notes in Computer Science 250. [31] Quantifiers in linear logic. In dalla Chiara and Galavotti, editors, Temi e prospettive della logica e della filosofia della scienza contemporanee, pages 95–130, Bologna, 1989. CLUEB. [32] Towards a geometry of interaction. In Categories in Computer Science and Logic, pages 69–108, Providence, 1989. AMS. Proceedings of Symposia in Pure Mathematics n◦ 92. [33] avec P. Freyd et A. Scedrov et P. Scott. Semantic parametricity in typed λ-calculus. In Logic and Computer Science 1988, pages 69–108, Los Alamitos, 1989. IEEE Computer Society Press. [34] Geometry of interaction I : interpretation of system F . In Ferro, Bonotto, Valentini, and Zanardo, editors, Logic Colloquium ’88, Amsterdam, 1989. North-Holland. [35] Geometry of Interaction II : deadlock-free algorithms. In Martin-Löf and Mints, editors, Proceedings of COLOG 88, pages 76–93, Heidelberg, 1990. Springer Verlag. Lecture Notes in Computer Science 417. [36] avec A. Scedrov et P. Scott. Bounded linear logic : a modular approach to polynomial time computability : extended abstract. In Buss and Scott, editors, Feasible mathematics, pages 195–209, Boston, 1990. Birkhäuser. 42 [37] avec A. Scedrov et P. Scott. Bounded linear logic : a modular approach to polynomial time computability. Theoretical Computer Science, 97 :1–66, 1992. [38] Introduction à la logique linéaire. In Courcelle, editor, Logique et informatique : une introduction, pages 229–256, Rocquencourt, 1991. INRIA. [39] avec A. Scedrov et P. Scott. Normal forms and cut-free proofs as natural transformations. In Moschovakis, editor, Logic from Computer Science, pages 217–242, Heidelberg, 1992. Springer Verlag. [40] Quantifiers in linear logic II. In Corsi and Sambin, editors, Nuovi problemi della logica e della filosofia della scienza, pages 79–90, Bologna, 1991. CLUEB. [41] A new constructive logic : classical logic. Mathematical structures in Computer Science, 1 :255–296, 1991. [42] On the unity of logic. Annals of Pure and Applied Logic, 59 :201–217, 1993. [43] Geometry of interaction III : accommodating the additives. In Girard, Lafont, and Regnier, editors, Advances in Linear Logic. Cambridge University Press, 1995. [44] Logic and exceptions : a few remarks. Journal of Logic in Computation, 2 :111–118, 1992. [45] Linear logic : a survey. In Bauer, Brauer, and Schwichtenberg, editors, Logic and Algebra of Specification, pages 63–112, Heidelberg, 1993. Springer Verlag. NATO series F94. [46] Linear logic, its syntax and semantics. In Girard, Lafont, and Regnier, editors, Advances in Linear Logic. Cambridge University Press, 1995. [47] Proof-nets : the parallel syntax for proof-theory. In Ursini and Agliano, editors, Logic and Algebra, New York, 1996. Marcel Dekker. [48] Light linear logic. Information and Computation, 143 :175–204, 1998. [49] On denotational completeness. Theoretical Computer Science, 227 :249–273, 1999. [50] Coherent Banach Spaces : a continuous denotational semantics. Theoretical Computer Science, 227 :275–297, 1999. [51] On the meaning of logical rules I : syntax vs. semantics. In U. Berger and H. Schwichtenberg, editors, Computational Logic, Heidelberg, 1999. Springer Verlag. NATO series F 165. [52] On the meaning of logical rules II : multiplicative/additive case. In R. Steinbrüggen F. L. Bauer, editor, Foundation of Secure Computation, Amsterdam, 2000. IOS Press. NATO series F 175. [53] Locus Solum. Mathematical Structures in Computer Science, 11 :301 – 506, 2001. [54] From foundations to ludics. Bulletin of Symbolic Logic, 9(2) :131 – 168, 2003. [55] Between logic and quantic : a tract. In Ruet, Ehrhard, Girard, and Scott, editors, Linear Logic in Computer Science, pages 346 – 381. Cambridge University Press, 2004. [56] Geometry of interaction IV : the feedback equation. In Stoltenberg-Hansen and Väänänen, editors, Logic Colloquium ’03, pages 76 – 117. ASL, 2006. [57] Geometry of interaction V : logic in the hyperfinite factor. Theoretical Computer Science, 412 :1860 – 1883, 2011. Girard’s Festschrift, eds. Ehrhard, Faggian and Laurent. [58] Normativity in logic. In Epistemology vs. Ontology, 2012. Springer. [59] Proof-theory and logical complexity I. Bibliopolis, Napoli, 1987. [60] Proof-theory and logical complexity II. North-Holland, Amsterdam, à paraître. 43 [61] avec Y. Lafont et P.Taylor. Proofs and types, volume 7 of Cambridge tracts in theoretical computer science. Cambridge University Press, Cambridge, 1990. [62] Le point aveugle, tome 1 : vers la perfection. Visions des Sciences. Hermann, Paris, 2006. 296 pp. [63] Le point aveugle, tome 2 : vers l’imperfection. Visions des Sciences. Hermann, Paris, 2007. 300 pp. [64] J.-Y. Girard. The Blind Spot : lectures on logic. European Mathematical Society, Zürich, 2011. 550 pp. [65] Sur le théorème d’incomplétude de Gödel. In Bouleau, editor, Cinq conférences sur l’indécidabilité, pages 25–48, Paris, 1983. Presses des Ponts & Chaussées. [66] Démonstration (théorie de la). In Encyclopædia Universalis, pages 1101–1105, Paris, 1984. Encyclopædia Universalis. [67] avec I. Reznikoff. Intuitionnisme. In Encyclopædia Universalis, pages 74–77, Paris, 1984. Encyclopædia Universalis. [68] Une théorie géométrique des ordinaux. Pour la Science, juillet 1985. repris dans Les mathématiques aujourd’hui, Belin 1986, pp. 97-108. [69] La logique linéaire. Pour la Science, 150 :74–85, avril 1990. [70] Le rasoir de Kreisel. l’Ane, juillet 1985. [71] La mouche dans la bouteille. l’Ane, octobre 1986. repris dans Logic Colloquium ’85, North-Holland 1987, pp. 9-12. [72] Sources et ressources de la théorie de la démonstration. l’Ane, octobre 1989. [73] L’idée d’incomplétude. Sciences et Avenir, 121, janvier 2000. [74] L’infini en logique : autour du concept d’entier. In Toraldo di Francia, editor, L’infinito nella scienza, pages 141–150, Roma, 1987. Enciclopedia italiana. [75] Théorie réductrice de la démonstration. In Storia del 20◦ secolo, Roma, 1994. Encyclopedia italiana. [76] Le champ du signe. In Le théorème de Gödel, pages 141–171, Paris, 1989. Le Seuil. repris sous le titre Il sogno del segno dans La prova di Gödel, Boringhieri 1992. [77] La logique au milieu du gué : logique naturelle et intelligence artificielle. In La machine de Turing, Paris, 1995. Le Seuil. [78] Logique et informatique : point de vue d’un logicien. étude, UNESCO, Paris, décembre 1986. [79] La logique comme science de l’interaction. étude, UNESCO, Paris, mars 1988. [80] alias Yann-Joachim Ringard. Mustard watches : an integrated approach to time and food. Prépublication, Université Paris VII, Paris, 1988. [81] Du pourquoi au comment : la théorie de la démonstration de 1950 à nos jours. In Jean-Paul PIER, editor, Developments of mathematics 1950-2000. Birkhauser, 2000. [82] (en tant qu’A éditeur B). Typed Lambda-Calculi and Applications. LNCS 1581. Springer, Heidelberg, 1999. Comptes-rendus de la conférence TLCA ’99. [83] Les fondements des mathématiques. In Yves Michaud, editor, Qu’est-ce que l’univers ?, pages 42 – 52, Paris, 2000. Odile Jacob. [84] La théorie de la démonstration : du Programme de Hilbert à la logique linéaire. In Charpentier, Habsieger, and Nikolski, editors, Leçons de mathématiques d’aujourd’hui, vol. 2, pages 37 – 100. Cassini, 2002. 44 [85] La logique comme géométrie du cognitif. In Joinet, editor, Comptes-Rendus de la table-ronde de la Sorbonne, Avril 2003. Presses de la Sorbonne, 2007. [86] De la syllogistique à l’iconoclasme. In Joinet and Tronçon, editors, Ouvrir la logique au monde, Paris, 2009. Hermann. 45