Habilitation à Diriger des Recherches Guy Boy
Transcription
Habilitation à Diriger des Recherches Guy Boy
Université Pierre et Marie Curie 4, Place Jussieu - 75252 Paris Cedex 05 Habilitation à Diriger des Recherches Synthèse de l'Activité Scientifique de Guy Boy METHODOLOGIES ET OUTILS POUR L'INTERACTION COGNITIVE HOMME-MACHINE Soutenue le lundi 29 juin 1992 devant la Commission d'Examen : MM. Georges Duvaut Mme. Joëlle Coutaz MM. Pierre Falzon Brian Gaines Jean-Gabriel Ganascia Yves Kodratoff Marc Pelegrin Président Examinateurs "You do not understand anything until you understand it in more than one way..." Marvin Minsky1. 1"Vous ne comprenez pas quelque chose tant que vous ne l'avez pas compris de différentes manières" Résumé L'analyse, la conception et l'évaluation des interactions entre l'Homme et la machine informatisée relève des sciences et de de l'ingénierie cognitives. Une première contribution de ce travail est la synthèse de diverses réponses à la question : faut-il modéliser l'opérateur humain ? Cette synthèse essaie de montrer la nécessité de coopération entre deux approches scientifiques : l'interaction Homme-machine et l'intelligence artificielle. Une seconde contribution de ce travail est la définition du concept de système d'assistance à l'opérateur (SAO). Ce concept est basé sur le modèle reconnaissance de situation et raisonnement analytique (RSRA). Nous montrons comment ce concept met en évidence l'exigence d'une contribution plus importante sur la notion de contexte et de connaissances contextualisées, et sur le partage des tâches cognitives entre l'Homme et la machine informatisée. Nous montrons que l'interaction Homme-machine doit étudier le compromis entre l'interface et les procédures d'opération. Nous présentons une représentation de ces procédures, appelée bloc de connaissances. La réalisation de quatre systèmes, MESSAGE, HORSES, SAOTS et CID ont permis de mettre en évidence l'intérêt du concept de SAO et du modèle RSRA. MESSAGE est un système d'aide à l'analyse et à la certification de cockpits d'avion de transport. HORSES est un système d'assistance au diagnostic de pannes. SAOTS est un système d'assistance à la télémanipulation et CID est un système hypertexte dont les liens sont incrémentalement contextualisés en fonction des interactions avec les utilisateurs. Abstract The analysis, design and evaluation of interactions between a human and a computerized machine is based on cognitive sciences and engineering. A first contribution of this work is the synthesis of various answers to the question: should we model the human operator? This synthesis tries to make explicit the need for a cooperation of two approaches: human-machine interaction and artificial intelligence. A second contribution of this work is the definition of the operator assistant system (OAS) concept. This concept is based on the situation recognition and analytical reasoning model (SRAR). We show how this concept makes explicit the need for a more important contribution on the notion of context and of contextualized knowledge, and on cognitive task sharing between a human and a computerized machine. We show that human-machine interaction has to study the compromise between the actual interface and operational procedures. We present a representation of these procedures, called bloc of knowledge. The development of four systems, MESSAGE, HORSES, SAOTS and CID allowed us to show the relevance of both OAS and SRAR concepts. MESSAGE is a system that helps in the analysis and certification of aircraft cockpit. HORSES is a fault diagnostic system. SAOTS is telemanipulation assistance system and CID is an hypertext system that has incrementally contextualized links as a function of users interactions. Mots Clés Acquisition de connaissances pour les systèmes à base de connaissances, interaction Homme-machine, ergonomie cognitive, systèmes d'assistance à l'opérateur, sciences et ingénierie cognitives, intelligence artificielle. Keywords Knowledge acquisition de connaissances for knowledge-based systems, human-machine interaction, cognitive ergonomics, operator assistance systems, cognitive sciences and engineering, artificial intelligence. Avant-Propos Les travaux présentés dans ce mémoire ont été effectués entre 1980 et 1992. L'objet de ces travaux a été de rechercher la cohérence et les points d'accord entre les différentes disciplines contribuant à ce que nous appelons : l'Ingénierie et les Sciences Cognitives. Le contact direct avec des applications du monde réel a permis de concrétiser une approche originale que nous avons appelée : Assistance à l'Opérateur. Ces travaux n'auraient pas été possibles sans une aide constante de l'Office National d'Etudes et de Recherches Aérospatiales, en particulier du Centre d'Etudes et de Recherches de Toulouse, et de la National Aeronautics and Space Administration (NASA), plus particulièrement du Ames Research Center. Je suis très reconnaissant à Monsieur Georges Duvaut, Directeur Scientifque Général de l'ONERA, Professeur à l'Université Pierre et Marie Curie à Paris et Rapporteur à l'Académie de Sciences, de l'honneur qu'il m'a fait en acceptant de preesider ce jury d'habilitation. Je remercie Joëlle Coutaz, Professeur à l'Université de Grenoble, pour la spontanéïté avec laquelle elle a accepté de faire un rapport sur mon travail, en dépit d'un emploi du temps très chargé. Je souhaite vivement que notre future coopération dans le domaine de l'interaction Homme-machine soit très fructueuse. Je remercie Jean-Gabriel Ganascia, Professeur à l'Université Pierre et Marie Curie à Paris, pour son aide et ses encouragements depuis le début de la concrétisation de cette habilitation. J'espère que ce travail trouvera une place en France où j'aimerais mettre en œuvre un certain nombre d'idées que nous partageons en acquisition de connaissances ainsi que sur une certaine théorie des modèles. Je remercie Yves Kodratoff, Directeur de Recherche au CNRS et Professeur à l'Université d'Orsay, pour l'honneur qu'il me fait en ayant accepté d'être rapporteur de ce travail. Nos chemins se sont souvent croisés pendant ces dernières années, en voilà un nouveau témoignage. Je souhaite que nous puissions continuer notre coopération déjà bien commencée. Je remercie Pierre Falzon, Professeur d'Ergonomie au Conservatoire National des Arts et Métiers, de siéger à ce jury pluridisciplinaire. Sa présence est très importante parcequ'elle témoigne de l'évolution de ce nouveau secteur scientifique : les sciences cognitives. Brian Gaines, Professeur à l'Université de Calgary (Canada) et chef de file de la communauté internationale de l'acquisition de connaissances, a énormement influencé mon travail. Il m'a toujours encouragé à présenter mes idées dans le domaine de l'acquisition des connaissances d'utilisation. Je le remercie d'avoir accepter de témoigner sur mon travail. J'exprime ici toute ma gratitude à Monsieur Marc Pelegrin, Haut Conseiller Scientifque à l'ONERA et Rapporteur à l'Académie de Sciences, pour la confiance et l'aide qu'il m'a données lorsque j'étais ingénieur de recherche au Centre d'Etudes et de Recherches de Toulouse et pour la préparation de l'Institut Européen de l'Ingénierie et des Sciences Cognitives. Philippa Gander, par sa patience et son dévouement, m'a beaucoup aidé et soutenu dans les moments "intenses" de ce travail. Elle a relu pratiquement tous mes articles depuis 1985 et m'a aidé à mieux formaliser un grand nombre d'idées énoncées dans ce mémoire. Merci Philippa. Je remercie aussi Sophie Chalard et Patrick Pleczon d'avoir relu le premier manuscript et fourni un grand nombre de commentaires extrêmement pertinents. Le concours et le soutien de toute l'équipe de la société Dialogics dirigée par Alain Garès ont été exceptionnels. Merci Alain. Mes remerciements vont encore à tous ceux et celles qui, à des titres divers, ont participé à l'élaboration et à la réalisation de ce mémoire. Table des Matières Résumé 3 Mots Clés 3 Avant-Propos 4 Introduction 8 La motivation 8 L'interaction Homme-machine 8 L'acquisition de connaissances 9 L'approche socio-cognitive pluri-disciplinaire Des besoins nouveaux et importants 10 L'objet et l'organisation de la thèse 11 1. Modélisation Cognitive 9 13 1.1. Faut-il modéliser l'opérateur? 13 1.1.1. L'évolution de la technologie va privilégier la créativité 1.1.2. Modélisation de l'opérateur 14 1.2. Le modèle de Rasmussen 16 1.3. Acquisition de connaissances et apprentissage 17 1.3.1. Acquisition d'habiletés pour accroître la performance 1.3.2. Analogie et apprentissage basé sur des cas 18 1.3.3. Induction et apprentissage empirique 19 1.4. L'importance de l'acquisition de connaissances 19 1.4.1. Le problème de l'interprétation 19 1.4.2. L'approche ascendante versus l'approche descendante 1.4.3. La modélisation de l'expertise 21 1.5. Le triangle outil-tâche-utilisateur 22 2. Approche Empirique et Rationalisation de Concepts 13 18 20 24 2.1. Introduction 24 2.2. L'expérience de la certification de cockpits 27 2.2.1. Le modèle d'agent du système MESSAGE 27 2.2.2. Utilisation du système MESSAGE pour la certification de cockpit 28 2.2.3. Modélisation d'agents pour évaluer l'interaction Homme-machine29 2.3. Modélisation de la communication entre agents 30 2.3.1. Comprendre comment les agents partagent les rôles 30 2.4. 2.5. 2.6. 2.7. 2.3.2. Niveaux d'autonomie 31 2.3.3. Attributs de l'automatisation centrée sur l'Homme 32 Le modèle reconnaissance de situation / raisonnement analytique 34 2.4.1. Représentation situationnelle 34 2.4.2. Représentation analytique 36 2.4.3. Connaissance compilée, instanciée et profonde 36 2.4.4. Evaluation dynamique guidée par un modèle évolutif d'utilisateur37 Vers un concept d'intelligence intégrée Homme-machine 40 2.5.1. Structure 40 2.5.2. Fonction : la représentation par blocs de connaissance 41 Problèmes concernant les systèmes "intelligents" 44 2.6.1. Modèles cognitifs, acquisition et représentation de connaissances 44 2.6.2. Compatibilité des systèmes "intelligents" avec les opérateurs 45 2.6.3. Applications monde-réel et automatisation 46 Conclusion 48 3. Connaissances Contextualisées 49 3.1. Notion de contexte 49 3.2. L'indexation 51 3.2.1. Descripteurs et référents 52 3.2.2. Liens contextuels 53 3.3. Renforcement incrémental en contexte 54 3.3.1. Critères de renforcement 54 3.3.2. Acquisition de liens contextuels par expérimentation 55 3.4. Clustering des conditions contextuelles 57 3.4.1. Placement d'un pattern contextuel dans une classe existante 3.4.2. Création d'une nouvelle classe 58 3.4.3. Combinaison de deux classes en une seule classe 58 3.4.4. Division d'une classe en plusieurs classes 59 3.5. Corrélation sémantique entre référents 60 3.6. Leçons apprises 62 3.6. Relations avec d'autres travaux 63 3.7. Discussion et futures directions 64 Conclusion 65 Contribution de la thèse 65 Un cours 65 Une expérience 67 La prise en compte du contexte Perspectives 69 Hors Contexte ? Références 72 71 68 57 Habilitation - Guy Boy - 1992 Introduction "The machine itself makes no demands and holds out no promises: it is the human spirit that makes demands and keeps promises. In order to reconquer the machine and subdue it to human purposes, one must first understand it and assimilate it. So far we have embraced the machine without fully understanding it." Munford (1934)2. La motivation L'exploration de l'espace, la banalisation de l'aviation civile, les transplantations cardiaques, la télévision haute-définition et le contrôle des naissances sont des exemples concrets témoignant que les avancées technologiques sont en train de changer nos sociétés dîtes "occidentales". L'une de mes préoccupations tout au long de mes recherches pendant ces douze dernières années a été d'analyser comment l'automatisation et l'informatique modifient nos lieux de travail. Cette problématique m'a mené au cœur de deux communautés scientifiques différentes celle de l'interaction Homme3-Machine (IHM) et celle de l'intelligence artificielle (IA), plus spécifiquement l'acquisition de connaissances pour les systèmes à base de connaissances. D'un côté, il est apparu que l'IHM était un problème essentiel pour l'intégration sociale des nouveaux systèmes comportant de plus en plus des composantes cognitives. D'un autre côté, l'acquisition de connaissances et la modélisation restent des champs d'investigation essentiels pour permettre une meilleure intégration des aspects cognitifs et sociaux dans ces nouveaux systèmes. L'interaction Homme-machine Le partage des tâches entre l'Homme et la machine est progressivement devenu un sujet central de recherche. Avec l'automatisation accrue, ces tâches sont devenues principalement cognitives. A l'opposé des machines, les êtres humains peuvent créer des idées qu'ils utilisent pour progresser. Ils construisent aussi des outils pour mettre en œuvre ces idées. Les ordinateurs ne contiennent pas de "cerveaux", pas plus que des chaînes stéréos ne contiennent des instruments de musique. Les machines informatiques ne sont capables que de manipuler des nombres et des symboles. Les êtres humains peuvent les connecter entre eux pour leur donner une signification (Penzias, 1989). 2"La machine elle-même n'a pas d'exigence et ne peut tenir aucune promesse : c'est l'esprit humain qui a des exigences et tient les promesses. Afin de reconquérir la machine et l'asservir aux besoins de l'Homme, on doit tout d'abord la comprendre et l'assimiler. Jusqu'à maintenant nous avons embrassé la machine sans la comprendre". 3Nous utiliserons le terme "Homme" avec une majuscule pour désigner l'être humain, homme ou femme. 11 Habilitation - Guy Boy - 1992 A l'instar des chercheurs comme Shneiderman (1987), une approche scientifique des interfaces-utilisateurs est née. Celle-ci met en jeu l'expérimentation psychologique, la collection de données provenant de l'utilisation ainsi que des techniques informelles d'observation des utilisateurs. Des théories de l'IHM ont été développées (Card et al., 1983; Norman & Draper, 1986; Anderson, 1983). Il n'existe cependant toujours pas de théorie unifiée sur l'ergonomie cognitive de conception réellement utilisable pour construire des interfaces-utilisateur. Une synthèse sur les axes de recherches dans le domaine des interfaces Homme-ordinateur est fournie par (Coutaz, 1988). L'acquisition de connaissances Concevoir et construire des outils adaptés aux besoins de l'Homme a toujours été une motivation depuis que l'Homme existe. La construction d'outils est très souvent basée sur une approche itérative ou "incrémentale"4 par essai-erreur, même lorsqu'elle est explicitement motivée par un but ou basée sur un modèle. Ce qui différencie l'Homme des autres êtres vivants, c'est qu'il est capable de transmettre sa connaissance5 (ou une partie de sa connaissance) sous des formes plus ou mois explicites. Ce processus de transmission-acquisition des connaissances est complexe. La technologie des systèmes à base de connaissances (SBC) a clairement mis en évidence le problème du goulot d'étranglement de l'acquisition des connaissances (AC). Il existe toutefois une question difficile. Beaucoup de gens parlent de systèmes "intelligents". Qu'est-ce qu'un système "intelligent" ? L'intelligence n'est pas tant dans le système que dans l'interaction entre l'utilisateur et le système. L'intelligence est à rechercher dans le système Homme-machine. D'une manière plus générale, pouvons-nous construire des outils qui étendent la puissance et le confort intellectuel de l'Homme dans la société ? L'approche socio-cognitive pluri-disciplinaire Les réponses possibles aux question précédentes passent par une approche pluridisciplinaire. Il semble maintenant difficile de concevoir et de certifier un système moderne complexe sans faire appel à une équipe composée d'ingénieurs et d'ergonomes. Nous avons essayé d'intégrer divers concepts, techniques et méthodes développés dans diverses disciplines, telles que l'intelligence artificielle, la psychologie cognitive et les sciences de l'ingénieur, pour mettre au point une nouvelle approche de conception et d'évaluation. Cette approche est basée sur le concept de système d'assistance à l'opérateur6. 4Le mot "incrémental" a été adopté de l'anglais et signifie "à petits pas". terme connaissance est employé au singulier pour désigner la matière comme support de la pensée humaine. Nous utilisons connaissances au pluriel lorsque nous désignons des morceaux de connaissance particuliers. 6Nous employerons alternativement le terme "opérateur" ou "utilisateur" pour désigner la personne qui utilise l'outil pour effectuer une tâche. 5Le 12 Habilitation - Guy Boy - 1992 En 1990, le RESCO7 a adopté la définition suivante: Plusieurs disciplines scientifiques se rejoignent pour étudier la façon dont l'esprit humain perçoit, apprend, et utilise ses connaissances, notamment dans les relations avec les systèmes informatisés et les machines. La psychologie, l'ingénierie des systèmes, l'intelligence artificielle, les neurosciences, l'anthropologie appliquée, la linguistique, l'épistémologie, la philosophie de la pensée et du langage concourent à ces études. A l'intersection de ces champs se constitue aujourd'hui un nouveau domaine scientifique : celui des Sciences Cognitives. Les Sciences Cognitives ont donc pour objet la connaissance. Plus précisément, elles portent sur la représentation, l'acquisition et l'utilisation de connaissances par des Hommes et par des machines, et leurs applications concernent l'analyse, la conception et l'évaluation des interactions entre agents naturels et artificiels. On parlera de Systèmes Cognitifs pour désigner des systèmes mettant en œuvre, en général par des moyens informatiques, des connaissances sur leurs propres buts et fonctions, et des outils d'interaction avec l'utilisateur. On notera que le RESCO, constitué de scientifiques et d'industriels, a proposé la dénomination "Sciences Cognitives" (au pluriel) qui traduit implicitement le fait que "La Science Cognitive" n'est pas encore une discipline unifiée8, mais est un regroupement d'approches vers un même but : l'étude des processus cognitifs chez l'homme. Les industriels sont surtout intéressés par l'étude des processus cognitifs chez l'homme au travail. L'ingénierie cognitive recouvre le domaine de l'ergonomie cognitive incluant l'analyse, la conception, et l'évaluation de systèmes nécessitant une interaction cognitive avec leurs utilisateurs potentiels. Nous pensons que l'ingénierie cognitive peut difficilement être séparée des sciences cognitives dans la perspective d'une approche du monde réel, et, qui plus est, industriel. 7Le Réseau Européen des Systèmes Cognitifs (RESCO) a été créé en 1989 par des universitaires et ingénieurs toulousains pour la création d'un institut de recherche en ingénierie et sciences cognitives associant des industriels à des chercheurs. L'auteur de ce mémoire est membre fondateur du RESCO. 8 Le premier chapitre de "Cognitive Science in Europe" (Imbert et al, 1987) est intitulé "Qu'est-ce que la Science Cognitive?". Une réponse synthétique donnée est: "l'étude de l'intelligence développée biologiquement, avec une attention particulière, naturellement, portée sur le système appelé Homme". Cette définition propose une base pour distinguer la Science Cognitive de l'Intelligence Artificielle (IA) qui se focalise sur les systèmes créés artificiellement. Il est clair que cette séparation n'est pas aussi nette qu'elle pourrait le laisser suggérer. En effet, tout système artificiel créé par l'homme inclut nécessairement une partie de la connaissance humaine générée "biologiquement". Il existe certes un grand débat entre les constructivistes et les réalistes (Changeux et Conne, 1989) sur la représentation formelle des mathématiques, i.e., les représentations cognitives formalisables sont-elles construites ou bien existent-elles de la même manière que des entités physiques existent (encore faut-il les découvrir)? 13 Habilitation - Guy Boy - 1992 Nous sommes en train de passer de l'âge industriel à l'âge de l'information. Selon John Seely Brown (1992), la nouvelle intelligence dans la conception n'est plus tellement dans l'individu seul mais dans le groupe collaborant. La majeure partie du travail traditionnel en interaction Homme-ordinateur a été focalisé sur le dialogue entre l'utilisateur et le système et pas sur les interactions entre l'utilisateur et le monde qui utilise le système comme un intermédiaire. L'approche "assistance à l'opérateur" que nous avons développé se situe dans cette perspective d'évolution (Boy, 1988, 1991). L'évolution de la technologie de l'interaction Homme-machine est en train de favoriser le changement du "je pense donc je suis" vers le "nous participons donc nous sommes". Des besoins nouveaux et importants Les systèmes professionnels et domestiques deviennent de plus en plus complexes, par exemple, les réseaux de communication, la fabrication intégrée, l'industrie nucléaire, les activités financières, l'aviation civile et commerciale, etc. Cette complexité s'est développée avec l'accroissement de l'automatisation d'un grand nombre de processus. Cependant, dans un grand nombre de cas où les frontières de l'automatisation ont été poussées à l'extrême et où l'intervention d'un opérateur humain y est encore nécessaire, les opérateurs humains ont souvent des problèmes pour reprendre le contrôle de ces systèmes lorsqu'il est nécessaire de le faire (Pelegrin, 1986) : ceci amène des problèmes d'efficacité, de fiabilité et de sécurité qui peuvent conduire à des pertes de qualité des produits industriels, et même parfois à des catastrophes telles que celle de Tchernobyl. Afin d'éviter ces problèmes, il est nécessaire de concevoir les systèmes en incluant itérativement le rôle et les moyens d'interaction de l'opérateur humain. Le système luimême, en particulier lorsqu'il met en jeu de la connaissance experte sur une tâche donnée (système à base de connaissances), doit être adapté en profondeur à ses utilisateurs, en particulier pour que l'utilisateur identifie des représentations et des modes de raisonnement qui lui sont familiers. Pour réaliser de tels systèmes, il est nécessaire de comprendre les mécanismes de la cognition, d'étudier des représentations de connaissances appropriées, de savoir comment stocker et utiliser la connaissance acquise, de traiter des problèmes d'interaction Hommemachine en général : le rôle des sciences cognitives est de fournir des éléments théoriques et une approche opérationnelle en réponse à ce type de questions. Les applications des sciences cognitives sont tout d'abord apparues dans les domaines de la haute technologie, tels que l'aéronautique et l'espace, ou l'énergie atomique, où la fiabilité et la sécurité des systèmes mis en jeu est essentielle. Ce type d'approche des problèmes est en train de s'étendre à d'autres domaines plus proche de la vie quotidienne, par exemple l'éducation, les transports, les communications, etc. : aujourd'hui, avec l'utilisation des systèmes complexes, c'est l'activité de la société moderne toute entière qui est concernée par les applications des sciences cognitives. 14 Habilitation - Guy Boy - 1992 L'objet et l'organisation de la thèse L'un des objets de la thèse est de mettre en évidence le potentiel naissant de la coopération entre les disciplines dites "cognitives" (ou tout au moins à potentiel cognitif). La construction de méthodologies et d'outils pour l'interaction cognitive relève parfois plus d'un art que d'une technique. Il n'existe pas de loi du type E=mC2 dans le domaine des sciences cognitives. Un nombre grandissant de compétences se sont développées dans ce domaine au cours de la dernière décennie. Ce travail présente la nôtre dans le contexte de l'évolution du champ dispersé des sciences cognitives. Elle comprend trois parties. La première présente la problématique de la modélisation cognitive au sein du triangle outiltâche-opérateur. La deuxième partie montre une évolution de l'ergonomie cognitive de l'évaluation de systèmes Homme-machine vers l'intégration de l'Homme dans le processus de conception. La troisième partie présente une approche pour la représentation et l'acquisition de connaissances en contexte. Des exemples d'applications illustrent les concepts développés. La première partie introduit le problème de la modélisation cognitive. Nous avons tenté de répondre à une question que se pose beaucoup de concepteurs de systèmes : faut-il modéliser l'opérateur ? Nous présentons deux tendances : la facilitation de la créativité du concepteur et la construction de modèles d'opérateur. Nous faisons une place particulière au modèle de Rasmussen qui a l'avantage de fournir une introduction élégante à la problématique acquisition de connaissances versus apprentissage. Nous donnons enfin un éclairage socio-technique sur l'acquisition de connaissances pour la construction de systèmes. La deuxième partie pose le problème de l'intégration de l'ingénierie et des sciences cognitives dans les processus de conception et d'évaluation. Nous avons tiré profit de notre expérience dans le domaine de la certification de cockpit et l'assistance au diagnostic de pannes pour développer le modèle Reconnaissance de Situation / Raisonnement Analytique. Nous avons étendu ce modèle au concept d'intelligence intégrée Homme-machine et donnons un éclairage sur les problèmes concernant les systèmes dits "intelligents". Notre analyse nous conduit à faire le point sur la modélisation de la communication entre agents. La troisième partie est réservée aux connaissances contextualisées. Nous introduisons la notion de contexte qui peut être verbal, social ou historique. Nous avons pris l'indexation de documents comme processus générique d'utilisation du contexte. Nous donnons un compte rendu de notre expérience sur le système CID. En particulier en ce qui concerne le renforcement incrémental du contexte et le regroupement de conditions contextuelles. Nous montrons comment la corrélation sémantique entre documents peut aider à la navigation à l'intérieur d'une documentation. Nous donnons les leçons apprises ainsi que les relations avec les autres travaux dans le même domaine. La conclusion fait le point sur la mise en œuvre de ce travail dans le contexte de la recherche en interaction cognitive Homme-machine. Elle présente des possibilités de développement de collaboration entre les diverses disciplines composant les sciences 15 Habilitation - Guy Boy - 1992 cognitives. Au titre des résultats, notre contribution a donné naissance à un cours sur les systèmes d'assistance à l'opérateur, ainsi qu'à des systèmes opérationnels en cours d'utilisation ou de tests. Les perspectives de prolongements de ce travail pourraient se situer dans le domaine de l'étude du travail coopératif, de l'enseignement assisté par ordinateur, et des méthodes d'acquisition des connaissances dans un contexte socio-technique. 16 Habilitation - Guy Boy - 1992 1. Modélisation Cognitive "To learn a new field, according to the cognitive science approach, is to build appropriate cognitive structures and to learn to perform computations that will transform what is known into what is not yet known." Michael Posner (1989)9. 1.1. Faut-il modéliser l'opérateur? Faut-il Modéliser l'Opérateur ? Cette question a suscité et suscite encore de vives polémiques. Les uns rejettent a priori la notion de modèle d'opérateur parce qu'elle est éphémère (Hollan & Williams, 1991). Dans cette approche, il est question de créativité du concepteur d'interface-opérateur et de corrections progressives pour arriver à un résultat convenable. La notion de modèle d'opérateur est trop figée et ne résiste pas à l'évolution. Les autres militent pour une classification des modèles d'opérateurs (Boy, 1983; Rasmussen, 1986; Cahours & Paris, 1991). Ce type d'approche défend le fait que modéliser l'opérateur permet de mieux comprendre et concevoir l'interaction entre l'Homme et la machine. Dans cette section, nous présenterons deux points de vue concourant à la prise en compte de l'utilisateur final dans la boucle de conception : la facilitation de la créativité du concepteur et la construction de modèles d'opérateur. Même si certains chercheurs opposent ces deux approches, nous pensons qu'elles sont complémentaires. La première favorise l'aspect implicite et situationnel10 des modèles d'opérateur. La seconde favorise l'expression explicite et analytique de ces modèles. Nous avons pris le parti que la modélisation (qu'elle soit implicite ou explicite) était une étape obligatoire dans l'analyse, la conception et l'évaluation des systèmes Homme-machine. Ce point de vue n'empêche pas une approche incrémentale dans la conception de ces systèmes. 1.1.1. L'évolution de la technologie va privilégier la créativité La créativité du concepteur d'interfaces-utilisateurs peut être facilitée par l'évolution du matériel et du logiciel. Le matériel informatique va continuer à diminuer en taille et augmenter en puissance. Les puces vont devenir encore plus rapides : en 1990, 10 MIPS11; cette année, 40-75 MIPS; et bientôt, 100 MIPS. Cependant, malgré cette amélioration considérable, la capacité entrées/sorties ne suit pas, par exemple, il faut 3 heures pour charger un programme dont le temps d'exécution est de 30 minutes. Les réseaux locaux vont améliorer la capacité des 9"En accord avec l'approche des sciences cognitives, apprendre un nouveau domaine c'est construire des structures cognitives appropriées et apprendre à faire des calculs qui transformeront ce qui est connu en ce qui n'est pas encore connu." 10Les termes situationnel et analytique sont définis en détails dans la section 2.3. 11Million d'instructions par seconde. 17 Habilitation - Guy Boy - 1992 processeurs. Aujourd'hui Ethernet peut supporter jusqu'à 10 megabytes par seconde (Mb/s). Bientôt, il sera possible de transferer 45 Mb/s avec le réseau DS3. Dans un futur plus ou moins proche, les réseaux tels que SMDS ou FDDI seront capables de supporter de 100 à 1000 Mb/s. La mémoire de stockage va aussi s'améliorer de façon considérable. Aujourd'hui, le coût du stockage sur disque est d'environ 18 francs/Mb. Ce coût va chuter rapidement, 2 gigabytes (Gb) de bande vont coûter moins de 30 francs/Gb. Cette évolution du matériel va permettre plus de stockage, des présentations graphiques plus rapides, et améliorer les capacités de raisonnement. L'évolution des réseaux locaux (local area networks : LAN) vont donner naissance à une augmentation de la répartition des données et de leurs traitements. Les gens vont être très facilement capables de réutiliser les logiciels produits par d'autres. La standardisation du logiciel va croître. Les outils logiciels vont devenir "familiers". L'interface utilisateur va prendre une importance considérable en même temps qu'elle va se banaliser, en d'autres termes les graphiques seront de meilleure qualité et utilisés de façon extensive, et la conception de systèmes sera plus centrée sur l'utilisateur. Les techniques orientées objet sont en train de prendre une place de plus en plus importante dans la façon de programmer. Pour confirmer l'idée du partage de logiciels déjà énoncée, les objets et les bases de données persistants seront progressivement générés et stockés dans des bibliothèques publiques. Cette tendance amène à la personnalisation, à l'adaptation à l'utilisateur, aux environnements modulaires et intégrants, et à la programmation par l'utilisateur final lui-même. Les frontières entre les applications sont en train de disparaître, ce qui va permettre le développement plus aisé de systèmes du monde-réel en permettant d'interconnecter des logiciels de natures différentes (par exemple, le système 7 du Macintosh). Les frontières entre les machines vont aussi disparaître pour répartir le calcul (par exemple, les logiciels de gestion de réseaux d'ordinateurs). Les frontières entre les Hommes vont disparaître pour changer le travail au sein des organisations (par exemple, le travail coopératif assisté par ordinateur) et répartir la cognition. Les frontières entre les media vont disparaître, par exemple, la télévision, le film, le son, les communications et le calcul. Les média d'interaction avancés sont en train de se développer dans divers centres de recherches, comme le MIT Media Laboratory, la NASA, Xerox PARC, etc. Nous prétendons que toutes ces avancées contribuent et vont contribuer plus à favoriser la créativité des concepteurs de systèmes plus adaptés à l'Homme. Aujourd'hui, les ordinateurs sont encore un mythe pour la plupart des gens, y compris pour certains concepteurs. Paul Heckel (1984) a déclaré que : "Les films n'ont pas fleuri tant que les ingénieurs n'ont pas perdu le contrôle sur les artistes—ou plus précisément, sur les scénaristes. La même chose est en train d'arriver aujourd'hui avec les ordinateurs personnels." Dans la préface du récent livre de Brenda Laurel (1991), Donald Norman a écrit que : 18 Habilitation - Guy Boy - 1992 " Il est temps que les ingénieurs reviennent faire de l'ingénierie. Pour développer ces nouvelles technologies, nous avons besoin d'une nouvelle veine d'individus créatifs, très vraisemblablement ceux qui sont associés à la poésie, l'écrit et la direction théâtrale." 1.1.2. Modélisation de l'opérateur Il existe déjà un certain nombre de modèles d'opérateur développés (Anderson, 1983; Card et al., 1983; Norman & Draper, 1986; Rasmussen, 1986). Nous ne les décrirons pas ici, ils ont déjà été analysés ailleurs (Coutaz, 1988; Boy, 1988, 1991). Le modèle de Rasmussen (voir section 1.2) occupera cependant une place particulière dans notre approche pour expliquer le problème fondamental de l'acquisition de connaissances et l'apprentissage (voir section 1.3). On ne développe pas de modèles d'opérateur ou d'utilisateur sans but précis. En général, ces modèles sont développés pour améliorer la performance du système Homme-machine correspondant, pour contribuer à la diminution de la charge de travail de l'opérateur, ou pour améliorer la qualité des produits. Erik Hollnagel (1989) donne une liste de types de modèles d'utilisateur : les modèles d'utilisateur généraux utiles dans les systèmes d'aide en-ligne (help), les modèles de dialogue, les modèles thérapeutiques qui aident à modifier le comportement de l'utilisateur, les modèles d'élèves dont le but principal est l'enseignement, les modèles de conception visant à aider le concepteur de systèmes, les modèles d'aide à la prise de décision, et les modèles d'opérateur habituellement utilisés en contrôle de processus. Ces modèles peuvent servir dans différents cadres : l'assistance au suivi de procédures, la surveillance de l'activité de l'opérateur, la présentation des informations, l'accès à la connaissance (recherche contextualisée d'informations), l'allocation de tâches, l'aide à la planification et l'ordonnancement et l'aide à la décision. Les exigences de l'utilisateur sont de disposer de la bonne information, au bon moment et sous la bonne forme (Boy, 1983a). Pour ce faire, il convient de mieux comprendre à la fois l'utilisateur, mais aussi la tâche et le fonctionnement du système à contrôler (ou l'environnement au sens large). Nous analysons ce point en détail dans la section 1.5. Lorsqu'il applique un modèle, le chercheur identifie des objets et des relations naturelles, au moyen d'éléments et de relations d'un ensemble formel (Coombs et al., 1975). Le modèle à construire (ici celui de l'opérateur humain) sera une abstraction du réel. Il permettra de prédire des données nouvelles (déduction) qui devront être comparées et interprétées en fonction des données expérimentales correspondantes. Cette comparaison doit permettre d'apporter des modifications au modèle initial afin de le rendre plus proche de la réalité (Figure 1). 19 Habilitation - Guy Boy - 1992 Monde réel Expérimentation Modélisation Modèle Données Expérimentales Comparaison Déduction Prédictions Interprétation Modification Figure 1. Processus de modélisation. Les modèles peuvent être analogiques ou syntaxo-sémantiques. Les modèles dits analogiques sont construits à partir de modèles existants et dont l'utilité à déjà été démontrée dans un autre domaine. Par exemple, certains processus mécaniques sont souvent simulés par des équations déjà utilisées pour représenter des processus électriques. Les modèles analogiques sont aussi appelés modèles "boites noires". Ils constituent une norme équivalente utilisée pour simuler et prédire certains comportements. L'important n'est pas d'expliquer le comportement interne des processus simulés, mais de produire des comportements proches de ceux observés en réalité. L'approche connexioniste appartient à ce type d'approche. Les modèles dits syntaxosémantiques définissent une syntaxe et une sémantique propres au domaine qu'ils prétendent modéliser. Ils sont généralement symboliques et logiques, et relèvent plus des approches utilisées en IA. Ils tentent de représenter des mécanismes internes, au lieu de se limiter à la simulation simple du comportement. Les modèles peuvent être prédictifs ou explicatifs. Les modèles dits prédictifs constituent des normes (modèles normatifs) dont il convient d'ajuster les paramètres pour pouvoir les utiliser en prédiction de phénomènes du monde réel. Les modèles dits explicatifs sont des cadres d'expression d'une observation du monde réel. Ils ne sont généralement pas utilisables tels quels pour la prédiction. Nous avons développé un modèle d'opérateur humain pour analyser sa charge de travail dans le cadre de la certification des Airbus (Boy, 1983). Ce modèle est essentiellement explicatif. Cependant, nous en avons extrait certaines méthodes opérationnelles qui ont été utilisées pendant la certification d'avions de transport. Ces méthodes sont supportées par des modèles normatifs. D'une manière générale, il est important d'étudier les modèles d'utilisateur dans leur contexte d'utilisation (déjà mentionné plus haut) et de caractériser les liens entre le rôle et le type de chaque modèle d'utilisateur (Cahours & Paris, 1991). Si ces exigences ne sont 20 Habilitation - Guy Boy - 1992 pas remplies, le modèle d'utilisateur sera trop complexe à utiliser et ne sera pas adapté à la tâche. Il faut conserver un niveau de complexité adapté à l'application. Une typologie des modèles d'utilisateurs peut être faite selon trois axes : les types d'informations (caractéristiques cognitives de l'utilisateur, caractéristiques sociales et caractéristiques personnelles), la granularité des informations (informations stéréotypiques et informations individualisées) et l'importance du modèle d'utilisateur (ce modèle est parfois préférable, dans d'autres cas il est nécessaire). 1.2. Le modèle de Rasmussen Le modèle de Rasmussen (1986) est un modèle explicatif. Il a été développé pour représenter la performance d'un opérateur en situation de contrôle de processus. Il permet d'étudier les mécanismes humains de traitement de l'information. Selon Rasmussen, l'être humain fonctionne comme un système hiérarchique ayant deux types de processeurs : — l'un de bas niveau, subconscient et hautement parallèle; — l'autre de haut niveau, conscient et séquentiel. Le premier type de processeur correspond aux fonctions sensori-motrices. Il est hautement dynamique du fait de son parallélisme. Le second type de processeur est limité par les capacités de la mémoire à court terme. Cependant ses capacités de traitement de l'information (symbolique) lui permettent de traiter une grande variété de problèmes avec un bonne efficacité. Rasmussen distingue trois niveaux de comportement d'un opérateur en interaction avec un environnement dynamique (Figure 2) : — les habiletés (skill-based behavior); — les procédés (rule-based behavior); — le savoir (knowledge-based behavior). 21 Habilitation - Guy Boy - 1992 But(s) Savoir Identification Procédés Reconnaissance de Situation Habiletés Capteurs Prise de Décision Planification Situation(s) / tâche(s) Tâches (procédures) Effecteurs Environnement Figure 2. Trois niveaux de comportement de Rassmussen. L'acquisition des habiletés, à la fois sensori-motrices et cognitives, est le résultat d'un entraînement long et intensif. Les habiletés permettent des opérations rapides du type stimulus-réponse. Le niveau des procédés est aussi un niveau opératif, manipulant des plans spécifiques, des règles (savoir-faire) ou des procédures (par exemple une checklist ou une recette de cuisine). Le savoir est le "vrai" niveau de l'intelligence. Les systèmes experts actuels restent pour la plupart au niveau des procédés, parce qu'il est difficile (et souvent impossible) d'extraire de la connaissance experte compilée provenant du niveau des habiletés (Dreyfus, 1982). Le niveau intermédiaire est le plus facile à formaliser et à extraire des explications d'un expert. Comme le fait habituellement un professeur, l'expert doit "décompiler" sa connaissance pour expliquer le "pourquoi" et le "comment" de ses propres comportements. Le résultat d'une telle décompilation est facilement transférable de façon déclarative sur un ordinateur, avec un format SI ... ALORS ... (généralement appelé règle), par exemple. Le processus de décompilation ne capture pas nécessairement la connaissance et le comportement expert utilisé au niveau des habiletés. 1.3. Acquisition de connaissances et apprentissage L'expérience montre qu'il est le plus souvent plus facile d'acquérir des connaissances au niveau du comportement basé sur les procédés. En effet, ce niveau de Rasmussen correspond à ce que nous appelons la mémoire anecdotique. Il est toujours plus facile d'exprimer la connaissance sous forme d'anecdotes. Dans cette section, nous utiliserons le modèle de Rasmussen pour situer l'intérêt et l'apport des méthodes d'apprentissage symbolique automatique (ASA) pour l'acquisition 22 Habilitation - Guy Boy - 1992 de connaissances. L'approche ASA (machine learning) est une discipline très jeune (Kodratoff, 1988). Nous distinguerons trois types d'apprentissage : — l'acquisition d'habiletés et l'apprentissage de type "speed-up"; — l'analogie et l'apprentissage basé sur des cas; — l'induction et l'apprentissage empirique. Le premier type est lui-même subdivisé en deux grandes catégories : la construction de macro-opérateurs (Korf, 1985) et l'apprentissage basé sur des explications (DeJong, 1981). Le second type concerne la génération de connaissances nouvelles à partir de connaissances existantes (Gentner, 1989; Hammond, 1989). Le troisième type peut être réparti en trois groupes de méthodes : l'apprentissage supervisé de concepts (Mitchell, 1982), l'apprentissage basé sur des similarités (Quinlan, 1986), la découverte (Lenat, 1977; Langley et al., 1987; Falkenhainer, 1990) et le clustering non-supervisé (Fisher, 1987). 1.3.1. Acquisition d'habiletés pour accroître la performance Il est pratiquement impossible d'acquérir des connaissances de type habiletés par des méthodes classiques d'interviews. Ces connaissances ne peuvent être que reconstruites à partir de données acquises en situation. Nous les appelons connaissances situationnelles. L'analyse de protocoles verbaux permet d'accéder à ce type de connaissances par reconstruction. Les méthodes d'observation de l'expert au travail (ou de l'utilisateur) permettent d'extraire des patterns situationnels (voir section 2.4). Nous avons utilisé ce type de méthodes dans le projet HORSES à la NASA pour extraire des connaissances de diagnostic. Dans tous les cas, les résultats provenant de ces méthodes doivent être interprétés en utilisant un modèle. Certaines connaissances situationnelles peuvent être construites à partir de connaissances analytiques. Cette recompilation peut se faire par des méthodes d'apprentissage de type "speed-up". Nous avons développé un programme qui transforme la connaissance analytique en connaissance situationnelle dans le cadre du projet SAOTS (système d'assistance à l'opérateur en télémanipulation spatiale) avec le CNES (Centre National d'Etudes Spatiales). Ce travail a été reporté dans (Boy & Delail, 1988). 1.3.2. Analogie et apprentissage basé sur des cas Au cours des phases de construction de notre modèle MESSAGE (voir section 2.2), nous avons travaillé avec des pilotes d'essais pour construire un premier corpus de connaissances. Les connaissances brutes exprimées par les pilotes ont toujours été traduites sous forme de cas du type: "J'étais à 10 000 pieds, la tour de contrôle m'a donné l'autorisation de passer en phase d'approche, mon copilote...". Les experts se souviennent d'anecdotes. Ils expriment leur connaissance sous la forme d'histoires. C'est le point de vue de Roger Schank sur l'expression de la connaissance par les gens en général. Ce type de connaissances doit ensuite être comparé à la connaissance déjà acquise et 23 Habilitation - Guy Boy - 1992 éventuellement généralisée. Dans notre travail, nous avons utilisé ce type de méthodes de façon manuelle (Boy, 1983b). 1.3.3. Induction et apprentissage empirique Cobweb est certainement l'algorithme de clustering de concepts le plus connu et le plus utilisé (Fisher, 1987). Nous avons travaillé sur une approche similaire dans le cadre du système CID (Computer Integrated Documentation) développé à la NASA. La génération de contexte dans CID demande en effet une réduction de la base de connaissance. Un exemple de clustering de contexte est donné dans la section 3.4. Dans le cas de CID, c'est-à-dire une application monde-réel, l'intervention humaine est particulièrement importante dans le processus d'apprentissage empirique. 1.4. L'importance de l'acquisition de connaissances Winograd et Flores (1987) défendent l'idée que "les exemples de succès de systèmes experts ont presque tous été le résultat d'un effort long et intensif par un opérationnel qualifié, et on peut aussi dire que les domaines générés lors du développement de ces systèmes sont eux-mêmes des contributions significatives de recherche". L'acquisition de connaissances est le processus de capture et de modélisation de la connaissance d'un domaine donné en vue de la construction de systèmes à base de connaissances. Il existe un certain nombre de problèmes bien connus : — la compréhension des capacités des experts à résoudre des problèmes de leur domaine est insuffisante; — l'expertise est basée sur des habiletés et des connaissances implicites difficile et souvent impossible à mettre en évidence directement; — l'expert, comme tout autre être humain, a tendance à justifier ses comportements; — l'expert est expert en résolution de problème, mais pas en explication de solutions. La littérature dans le domaine est très variée et manque de fondements et de cadre méthodologique. Nous avons déjà recensé un certains nombre de méthodes d'acquisition de connaissances (Boy, 1991a). Dans cette section nous tentons de situer la problématique de l'acquisition de connaissances dans le cadre de l'ingénierie et des sciences socio-cognitives. 1.4.1. Le problème de l'interprétation 24 Habilitation - Guy Boy - 1992 Il convient de considérer l'acquisition de connaissances dans la perspective des sciences sociales. En sciences physiques ou naturelles, le but de la recherche est d'expliquer causalement des phénomènes. Lorsque les êtres humains deviennent le sujet de recherche principal, la question de la signification se pose. Les êtres humains interprètent la réalité et produisent des significations. Le chercheur (le cogniticien) et l'objet de recherche (l'expert ou l'utilisateur) peuvent ne pas parler le même langage, ou s'ils parlent le même langage, ils peuvent avoir des interprétations différentes. Il se peut aussi que l'un des deux ne traduise pas la vérité. Fensel (1992) insiste sur le fait que la séparation classique du sujet (expérimentateur) et de l'objet de recherche du modèle normatif scientifique classique ne tient plus en acquisition de connaissances (Tableau 1). Les méthodes et les résultats vont tendre à être qualitatifs plutôt que quantitatifs. Ils sont basés sur l'étude de cas bien choisis et considérés comme typiques dans le domaine d'expertise. Le caractère fortement interactif de l'acquisition de connaissances donne lieu à un processus interprétation - compréhension - nouvelle hypothèse. Sciences naturelles Sciences sociales Principe Hypothèse -> vérification Création et révision d'hypothèses Méthodes et résultats Quantitatifs Qualitatifs Activité de recherche Observation Interaction Approche Statistique Cas typiques Tableau 1. Comparaison des perspectives sciences naturelles et sciences sociales pour l'acquisition de connaissances. 1.4.2. L'approche ascendante versus l'approche descendante Typiquement, il existe deux types d'approches de la construction de systèmes informatiques, les systèmes à base de connaissances en étant un cas particulier : l'approche ascendante et l'approche descendante (Tableau 2). 25 Habilitation - Guy Boy - 1992 Approche Ascendante Descendante Méthodes et techniques Prototypage rapide Cycle de vie Avantages Obtention rapide d'un prototype pour évaluation Résultat et processus de développement structurés Inconvénients Solutions non structurées Problèmes de maintenance Les utilisateurs ne sont souvent pas satisfaits Tableau 2. Comparaison des approches ascendante et descendante pour l'acquisition de connaissances. Les deux approches présentent chacune des avantages et des inconvénients. L'approche ascendante est basée sur la notion de prototypage rapide et permet d'inclure les utilisateurs très tôt dans la boucle de conception par le fait qu'il est possible de fournir très rapidement un prototype pour l'évaluation. Le principal inconvénient est que les systèmes résultants sont très difficiles à maintenir parce que très rapidement incompréhensibles. L'approche descendante, au contraire, offre un processus de développement et des résultats structurés. C'est l'approche qui est habituellement utilisée en ingénierie. Malheureusement, les utilisateurs finaux ne sont pas facilement pris en compte dans cette approche, et par conséquent, ils ne sont pas toujours satisfaits des résultats. Nous avons mené des études sur ce sujet au sein du projet européen "Breakdown in Human Adaptation" (Boy, 1988). Fensel et al. (1991) ont tentés de combiner les deux approches pour en combiner les avantages et en éviter les inconvénients. Le modèle KADS (Wielinga et al., 1992) fournit une approche descendante à l'acquisition de connaissances. L'expertise est analysée au niveau de la connaissance (knowledge level) indépendamment des détails de la mise en œuvre informatique. Elle est formalisée au niveau symbolique. Le résultat est appelé modèle. Le principal problème est que KADS n'utilise pas de langage formel pour la représentation des connaissances. Les résultats des tests de la base de connaissances opérationnelle ne sont accessibles qu'après la mise en œuvre du modèle, et donc après un délai bien trop important entre la conception du modèle et la mise en œuvre (Linster, 1992). Dans certains domaines d'application comme la téléopération de robots, il n'existe pas d'expertise a priori. L'approche est donc nécessairement ascendante puisque l'expertise doit être construite progressivement avec les utilisateurs. Ce type de construction de connaissances par l'action est un processus incrémental que nous avons tenté d'analyser. Lorsque des systèmes complexes sont construits, un ensemble de procédures d'opérations sont aussi construites pour les opérer. Ce processus itératif est nécessaire, long et 26 Habilitation - Guy Boy - 1992 couteux. Dans un soucis de compréhension et de rationalisation, nous avons développé la représentation par blocs de connaissances pour prendre en compte ce type d'acquisition (voir section 2.5.2). Nous avons lancé un programme de recherche à la NASA sur le thème de la gestion et la maintenance de procédures en télérobotique. Ce programme est actuellement développé par (Mathé, 1991). 1.4.3. La modélisation de l'expertise "Les termes elicitation et acquisition tendent à être utilisés de façon interchangeable. Cependant, il existe une distinction claire entre elicitation et acquisition dans la création d'un modèle. L'elicitation est le processus de développement d'un modèle par interview des experts et observation de leur environnement; c'est former une théorie ou concevoir un modèle. L'acquisition concerne les processus de capture des informations (faits) qui conviennent dans le cadre de travail défini par le modèle" (Addis, 1987). Nous conservons ici le terme anglais elicitation. L'interview non-structuré est de loin la méthode la plus couramment utilisée en acquisition de connaissances. Certains développeurs sont d'ailleurs convaincus que c'est la seule méthode possible pour extraire de la connaissance experte. Dans un interview non-structuré, le cogniticien pose des questions plus ou moins spontanées pendant que l'expert est en train de raconter une anecdote ou expérience qu'il a vécue ou qu'il est en train de vivre. Par exemple, le cogniticien demande : "Pourquoi faites-vous cela ?" ou "Comment savez-vous cela ?" au moment où l'expert décrit une action ou fait une inférence. En dépit (et dans certains cas à cause) de la nature asymétrique des interviews, à force de travailler sur des bases de connaissances, les cogniticiens sont cependant amenés à sentir la nature particulière de l'expertise. En particulier, ce que possèdent les experts ne semble pas être l'intelligence, au moins au sens habituel, ni même de l'expérience, mais la façon dont l'expérience est codée et traduite en action. Il s'agit d'habiletés. Par exemple, les experts en courses de chevaux peuvent avoir des capacités très différentes en matière de pari. En d'autres termes, des êtres humains ayant des capacités intellectuelles limitées sont capables d'égaler des experts et professionnels en matière de pari. Les experts peuvent exprimer de façon très précise leur connaissance déclarative et procédurale, mais pas ce qu'ils possède au delà des faits et des procédures. Le plus souvent, le savoir-faire des experts n'est pas formalisable ou exprimable sous forme de modèle objectif. C'est généralement une collection de savoir-faire(s) semi-complète, semi-structurée, délimitée et subjective. L'expertise n'est pas organisée uniquement de façon factuelle, mais aussi de façon tactique. Les experts considèrent les nouveaux problèmes de leur domaine comme des variantes de problèmes qu'ils ont déjà résolus. Ils sont particulièrement entraînés à retrouver des solutions de problèmes déjà résolus qu'ils modifient sensiblement pour répondre à une nouvelle question. 27 Habilitation - Guy Boy - 1992 La majeure partie de l'expertise réside dans sa structure et son organisation. La différence entre experts et débutants ne réside pas seulement dans le fait que les premiers possèdent beaucoup plus de connaissances que les seconds, mais surtout dans le fait qu'ils ont organisé toute cette information de façon structurée et hiérarchique en patterns (qui ont un sens très précis). L'expérience est encodée dans la mémoire épisodique. Par opposition à la mémoire sémantique, qui peut être décrite comme la connaissance des faits. La mémoire épisodique est la mémoire des situations recueillies par l'expérience. Ainsi, même si un débutant possédait autant de mémoire sémantique qu'un expert dans un domaine donné, l'expert aurait encore plus de connaissance sur la façon de l'utiliser. La mémoire épisodique enregistre et organise les événements de telle manière que les concepts du domaine soient reliés entre eux en accord avec leur co-occurrence dans un même épisode. De plus, les épisodes eux-mêmes sont organisés dans la mémoire en épisodes généralisés que Kolodner (1983) a appelés E-MOPs (Episodic Memory Organization Packets). Ces épisodes généralisés correspondent à des classes de situations que l'expert a l'habitude de rencontrer. De plus, les structures changent et se réorganisent dans le temps à mesure que l'expert rencontre des succès et des échecs. La représentation par blocs (section 2.5.2) est tout à fait superposable à la notion de E-MOPs. Beaucoup de chercheurs se sont intéressés à la façon dont les débutants devenaient progressivement expérimentés puis experts. Les travaux de Chase et Simon (1973) sur l'habileté aux échecs en est un des premiers exemples. Anderson et ses collègues ont analysé le développement de l'expertise en fonction du temps (Anderson, 1983). Le principal résultat de leurs travaux a été de montrer que la connaissance spécifique au domaine est tout d'abord encodée de façon déclarative. Les procédures générales de résolution de problème sont utilisées pour interpréter la connaissance déclarative et générer des règles de production spécifiques au problème. Une fois qu'un débutant a résolu un certain nombre de problèmes dans un domaine donné, les nouveaux problèmes peuvent être structurellement superposés à des problèmes précédemment résolus. Anderson appelle cette superposition de problèmes "analogie structurelle". Si l'on continue longtemps ce processus pour divers types de problèmes, on dit que la connaissance est compilée sous forme de procédures spécifiques. Nous analyserons ces mécanismes plus en détails dans la section 2.4. 1.5. Le triangle outil-tâche-utilisateur L'approche ergonomique prend en compte l'utilisateur, la tâche et l'outil dans le processus de conception. Elle prend aussi en compte les interactions entre les trois composantes. L'approche ingénierie classique est centrée sur la construction de l'outil, la tâche et l'utilisateur sont généralement considérés de façon implicite. La tâche doit être modélisée suite à une analyse de tâche ou à une modélisation du processus sur lequel on désire appliquer l'outil à concevoir. Ce travail d'appréhension de la tâche donne lieu à des simulations conceptuelles ou matérielles (qui se traduisent généralement sous la forme d'un programme informatique). Les résultats de ce type d'analyse donnent un ensemble de spécifications pour l'outil. L'utilisateur est très rarement pris en compte dans la phase de 28 Habilitation - Guy Boy - 1992 conception. Sa prise en compte ne peut être qu'incrémentale sous la forme d'un modèle d'utilisateur dont on spécifie progressivement la syntaxe et la sémantique, ou/et basée sur des modèles analogiques développés dans le passé et adaptés à la tâche en cours. Les interactions entre la tâche et l'outil fournissent les besoins en informations pour l'utilisateur ainsi que les limites technologiques imposées sur la tâche par l'outil. Les interactions entre la tâche et l'utilisateur peuvent être appréhendées par une analyse de l'activité de l'utilisateur accomplissant la tâche. Ce type d'analyse ne peut être qu'incrémentale puisque la nature de la tâche peut être modifiée par l'outil. Les interactions entre l'outil et l'utilisateur concernent à la fois la présentation des informations et les commandes fournies à l'utilisateur pour manipuler l'outil. Ceci se traduit sous la forme du triangle outil-tâche-utilisateur (Figure 3). Tâche Besoin en informations et limites technologiques Analyse de la tâche et analyse de l'activité Outil Utilisateur Interaction et interface Figure 3. Le triangle outil-tâche-utilisateur 29 Habilitation - Guy Boy - 1992 30 Habilitation - Guy Boy - 1992 2. Approche Empirique et Rationalisation de Concepts "... la survie des théories scientifiques dépend de leur capacité à expliquer des phénomènes empiriques d'une manière plus adéquate que les théories rivales." Herbert Simon (1984). 2.1. Introduction A partir de quel moment pouvons nous déclarer qu'un système est terminé et peut être utilisé sans problème ? La certification est un processus difficile dans lequel il s'agit de montrer qu'un outil sera satisfaisant dans n'importe quelle situation appartenant à un certain domaine d'utilisation. D'habitude, la partie difficile consiste à définir des critères et de normes qui seront acceptables socialement par un grand nombre d'experts du domaine et d'autres personnes qui seront directement concernées par l'utilisation de l'outil. La responsabilité de la définition de telles normes incombe à des autorités nationales et internationales reconnues. Par exemple, on a maintenant l'habitude de voir des labels de garanties sur des appareils ménagers. Ces labels garantissent que les appareils qui les portent marcheront dans des conditions bien spécifiées. De telles normes évoluent dans le temps. De plus, il est difficile de tester ces appareils par rapport à ces normes tant qu'ils sont neufs. En réalité, les normes de certification sont habituellement redéfinies en fonction de l'évolution des outils et, en particulier, de leur utilisation. Une question intéressante est : peut-on placer la définition des critères d'évaluation et de certification le plus tôt possible dans la boucle de conception ? Cette question peut-être reformulée de la façon suivante : quels sont les moyens à mettre en œuvre pour une conception centrée sur l'utilisateur ? A mesure que les systèmes deviennent plus automatisés et intelligents, leur certification devient beaucoup plus difficile. De tels systèmes sont intensifs en connaissances dans le sens où ils incluent une expertise combinée d'un ensemble de personnes choisies. L'évaluation de leur complétude et de leur cohérence sont deux problèmes majeurs. A l'extrême et à titre de métaphore, les êtres humains sont évalués par l'intermédiaire d'examens pendant leurs périodes scolaires et d'apprentissage. Pendant leur vie, les êtres humains s'auto-évaluent continuellement et sont évalués par d'autres. En prenant le point de vue de Ford and Agnew (1992), l'expertise (c'est-à-dire la connaissance) se situe par rapport à un contexte social, est personnellement construite et est adaptée au monde réel. Ceci rend le processus d'évaluation des systèmes à base d'expertise extrêmement difficile. Il existe un problème majeur lorsque les utilisateurs (et même des experts du domaine) possèdent des constructions mentales (constructs) différentes de celles des "expertsconcepteurs". Ceci entraîne des problèmes de communication que nous analysons dans la section 2.2. 31 Habilitation - Guy Boy - 1992 Les systèmes que nous étudions ici sont complexes (du point de vue de leur structure et de leur fonction) et difficiles à comprendre pour un non-spécialiste. Par exemple, les avions modernes, les centrales nucléaires, les ordinateurs, la documentation, etc. sont des systèmes complexes. Qu'entendons nous par systèmes "intelligents" ? Littéralement, ces systèmes devraient être capables d'interagir avec leur environnement, d'être experts, de faire des erreurs et des fautes comme les êtres humains, d'apprendre et de se souvenir, d'avoir de l'humour, etc. Collins and Smith (1988) mentionnent que: "La perspective d'intérêt [en sciences cognitives] a grandi de deux développements: (1) l'invention des ordinateurs et, tout de suite après, les essais de conception de programmes qui pourraient accomplir le même types de tâches actuellement accomplies par les êtres humains, et (2) le développement de la psychologie basée sur l'information, appelée aujourd'hui psychologie cognitive, qui a essayé de spécifier les traitements internes mis en jeu dans la perception, la mémoire et la pensée. Les sciences cognitives ont été une synthèse des deux, prenant en compte à la fois les détails du traitement cognitif humain et la modélisation informatique de ces processus." L'article classique de Turing (Turing, 1950) pose une question qui se situe au cœur des sciences cognitives : Est-ce qu'une machine (ou un système) peut afficher la même sorte d'intelligence qu'un être humain ? Les systèmes conviviaux permettent aux êtres humains d'étendre leurs capacités cognitives. De tels systèmes ne peuvent pas être qualifiés d'intelligents dans le sens où nous l'entendons pour les êtres humains, mais ils permettent une interaction "intelligente" avec les utilisateurs. En intelligence artificielle (IA), le comportement intelligent est défini comme suit : confronté à un but, un ensemble de principes d'action doivent être utilisés pour passer d'une situation initiale à une situation finale qui satisfait un but. En accord avec ce modèle, l'un des buts de l'IA est de construire des machines "intelligentes" capables d'interagir avec leur environnement (Boy, 1991). Une question cruciale est : de quelle manière "l'intelligence" de ces systèmes est-elle perçue et comprise par des êtres humains ? Dans cette perspective, le concept d'agent est essentiel. Les agents peuvent être des êtres humains ou des machines. Les activités de travail moderne entraînent un ensemble de questions concernant le partage des tâches et des responsabilités entre les agents humains et machines. Un premier modèle des interactions entre agents humains et machines a été développé pour la certification d'avions de transport modernes dans le projet MESSAGE (Boy & Tessier, 1985). Les systèmes et les machines qui ont été analysés ne sont pas à proprement parlé "intelligents" dans le sens IA actuel. Cependant, ils sont hautement automatisés, tels que les systèmes de gestion du vol pour contrôler la navigation. Cette automatisation accrue prend en compte un certain nombre de tâches cognitives très importantes qui étaient réservées aux êtres humains dans le passé. Il est très difficile d'acquérir l'expertise des experts (Feigenbaum & Barr, 1982; Leplat, 1985). Plusieurs années de travail dans la communauté de l'acquisition de connaissances ont mis en évidence que le problème n'est pas tellement "d'extraire" des connaissances pré-existantes de l'expert, mais plutôt de fournir les "bons" outils qui permettent de modéliser la performance de l'expert. Cette modélisation est généralement réalisée par 32 Habilitation - Guy Boy - 1992 une collaboration de l'expert avec un spécialiste de l'acquisition de connaissances. Ce type d'argumentation a déjà été rapporté par Gaines (1992), et fortement supporté par Clancey (1990). En fait, "la progression du behaviorisme vers les sciences cognitives a amené beaucoup de changements dans nos méthodologies, techniques expérimentales, et modèles des activités humaines" (Gaines, 1992). Dans le même article, Gaines continue son argument comme suit : "Le changement subtil de terminologie entre la psychologie cognitive et les sciences cognitives a marqué un changement majeur de modèle dans notre approche des systèmes intelligents. Il a ouvert la question de savoir si un système artificiel, un mécanisme, peut être intelligent et, si c'est le cas, comment cette intelligence diffère de la nôtre. Ce faisant, il a posé les questions fondamentales sur les fondations systémiques de l'intelligence. Il a aussi ouvert des questions du type: quels systèmes peuvent être regardés comme intelligents ? Si nous considérons les gens et les ordinateurs, pourquoi pas des sociétés, des cultures, les espèces, la biomasse, l'univers ? Qu'est-ce qu'un système cognitif ?" En donnant une explication du fait que l'intelligence émerge de composantes nonintelligentes, Minsky (1985) défend le point de vue interactioniste de l'intelligence. L'approche interactioniste est très récente. Elle est basée sur le principe que la connaissance est acquise et structurée itérativement par interactions successives avec d'autres acteurs ou des agents autonomes. Cette approche est sociologique (versus psychologique). L'interaction et l'auto-organisation sont les facteurs clefs de la construction de concepts généraux. Ils existe deux courants principaux : les réseaux d'automates (von Neumann, 1966; McCulloch & Pitts, 1943; Rosenblatt, 1958) et le connexionisme (Rumelhart et al., 1986; McClelland et al., 1986); et l'IA distribuée (Minsky, 1985; Hewitt, 1977; Lesser & Corkill, 1983). Selon ce point de vue, les processus cognitifs ne sont pas dans les individus mais dans l'interaction entre les individus (Hegel, 1929). Dans cette thèse, nous nous basons sur ces modèles pour l'analyse, la conception et l'évaluation des interactions "intelligentes" (ou naturelles12) entre humains et machines modernes. Le problème de l'évaluation de systèmes Homme-machine fait face au problème général de la mesure en psychologie et en sciences cognitives. Puisque nous avons adopté le point de vue que l'intelligence réside dans les interactions, pouvons nous trouver des mesures qui identifient la qualité de telles interactions ? Les objets physiques sont perçus par leurs propriétés et leurs attributs. La mesure par inférence est très utilisée en psychologie. De tels attributs (ou propriétés) abstraits comme l'intelligence ne sont jamais mesurées directement mais doivent être inférés de comportements observables. Par exemple, mesurer la température en touchant le front de quelqu'un, ou en lisant un thermomètre pour inférer la fièvre. Une question importante est : qui définit ou ratifie de telles mesures ? Qui peut être qualifié d'autorité de certification ? 12Cette notion d'interactions naturelles résume le fait que si l'être humain interagit "naturellement" avec le système, l'équipe résultante génère une certaine intelligence au sens de Minsky. 33 Habilitation - Guy Boy - 1992 L'interaction entre un être humain et une machine "intelligente" est basée sur la définition d'une structure et d'une fonction qui permettent cette interaction. La structure permettant l'interaction est habituellement appelée interface-utilisateur, cockpit, panneau de commande, etc. La fonction prend la forme de procédures, de checklists, etc. Il existe toujours un compromis à trouver entre structure et fonction. La qualité de l'interfaceutilisateur (e.g., assure la transparence des processus à contrôler) a des répercussion directes sur la longueur et la rigueur des procédures requises. Les procédures sont toujours utilisées lorsqu'il existe des risques de sécurité dans le contrôle de processus. Une autre dimension de "l'intelligence-machine" se situe au niveau de l'interface. Les interfaces conviviales étendent mieux les capacités cognitives humains, et augmentent donc l'intelligence des interactions (Engelbart, 1963). Nous donnons ici une approche de la certification et l'évaluation de systèmes Hommemachine. Elle est basée sur le fait que les modèles d'agents sont essentiels dans de tels processus d'évaluation. Notre expérience dans la certification de cockpits est prise à titre d'exemple pour montrer que des systèmes hautement interactifs sont nécessaires pour stocker itérativement la connaissance d'évaluation. De plus, notre expérience nous a montré que le concept d'agent est très utile dans l'évaluation de l'interaction cognitive Homme-machine. Le modèle reconnaissance de situation / raisonnement analytique est présenté comme un guide pour analyser les aspects cognitifs des interactions Hommemachine (section 2.2). La section 2.4 présente le modèle reconnaissance de situation / raisonnement analytique (RSRA). Ce modèle est utile pour conceptualiser divers types de comportements et d'interactions entre agents. Le concept d'intelligence intégrée hommemachine (IIHM) est introduite dans la section 2.5. Le cadre de travail introduit par l'IIHM est utile pour la validation des équipes homme(s)-système(s) "intelligent(s)". La section 2.6 pose quelques questions importantes relatives aux systèmes "intelligents" qui sont utiles pour leur certification et leur validation. La section 2.3 est centrée sur divers modèles de communication Homme-machine utiles pour évaluer les diverses étapes d'évolution des capacités de communication de tels systèmes. Enfin, nous discuterons des extensions possibles de ce point de vue des problèmes de certification et d'évaluation pour des environnements de haute technologie. 2.2. L'expérience de la certification de cockpits "Here are the most common (and effecive) cognitive aids in the cockpit: —Speed bugs: little metal or plastic tabs that the pilots can move around the outside of the aispeed indicator to help them remember critical settings. —Crew-provided devices; written notes, coffee cups, and tape. —Checklists." Donald Norman (1992)13. Nous avons développé une méthode pour analyser les interactions entre les divers protagonistes du système aérien (Boy & Tessier, 1985). Cette méthode est basée sur le 13"Voici les aides cognitives les plus communes dans le cockpit: —Des curseurs de vitesse : petits tabulateurs métalliques ou plastiques que les pilotes peuvent déplacer autour de l'indicateur de vitesse pour les aider à se souvenir des consignes critiques. —Des équipements fournis par l'équipage; des notes écrites, des tasses à café et un rouleau de papier collant. —Des checklists". 34 Habilitation - Guy Boy - 1992 système appelé MESSAGE, Modèle d'Equipage et des Sous-Systèmes Avion pour la Gestion des Equipements. MESSAGE est basé sur des heuristiques données par des experts. En ce sens, c'est une système à base de connaissances. Son domaine d'expertise est une modeste intersection entre l'ergonomie et l'aviation commerciale. MESSAGE est basé sur un modèle d'opérateur à cinq niveaux (Boy, 1983) : — — — — — l'interface Homme-véhicule pour l'acquisition d'informations; la coordination et la gestion des canaux émetteurs et récepteurs; la reconnaissance de situation; la décision stratégique; les processus d'exécution de plans. MESSAGE est un outil informatique d'analyse qui fournit une time-line d'une mission, et l'évolution des différents indices représentant différentes charges reliées à divers processus cognitifs. Les indices de charge de travail comportent un aspect statique de la situation (exigence de la tâche) et un aspect dynamique relié à la gravité de la situation courante (activité de l'opérateur). 2.2.1. Le modèle d'agent du système MESSAGE Le modèle d'agent proposé ici est un développement du modèle classique de traitement de l'information de Newell & Simon (1972). Il a été développé dans le cadre du projet MESSAGE pour analyser et évaluer le cockpit d'un avion de transport (Boy, 1983). Il utilise un superviseur qui gère trois types de processus appelés canaux récepteurs, émetteurs et cognitifs (Figure 4). La fonction du superviseur est analogue à celle du tableau noir de Nii (1986). Chaque canal échange des informations avec le superviseur. Le concept de processus automatique et contrôlé, introduit et observé expérimentalement par Schneider et Shiffrin (1977), a été mis en œuvre au niveau du superviseur du modèle d'agent du système MESSAGE (Tessier, 1984). Ceci permet de générer et d'exécuter des tâches soit en parallèle (automatismes) soit en séquence (actes contrôlés). Les processus automatiques ou automatismes font appel à un type de représentation de connaissance qui sera décrite comme la représentation situationnelle (section 2.4.1) Les processus contrôlés peuvent être définis par une représentation analytique (section 2.4.2). Ce modèle a été décrit de façon extensive dans (Tessier, 1984). 2.2.2. Utilisation du système MESSAGE pour la certification de cockpit MESSAGE a été utilisé pour mesurer des indices de charge de travail et de performance et pour mieux comprendre le transfert et le traitement de l'information dans des environnements équipage-cockpit. Les entrées sont constituées de connaissances de traitement (sous la forme de règles) et de données de missions à analyser. Les sorties sont la performance et la gravité de la situation (fonction de tolérance -- voir la section 2.4.3 35 Habilitation - Guy Boy - 1992 de ce chapitre), les exigences de la tâche (fonctions statiques), et les perceptions de chaque agent en fonction du temps, ainsi que la mission simulée. Environnement (Situation réelle) Canaux récepteurs Canaux émetteurs Superviseur Reconnaissance de situation Situation perçue CS Situation désirée MLT Mode Résolution de Problème CA MCT Mode Procédural Canaux cognitifs MLT : Mémoire à long terme MCT : Mémoire à court terme CS : Connaissance situationnelle CA : Connaissance analytique Figure 4. Modèle d'agent. Les données de la mission à analyser incluent des paramètres continus enregistrés pendant un vol simulé ou réel prétraité, et des événements discrets provenant d'enregistrements video et audio. La mission simulée est une séquence reconnue (parfois plus courte) des donnés d'entrée de la mission augmentées de nouveaux événements générés par MESSAGE. Les règles de traitement sont acquises et modifiées itérativement, en prenant en compte la pertinence et la précision de la mission simulée et la signification des indices calculés en fonction du temps. Ce processus d'acquisition et de raffinement de connaissances doit être accompli par (ou en collaboration étroite avec) des experts du domaine. MESSAGE a été conçu et utilisé au début des années 1980. A ce moment là, la technologie des interfaces utilisateurs graphiques n'étaient pas développées comme elle l'est aujourd'hui. Cette contrainte a introduit des limitations significatives au niveau de l'utilisation du système MESSAGE. En effet, l'utilisation d'un tel système pour analyser 36 Habilitation - Guy Boy - 1992 des données de mission doit être très interactive. Ceci est du au fait que l'évaluation des facteurs influençant l'interaction Homme-machine est intimement liée au processus d'acquisition et de validation des connaissances (processus en boucle). Il semble aujourd'hui que ceci soit général aux processus de certification et d'évaluation. En effet, la connaissance de tels processus est acquise lorsque ces processus sont accomplis (connaissance épisodique -- voir section 1.4.3). Donc, un résultat important du projet MESSAGE est que des outils conviviaux, hautement interactifs, doivent être développés pour l'évaluation des interactions Homme-machine. 2.2.3. Modélisation d'agents pour évaluer l'interaction Hommemachine MESSAGE a été conçu et développé comme un système multi-agent simulant les interactions entre des êtres humains et des machines dans le domaine de l'aviation. Un agent est une entité interagissant avec son environnement. Que ce soit un être humain ou une machine, il peut être modélisé par le modèle d'agent décrit dans la section 2.2.1. L'interaction entre agents est très sensible à la structure du champ social. La structure du champ social est un réseau de relations informationnelles entre agents. Elle est caractérisée par la structure et la nature des messages échangés. Par conséquent, l'environnement d'un agent est défini par l'ensemble des autres agents (et de leurs comportements potentiels) dans le champ social. Un agent "intelligent" devrait être capable d'anticiper les réactions de l'environnement ainsi que les conséquences de ses propres actions. Cette anticipation s'opérera sur les messages (Figure 5) provenant soit de l'environnement (entrées externes ou observations, par exemple, m1 et m2) ou de l'agent lui-même (entrées internes ou messages intentionnels ou inférés, par exemple, m3 et m4). m1 m3 Agent 1 Agent 2 m4 m2 Figure 5. Messages et Agents Un cockpit, par exemple, est un réseau d'agents. Le pilote interagit avec les autres agents. Il connait les relations complexes de ce réseau d'agents. A partir de l'observation de leurs comportements individuels, il interprète constamment le comportement global de l'avion. A titre de métaphore, le pilote se trouve dans une situation similaire à celle d'un gestionnaire interagissant avec ses collaborateurs pour mener à bien un travail nécessitant un effort de groupe. Habituellement, chaque membre de l'équipe essaye de construire une représentation dynamique du champ social dans lequel il se trouve. Récemment, Hutchins (1991) a décrit ce modèle comme le cadre des sciences cognitives (cognitive science frame). Il a appliqué cette approche au problème de la mémorisation (par le pilote) de la 37 Habilitation - Guy Boy - 1992 vitesse dans un cockpit d'avion. Dans le même esprit, Hutchins présente un cadre de travail théorique qui considère le groupe fonctionnel comme son unité première, plutôt que le cerveau de l'individu. En d'autres termes, Hutchins privilégie l'aspect social du groupe fonctionnel sur l'aspect cognitif interne de chaque individu composant le groupe. Ce point de vue prend en compte des représentations de l'information et la façon dont ces représentations sont transformées et propagées à travers le système. 2.3. Modélisation de la communication entre agents 2.3.1. Comprendre comment les agents partagent les rôles Dans le futur, les agents artificiels et humains accompliront des tâches intelligentes dans le contexte d'un système intégré. Chacun aura des responsabilités, aura besoin d'accéder à des ressources communes et aura des tâches particulières à accomplir en accord avec son niveau de connaissance. Certaines tâches peuvent être accomplies en parallèle, d'autres peuvent demander des résultats de tâches accomplies par d'autres agents. L'équilibre du partage des fonctions intelligentes peut être caractérisé comme un continuum: Manuel Interactif Automatisé Dans les systèmes complètement manuels ou automatiques, l'utilisateur et la machine sont effectivement découplés. Dans la frange intermédiaire, où les systèmes IIHM sont définis, les agents humains et artificiels peuvent interagir par communication. Lorsqu'il conçoit des systèmes intégrés, le concepteur doit considérer la nature des communications entre agents, humains et artificiels. Le type d'interaction dépend, en partie, de la connaissance que chaque agent a des autres. Un agent interagissant avec un autre agent, appelé un partenaire, peut appartenir à deux classes : 1. l'agent ne connait pas son partenaire; 2. l'agent connait son partenaire. La seconde classe peut être décomposée en deux sous-classes : a. l'agent connait son partenaire indirectement (en utilisant une base de données partagées par exemple); b. l'agent connait son partenaire explicitement (en utilisant des primitives de communication clairement comprises par le partenaire). Cette classification amène à trois relations entre les deux agents communicants : A. compétition; 38 Habilitation - Guy Boy - 1992 B. coopération par partage de données communes; C. coopération par communication directe. Dans le cas de la compétition, l'agent est totalement ignorant de l'existence des autres agents. Ceci peut mener à des conflits pour le partage des ressources existantes. Donc, il est nécessaire de définir un ensemble de règles de synchronisation pour éviter les problèmes d'allocation de ressources entre agents. Typiquement, ces règles de synchronisation doivent être prises en compte par un superviseur. Le superviseur peut être l'un des partenaires ou un agent extérieur. Bien sûr, si les ressources disponibles dépassent les demandes de tous les agents, des conflits sont automatiquement évités. Dans le monde réel, nous ne connaissons pas à l'avance toutes ces demandes et il est impossible de créer des ressources physiques sur demande. Dans le cas de la coopération par partage de données communes, l'agent sait que son partenaire existe parce qu'il est au courant des résultats d'au moins certaines actions de son partenaire. Tous les deux utilisent une base de données partagée. Les agents utilisent et actualisent cette base de données. Un exemple pourrait être que les deux agents notent toutes leurs actions sur un tableau noir auquel chaque agent se réfère avant d'agir. Ceci n'est plus un problème d'allocation de ressources, mais un problème de partage de données que chaque agent peut utiliser puisqu'il y est autorisé. Les agents doivent coopérer pour gérer la base de données partagée. Ce paradigme est appelé système orienté-données. Un tel système doit contrôler la cohérence des données partagée. Des relations de coopération entre agents n'excluent pas des relations compétitives. Les données partagées sont généralement supportées par des ressources pour lesquelles les agents correspondant peuvent entrer en compétition. Dans ce cas, des règles de synchronisation prennent en compte la résolution des conflits d'allocation de ressources et le test de la cohérence des données correspondantes. Dans les cas précédents, l'interaction est toujours indirecte. Dans le cas de la coopération par communication directe, les agents partagent des règles du jeu communes et un langage commun exprimé sous forme de messages, par exemple, les experts d'un même domaine coopérant pour résoudre un problème. 2.3.2. Niveaux d'autonomie Les opérateurs humains ne sont pas bons dans les tâches de monitoring s'ils ne sont pas engagés dans une activité cognitive reliée au système contrôlé. Ils ne sont pas aussi bons que les machines dans les tâches hautement répétitives, complexes, ou très critiques dans le temps. Donc, un concepteur doit établir un équilibre entre le contrôle total par l'utilisateur et le contrôle autonome de la machine. Le partage d'autonomie entre l'Homme et la machine est très important et peu compris. Dans cette section, nous étendons le concept de niveaux d'automatisation introduit par Sheridan (1984). Nous donnerons ici un modèle théorique (Boy, 1986) de la performance d'un système simple Homme -machine à différents niveaux d'autonomie déterminé par différents niveaux de compréhension ou de connaissance sur le système Homme-machine 39 Habilitation - Guy Boy - 1992 (figure 8). L'axe horizontal représente un continuum de niveaux d'autonomie allant du “contrôle manuel” à “automatisation complète". L'axe vertical représente la performance du système Homme-machine. La performance peut être liée au temps, à la précision des résultats, au coût de résolution d'un problème donné ou à tout critère heuristique approprié pour mesurer la performance. Chaque courbe de la figure 6 correspond à un niveau de connaissance que le concepteur a de la tâche. (En général, une meilleure connaissance du concepteur conduit à une plus grande performance du système conçu.) CONNAISSANCE PERFORMANCE DU SYSTEME HOMME-MACHINE LIMITATIONS TECHNOLOGIQUES NIVEAUX D'AUTONOMIE HOMME OPTIMUM MACHINE Figure 6. Performance du Système Homme-Machine versus Niveaux d'Autonomie. En suivant ce modèle, la performance du système Homme-machine croît avec l'autonomie de la machine, mais seulement jusqu'à un certain optimum, après lequel elle décroît. Si l'autonomie de la machine est encore accrue, l'opérateur humain peut perdre le contrôle de la situation (il peut ne plus comprendre le comportement de la machine). Il convient de noter que le niveau d'autonomie peut être accru jusqu'à une certaine limite fixée par les limitations technologiques. Aujourd'hui, la plupart des projets d'ingénierie sont développés sur ces limitations technologiques, en d'autres termes les machines sont construites aussi bien que possible selon des critères d'optimisation strictement centrés sur la machine. Dans notre approche, les critères d'optimisation sont centrés sur la performance du système Homme-machine. Une telle approche nécessite des simulations et/ou une expérimentation en grandeur nature. Les optima de performance du système Homme-machine peuvent être déplacés vers la droite si les opérateurs humains sont très bien entraînés. Globalement, lorsque le niveau de compréhension et de connaissance croît, ces optima peuvent se déplacer vers le haut et vers la droite. Finalement, si tout est connu sur le contrôle de la machine dans son environnement, alors l'optimum correspondant est situé sur la limite d'autonomie complète. Chercher expérimentalement ces optima constituent une bonne méthode d'acquisition et d'évaluation des connaissances, en d'autres termes le concepteur saute d'une courbe à une autre plus haute lorsqu'il acquiert plus de connaissances sur l'utilité du système Homme-machine. 40 Habilitation - Guy Boy - 1992 2.3.3. Attributs de l'automatisation centrée sur l'Homme Wiener et Curry (1980) ont discuté les exigences de l'automatisation. Ils différencient le contrôle de la surveillance. Billings (1991) a récemment retracé le diagramme des fonctions de surveillance et de contrôle (Figure 7). Billings (1991) donne les attributs suivants pour l'automatisation d'un avion : — redevable, c'est-à-dire sujet à donner une analyse et une explication justificatrice; — subordonné, c'est-à-dire placé dans ou occupant une classe, rang ou position plus faible; — prédictible, c'est-à-dire capable de prédire sur la base d'observations ou de l'expérience; — adaptable, c'est-à-dire capable d'être modifié en accord avec des circonstances changeantes; — compréhensible, c'est-à-dire intelligible; — simplicité, c'est-à-dire comme Albert Einstein l'a dit "Tout devrait être fait aussi simple que possible, mais pas plus simple"; — flexible, c'est-à-dire caractérisé par une capacité à s'adapter à des exigences nouvelles, différentes ou changeantes; — sûr, c'est-à-dire capable d'être ... "quelqu'un" sur qui on peut compter, on peut faire confiance; — informatif, c'est-à-dire l'opérateur doit toujours avoir les informations de base (vitales) ; — résistance aux erreurs, c'est-à-dire prévoyant l'occurrence de toutes les erreurs; — tolérance des erreurs, c'est-à-dire permettant des erreurs humaines. Cette liste offre les concepts essentiels à prendre en compte dans la conception et l'évaluation de système IIHM. 41 Habilitation - Guy Boy - 1992 . Ennui . Complaisance . Erosion de la Compétence Auto L'ordinateur surveille Le pilote contrôle Fonctions de Surveillance L'ordinateur contrôle Le pilote surveille Manuel Manuel . Fatigue . Forte Charge de Travail Fonctions de Contrôle Auto Figure 7. Fonctions de surveillance et de contrôle (Wiener & Curry, 1980; Billings, 1991) 2.4. Le modèle reconnaissance de situation / raisonnement analytique La qualité d'une communication entre deux individus repose sur la compréhension réciproque du modèle interne de l'autre. Par exemple, une discussion entre experts du même domaine se réduit à un langage opératif (Falzon, 1986), c'est-à-dire très situationnel. Dans ce cas, les experts ont des connaissances quasi-identiques sur le sujet : on dit que leurs modèles internes sont quasi-identiques. Au contraire, lorsqu'un professeur donne un cours à ses élèves, ils ne partage pas nécessairement le même modèle interne. En particulier, le professeur doit "décompiler" sa connaissance situationnelle pour la rendre intelligible aux novices, nous diront qu'il utilise une explication analytique pour se faire comprendre. La distinction entre analytique et situationnel n'est as nouvelle. Dans sa critique de l'intelligence artificielle, Hubert Dreyfus (1979) fait ressortir l'importance de la connaissance situationnelle dans l'expertise, et la difficulté de l'extraire et de la représenter pour la programmer sur un ordinateur. 42 Habilitation - Guy Boy - 1992 2.4.1. Représentation situationnelle Le terme situation est utilisé ici pour caractériser l'état de l'environnement. En général, il se réfère à l'état du monde. Une situation est décrite par un ensemble de composantes que nous appelerons des faits du monde. Pour un fait générique du monde ƒi, à un instant donné, il est possible de distinguer trois types de situations (Boy, 1983) : 1. La situation réelle caractérise l'état vrai du monde. Souvent, celle-ci n'est que partiellement disponible à l'opérateur. La situation réelle, à un instant donné t, est l'ensemble des faits du monde. A priori, cet ensemble est infini. 2. La situation perçue par l'opérateur caractérise une image du monde. Celle-ci est la partie du monde accessible à l'opérateur. Elle est caractérisée par des composantes qui sont incomplètes, incertaines et imprécises. La situation perçue par l'opérateur à un instant donné t est l'ensemble des faits du monde perçus par l'opérateur. Nous faisons l'hypothèse que l'ensemble des faits perçus est fini. Chaque fait perçu πi est le résultat de l'application d'un opérateur Pi sur un sous-ensemble des faits du monde. En général, l'opérateur Pi est "flou" au sens de Zadeh (1965, 1976). Nous faisons aussi l'hypothèse que tous les sous-ensembles des faits du monde caractérisant les faits perçus sont finis. 3. La situation désirée ou attendue par l'opérateur caractérise son ensemble de buts. La situation désirée par l'opérateur à un instant donné t est l'ensemble des buts que l'opérateur désire atteindre. Chaque but ∂i est le résultat de l'application d'un opérateur Di sur un sous-ensemble des faits du monde. En général, l'opérateur Di est flou. Nous faisons aussi l'hypothèse que tous les sous-ensembles des faits du monde caractérisant les buts sont finis. La situation réelle est un attribut de l'environnement. Les situations perçue et désirée sont des attributs de la mémoire à court terme de l'opérateur. Dans la terminologie utilisée en intelligence artificielle, la situation perçue représente la base de faits perçus et la situation désirée représente les buts. La notion de pattern14 situationnel (ou pattern) est fondamentale. Un pattern situationnel représente la situation attendue par l'opérateur à un instant donné. Nous dirons qu'un pattern situationnel est actif s'il est en mémoire à court terme. La situation attendue par l'opérateur à un instant donné t est l'ensemble des patterns situationnels résidant dans la mémoire à court terme de l'opérateur. Chaque pattern situationnel µi est le résultat de l'application de l'opérateur ∏i sur un sous-ensemble des faits du monde. En général, l'opérateur ∏i est flou. Nous faisons l'hypothèse que tous les sous-ensembles des faits du monde caractérisant les patterns situationnels sont finis. Nous disons aussi qu'un pattern est composé de conditions, chacune d'elles s'appliquant à un ensemble fini des faits du 14Nous conservons le terme anglais pattern au lieu de "patron" parce que nous considérons qu'il est passé dans les us et coutumes des sciences cognitives et de l'IA. 43 Habilitation - Guy Boy - 1992 monde. Un pattern situationnel est un élément de la mémoire à long terme de l'opérateur. Il résulte d'une longue période d'apprentissage. A chaque intervalle de temps, la vigilance de l'opérateur est caractérisée par le nombre et la pertinence des patterns situationnels activés dans la mémoire à court terme. En monitoring, par exemple, l'opérateur apparie les faits perçus avec les patterns situationnels. Reason (1986) appelle ce processus appariement par similarité (similarity matching). Si, à un instant donné, plusieurs patterns sont candidats pour une situation perçue, les résultats de Reason montrent que le pattern le plus fréquemment utilisé est choisi en premier. Il appelle ce processus pari fréquenciel (frequency gambling). En pratique, chaque fait ƒj est représenté par une variable vj (numérique ou logique) appartenant à un ensemble V, et par sa fonction de tolérance associée { TFi,j } à l'intérieur du pattern µi. Une fonction de tolérance (TF) est une application de l'ensemble V dans le segment [0,1]. Les éléments de V sont appelés "valeurs", par exemple, les valeurs d'une variable numérique. V est divisé en trois sous-ensembles : les valeurs préférées {TF(v)=1}, les valeurs permises {0<TF(v)<1}, et les valeurs inacceptables {TF(v)=0}. Ce modèle de fonction de tolérance permet de prendre en compte des variables numériques (par exemple, la température et la pression : Figure 8) et des variables logiques (par exemple, la position d'une vanne ou la valeur de vérité d'une expression logique : Figure 9). TF(v) 1 0 v Figure 8. Fonction de tolérance pour une variable numérique. Une échelle ordinale "subjective" peut être définie sur le segment [0,1] en accord avec la définition définition des trois sous-ensembles de valeurs. Cette définition est très largement applicable pour manipuler des concepts en langage naturel. En fait, une fonction de tolérance peut aussi être définie comme une fonction d'appartenance relative au concept de "tolérance". L'attrait de cette représentation est sa capacité à prendre en compte l'aspect vague inhérent au langage naturel, par exemple, "la pression P1 est proche de sa valeur maximum". 44 Habilitation - Guy Boy - 1992 TF(v) 1 0 v Figure 9. Fonction de tolérance pour une variable logique. 2.4.2. Représentation analytique Lorsqu'une situation est reconnue, elle suggère généralement une solution au problème. Un problème peut être défini comme un événement qui nécessite l'allocation immédiate de ressources parce qu'il ne peut pas être traité de façon automatique (au sens de Shiffrin et Schneider) et/ou l'événement est trop nouveau ou différent (Rappaport, 1986). Ces ressources intellectuelles peuvent être représentées par un réseau sémantique ou des règles d'inférence du type: SI <prémisses> ALORS <conséquences>. L'inférence peut être réalisée en chaînage avant (des données vers les conclusions) ou en chaînage arrière (des buts vers des actions de base). Hayes-Roth & Hayes-Roth (1978) ont qualifié d'opportuniste la résolution humaine de problème, en d'autres termes le chaînage est possible dans n'importe quel sens à tout instant. Les êtres humains ont tendance à structurer leur raisonnement en îlots de connaissances. Chacun de ces îlots est relié à un ou plusieurs patterns situationnels. Un îlot définit un contexte. La notion de contexte sera introduite dans la section 2.4.2 lorsque nous décrirons la représentation par bloc. Cette notion est approfondie dans le chapitre 3. 2.4.3. Connaissance compilée, instanciée et profonde Il semble raisonnable d'envisager que les patterns situationnels (i.e. connaissances situationnelles) sont compilées parce qu'ils sont le résultat d'un apprentissage de type entraînement. Nous avons montré (Boy, 1987a,b), dans un cas particulier de diagnostic de panne sur une système physique, que la connaissance situationnelle d'un expert résulte en grande partie de la compilation, au cours du temps, de la connaissance analytique sur laquelle il s'est reposée lorsqu'il était novice. Cette connaissance situationnelle constitue l'essence de l'expertise. Elle correspond à un comportement basé sur le habiletés dans la terminologie de Rasmussen. La "décompilation", c'est-à-dire l'explication de la connaissance intrinsèque de base contenue dans chaque pattern situationnel, est une tâche très difficile, et est parfois impossible. Une telle connaissance ne peut être acquise que 45 Habilitation - Guy Boy - 1992 par un processus itératif d'observation. La connaissance analytique peut être décomposée en deux types : les procédures ou savoir-faire, et la connaissance théorique : 1. La connaissance procédurale peut être représentée sous forme de plans instanciés. Elle peut être généralement traduite en règles de production et en logique propositionnelle. Par conséquent, elle est aussi le résultat de l'instanciation d'une connaissance plus générale. Nous utilisons ici les termes connaissance instanciée, connaissance de surface (ou superficielle) et connaissance procédurale pour désigner le même concept. La connaissance contenue dans les manuels d'opérations est presque exclusivement de ce type. Rasmussen (1979, 1983, 1986) associe le comportement basé sur les procédés (rule-based behavior) à ce niveau de connaissance. La connaissance procédurale est la plus facile à acquérir. Elle peut être plus ou moins facile à formaliser. 2. Un autre type de traitement, appelé exploration de la connaissance, est basé sur de la connaissance dite profonde (Van der Velde, 1986). Cette connaissance n'est pas toujours disponible dans tous les domaines et correspond aux fondements théoriques du domaine de référence. Plusieurs modèles (et parfois des théories) peuvent être utilisés pour décrire ou raisonner sur un système complexe. En diagnostic de pannes, par exemple, on pourrait développer un modèle structurel du système à diagnostiquer et le décomposer en composantes de base et relations entre ces composantes. Parfois, un modèle géométrique est nécessaire. Un modèle fonctionnel permettra de simuler le comportement de diverses composantes. Un diagramme causal peut être tracé pour établir les diverses connections entre les propriétés de ces composantes. Le type de raisonnement associé fera appel à un mécanisme d'instanciation d'une connaissance plus générale. Cette connaissance est organisée par rapport à la structure du champ du problème à résoudre : sa topologie, sa fonctionnalité, sa causalité, et d'autres aspects tels que la hiérarchisation d'objets et l'autonomie et hétéronomie des diverses parties du système. La connaissance profonde constitue la base du comportement basé sur la connaissance (knowledgebased behavior) selon Rasmussen. 2.4.4. Evaluation dynamique guidée par un modèle évolutif d'utilisateur Les systèmes "intelligents" sont des extensions électroniques des capacités de l'utilisateur. Ce sont des médiateurs entre les parties mécaniques et logiques d'un système qui partagent quelques fonctions intelligentes avec l'utilisateur. Les copilotes électroniques, les manuels "intelligents" d'utilisation et les blocs-notes "intelligents" sont des exemples de tels systèmes. Un exemple de système Homme–machine est le système de ravitaillement orbital de la navette spatiale américaine (Orbital Refuelling System15 : ORS). L'ORS a été utilisé pour 15Nous avons travaillé sur les données expérimentales de la manipulation de l'ORS effectuée par l'astronaute Cathy Sullivan en octobre 1984 dans l'espace.. 46 Habilitation - Guy Boy - 1992 ravitailler des satellites en hydrazine pour les réutiliser. Il est commandé par des astronautes effectuant des activités extra-véhiculaire. Ces activité sont haut risque. Un système "intelligent", appelé Human-ORS-Expert System (HORSES), a été développé pour accomplir des tâches de diagnostic de pannes (Boy, 1986). HORSES a été testé au cours d'une série d'expériences avec des utilisateurs travaillant dans un environnement simulé de l'ORS. Un générateur de pannes, fonctionnant en parallèle et communicant par l'intermédiaire d'une mémoire partagée sur un ordinateur MASSCOMP, générait des scénarios de pannes pour l'ORS à des instants appropriés au cours de simulations. Ces expériences ont produit des données montrant la façon dont les utilisateurs se sont adaptés à la tâche, et la façon dont la performance a varié en fonction de l'évolution des différents paramètres. A partir de ces données, nous avons développé le modèle d'opérateur suivant. Patterns Situationnels Novice Expert Connaissance Analytique s1 A1 s2 A2 sn An S1 a1 S2 a2 SN aN Figure 10. Modèle de reconnaissance de situation / raisonnement analytique . L'identification de pannes peur être représenté dans le cadre du modèle reconnaissance de situation / raisonnement analytique (RSRA) (Figure 10). RSRA est un modèle évolutif d'opérateur. Dans l'état de l'art actuel, il est reconnu que les gens utilisent des morceaux (chunks) de connaissance pour diagnostiquer des pannes. Un chunk16 de connaissance est activé suite à l'appariement d'un pattern situationnel avec une situation perçue critique. Cet appariement est soit total soit partiel. Suite à la reconnaissance de situation, un raisonnement analytique est en général mis en œuvre. Ce processus analytique donne deux types de sorties : un diagnostic ou des nouveaux patterns situationnels. Les chunks de connaissance sont très différents entre les novices et les experts. Les patterns situationnels des novices sont simples, précis et statiques, par exemple “La pression P1 est inférieure à 50 psia”. Le raisonnement analytique qui suit est généralement compliqué et long. Lorsqu'un novice utilise un manuel d'opérations pour 16Le terme chunk est utilisé par plusieurs auteurs en IA. Dans notre approache, un chunk va symboliser une partie du processus de raisonnement. Cette notion préliminaire préfigure la représentation par bloc que nous avons développé plus formellement (voir section 2.5.2). 47 Habilitation - Guy Boy - 1992 faire un diagnostic, son comportement est basé sur une logique d'ingénieur précompilée récemment apprise. Par contre, lorsqu'il essaye de résoudre un problème directement, l'approche est très déclarative et utilise des principes de base du domaine (connaissance profonde). Nous avons observé que les sujets novices ont développé, avec la pratique, une logique procédurale personnelle (logique de l'opérateur), soit à partir de la logique de l'ingénieur précompilée ou directement à partir d'une approche du type résolution de problème. Ce processus est appelé compilation de la connaissance. Au contraire, les patterns situationnels des experts sont sophistiqués, flous et dynamiques, par exemple “Pendant le transfert de carburant, l'une des mesures de pression du carburant approche de la limite isotherme et cette pression décroît”. Ce pattern situationnel comporte plusieurs variables implicites définies dans un autre contexte, par exemple “Pendant le transfert de carburant” veut dire “en configuration de lancement, les vannes V1 et V2 sont fermées, et V3, V4, V7 ouvertes”. “L'une des mesures de pression” est aussi une déclaration plus générale que “La pression P1”. La déclaration “approche de la limite isotherme” peut être représenté par un modèle mathématique dynamique, c'est-à-dire à chaque instant, les valeurs de la pression de carburant sont comparées de façon floue (“proche de”) à une limite variant dans le temps [Pisoth = f(Quantité, Temps)]. De plus, les experts prennent en compte ce pattern situationnel seulement si “la pression décroît”, qui est un autre pattern dynamique et flou. Une explication plausible est que les experts ont transféré une partie de la connaissance utilisée jadis pour un raisonnement analytique dans des patterns situationnel. Cette partie semble être liée à des aspects dynamiques. Nous avons donné un modèle de ce type d'apprentissage dans (Boy & Delail, 1988). Par conséquent, par apprentissage, des modèles dynamiques sont introduits dans des patterns situationnels. Il est aussi clair que les experts détectent des ensembles de situations plus larges. Tout d'abord, les experts semblent fuzzifier17 et généraliser ces patterns. Ensuite, nous avons observé que les experts construisent des patterns mieux reliés à la tâche qu'à la logique de fonctionnement du système. Enfin, pendant la phase analytique, ils ont perturbé le système contrôlé pour obtenir des patterns situationnels plus familiers généralement statiques : par exemple, dans les expériences que nous avons menées sur l'ORS, nous avons observé que les pilotes (opérateurs) experts ont arrêté le transfert de carburant après avoir reconnu une situation critique. 17Le verbe "fuzzifier" signifie "rendre flou" (Dubois & Prade, 1985). 48 Habilitation - Guy Boy - 1992 P P1 Q1 INDICATEUR (P, Q) Q Figure 11. Utilisation du pattern situationnel [Pisoth = f(Quantité, Temps)] pour la construction de l'indicateur de position et de tendance de la pression P en fonction de la quantité Q. Les généralisations suivantes peuvent être tirées des expériences sur HORSES. Tout d'abord, en analysant les interactions Homme–machine, nous avons pu concevoir une présentation graphique donnant une information plus polysémique à l'expert (par exemple une fenêtre présentant les limites isothermes pertinentes en fonction de la situation). Les présentations polysémiques comportent plusieurs types d'informations reliées entre elles présentées simultanément et compréhensibles par les experts. Ces présentation polysémiques ont été dérivées de patterns situationnels. Ceci améliore la performance du système Homme-machine. Dans l'exemple ci-dessus, le pattern situationnel constitué par l'intervalle dynamique compris entre les deux courbes [Pisoth = f1(Quantité, Temps)] et [Padiab = f2(Quantité, Temps)] (voir les deux courbes exponentielles sur le diagramme de gauche de la figure 11) peut être utilisé pour construire un indicateur de position et de tendance de la pression P en fonction de la quantité Q (voir l'évolution du point (P, Q) sur l'indicateur de droite de la figure 11). L'utilisation de cet indicateur a été concluante. Ensuite, le système d'assistance HORSES a montré un équilibre dans le partage de l'autonomie. Le concepteur du système initial n'avait pas anticipé la façon dont les opérateurs utiliseraient le système. Le fait de laisser les utilisateurs contrôler le système d'assistance leur a permis d'utiliser ce qu'ils avaient appris à bien faire. Ce processus revient à adapter la représentation graphique aux représentations opératoires des opérateurs. 2.5. Vers un concept d'intelligence intégrée Hommemachine 2.5.1. Structure 49 Habilitation - Guy Boy - 1992 De tels systèmes "intelligents" (décrits dans ce qui précède) ont été appelés systèmes d'assistance intelligents (SAI) dans (Boy, 1991). Les exigences de sécurité et les problèmes d'erreur humaine ont amené à la définition de trois types possibles de SAI : 1. les systèmes interactifs tolérant les erreurs humaines (Amalberti, 1986; Norman, 1981; Roscoe, 1980) dans des situations standards; 2. les systèmes d'allégement de la charge de travail dans des situations standards avec une forte charge de travail; 3. les aides interactives à la résolution de problème en situations anormales avec une forte charge de travail (Amalberti, 1986). PROPOSEUR BOUCLE DE CONTROLE SUPERVISE CONSTRUCTEUR DU SYSTEME B.C. temporaire du Domaine Opérationnel OPERATEUR SITUATION ENVIRONNEMENT EVALUATEUR OBSERVATEUR OBSERVATEUR ANALYSEUR B.C. du Domaine d'Acquisition B.C. du Domaine Opérationnel B.C. du Domaine Technique BOUCLE D'EVALUATION RESULTATS OBSERVES Figure 11. Un Modèle d'Intelligence Intégrée Homme-Machine (B.C. signifie "base de connaissances") Les premiers et seconds types peuvent être facilement mis en œuvre en utilisant des environnement de programmation classiques ou des systèmes experts "conventionnels". Le troisième type demande une description plus profonde à la fois de la connaissance de conception et de la connaissance opérationnelle. Un tel effort de recherche devrait mener à une architecture appropriée à la mise en œuvre des SAI. Cette section traite de ce troisième type. 50 Habilitation - Guy Boy - 1992 Le problème de la conception et de l'évaluation de l'intelligence intégrée Homme-machine (IIHM) peut être vue comme suit : 1. analyser les actions de l'opérateur afin de comprendre ce qu'il fait; 2. fournir à l'opérateur le niveau d'information approprié et proposer les actions ou les procédures qu'il devrait exécuter. Le modèle global résultant est présenté dans la figure 11. Les flèches représentent les flux d'informations. Ce modèle comporte deux boucle : 1. une boucle de contrôle de supervision à court terme où le processeur peut être vu comme l'interface-opérateur; 2. une boucle d'évaluation à long terme. La base des connaissances du domaine technique comporte les descriptions des divers objets pertinents et nécessaires dans le domaine d'expertise. La base des connaissances opérationnelles comporte les procédures disponibles et nécessaires pour la prise en compte de diverses situations environnementales ayant déjà été rencontrées. La base des connaissances sur l'acquisition de connaissances comporte des connaissances nécessaires pour la mise à jour des procédures opérationnelles. 2.5.2. Fonction : la représentation par blocs de connaissance Si nous supposons que les connaissances du domaine technique son données, l'évaluation d'un système IIHM est principalement liée aux connaissances opérationnelles. De telles connaissances sont très difficiles à la fois à construire et à certifier. La construction de ces connaissances est nécessairement itérative. Un concepteur ne peut pas imaginer de telles connaissances a priori. Il peut donner des recommandations à suivre à l'utilisateur. Cependant, le comportement d'un système IIHM est découvert incrémentallement en le mettant en opération. Une question importante pour le futur est : pouvons nous anticiper le comportement de tels systèmes IIHM au moment de leur conception ? Il semble qu'il n'y ait pas encore suffisamment de connaissance pour formuler des règles générales répondant à cette question. Nous devons accumuler plus de résultats de recherche et d'expérience pratique pour obtenir des classes de comportements des systèmes IIHM. En suivant cette approche, nous avons développé des recherches en représentation des connaissances (RC) pour rationaliser et améliorer l'analyse, la conception et l'évaluation de la partie fonctionnelle des systèmes IIHM. Le type de connaissances qui nous concernent est composé de procédures opérationnelles. Puisque ces procédures sont considérées comme un support de communication essentiel entre les êtres humains et les systèmes "intelligents", nous avons développé une RC qui est utile à la fois pour expliquer l'intelligence humaine et mettre en œuvre une certaine intelligence artificielle. La RC que nous avons adoptée donne un cadre de travail approprié pour représenter des manuels d'opérations, des procédures, des checklists, des guides d'utilisation (Boy, 1987) 51 Habilitation - Guy Boy - 1992 et autres outils en-ligne utilisés pour contrôler des systèmes dynamiques complexes (Boy & Mathé, 1989). Un corps de procédures est alors représenté par un réseau de blocs de connaissance. Préconditions Procédure Contexte Conditions Anormales But Figure 12. Bloc de connaissance. L'entité de représentation de base est un bloc de connaissance (ou bloc pour simplifier l'écriture) qui comporte cinq principaux attributs (Boy & Caminel, 1989; Mathé, 1990) : — — — — — un but, une procédure, des préconditions, des conditions anormales et un contexte ou conditions contextuelles (Figure 12). De façon plus fine, les composantes d'un bloc sont : son nom; son niveau hiérarchique; une liste de préconditions; une liste d'actions; une liste de buts et une liste de blocs associés; une liste de conditions anormales (CAs) et leurs listes de blocs associés. En fonction de son niveau d'abstraction, une procédure peut être représentée par un simple bloc, une hiérarchie de blocs ou un réseau de blocs. Un bloc peut être actif, attendu ou neutre : un bloc est actif lorsqu'il est en cours d'exécution; un bloc est attendu lorsqu'il appartient à l'ensemble des blocs qui peuvent devenir actifs dès que l'exécution des blocs actifs courants est terminée; un bloc est neutre lorsqu'il n'est ni actif ni attendu. Nathalie Mathé a présenté une description exhaustive de la notion de bloc dans sa thèse (Mathé, 1990). Une précondition contrôle l'activation d'un bloc attendu : lorsqu'un bloc est attendu, il peut seulement devenir actif si l'une de ses préconditions est satisfaite. Si un bloc n'a pas de préconditions, par défaut sa précondition est considérée toujours satisfaite. Une précondition est représentée comme une conjonction de conditions élémentaires. Elle est satisfaite lorsque chacune de ses conditions élémentaires est satisfaite. Une condition élémentaire représente une comparaison entre deux prédicats (ou attributs d'objet) ou entre un prédicat et une constante : par exemple, "On(Flight_Management_System) is true" et "Up(Landing_Gear) is true". 52 Habilitation - Guy Boy - 1992 Les actions d'un bloc peuvent être de deux types : (1) les actions élémentaires qui correspondent au niveau sémantique le plus bas des actions de l'opérateur, par exemple, presser un bouton de l'interface, sélectionner plusieurs boutons pour envoyer une commande à un avion; et (2) les sous-blocs de niveau hiérarchique plus petit qui deviendront attendus lorsque leur parent-bloc sera actif. Les conditions anormales et les buts sont des conditions finales qui sont testées après l'exécution des actions du bloc. Pour un bloc donné, chaque condition anormale et but est lié à une liste de blocs qui deviendrons espérés lorsque la condition anormale ou le but sera satisfait. Comme les préconditions, les conditions anormales et les buts sont représentés comme des conjonctions de conditions élémentaires. Les conditions anormales et les buts ne diffèrent qu'au niveau sémantique. Un but est une condition qui doit en principe être satisfaite après l'exécution des actions du bloc, c'est un conclusion normale de l'exécution du bloc (condition finale normale). Dans certaines situations, le but peut ne pas être satisfait après l'exécution des actions. La cause peut être due à : (1) un événement externe se produisant pendant l'exécution (par exemple, une requête de la tour de contrôle demandant de retarder l'atterrissage); (2) un événement interne (par exemple, une panne d'instrument); (3) un état externe qui n'a pas pu être testé dans les préconditions à cause d'une perception incomplète (par exemple, la détection d'un obstacle se déplaçant sur la piste qui n'était pas prévu dans la phase finale du plan de vol); ou (4) une panne d'action (par exemple, un incident d'exécution dû au comportement non déterministe du système contrôlé). Les situations résultant de ces événements sont appelées situations anormales. Pour une procédure donnée, les conditions anormales caractérisent les situations anormales possibles et leurs blocs associés représentent la façon de récupérer à partir d'une situation anormale. Ces notions ont été analysées de façon extensive, mises en œuvre et testées par Nathalie Mathé (Mathé, 1991). Vol Avant Décollage Décollage Montée Croisière Approche Atterrissage Avant V1 Arrêter l'avion ? Avant Rotation Avant V2 + 10 Figure 13. Simple hiérarchie de contextes. Les conditions contextuelles sont représentées par un ensemble disjonctif de prédicats. Les conditions contextuelles d'un bloc définissent son domaine d'applicabilité. Par exemple, les conditions contextuelles peuvent être un ensemble de conditions 53 Habilitation - Guy Boy - 1992 caractérisant une panne d'appareil, le but courant de l'utilisateur ou un mélange de conditions physiques ou intentionnelles. Dans un contexte donné, la résolution de problème se fera sur l'ensemble des blocs dont les conditions contextuelles s'apparient avec ce contexte. Dans ce contexte, seules les préconditions doivent être testées, ce qui augmente la performance du système. Les conditions contextuelles sont organisées en hiérarchies. Cette propriété à la fois facilite l'organisation de la base de blocs et réduit le temps de pattern matching. Par exemple, en aviation, un vol est généralement organisé en phases, qui peuvent être décomposées en sous-phases et finalement chaque sous-phase est décrite sous la forme de blocs de connaissances représentant des procédures (Figure 13). Dans le contexte d'un vol (racine de la hiérarchie correspondante de contextes), il y a plusieurs sous-contextes (avant-décollage, décollage, etc.). Dans chaque contexte terminal (par exemple, décollage), un ensemble de blocs doit être mis en œuvre. Si tout est "normal", le pilote accélère l'avion jusqu'à une vitesse de décision appelée V1 après laquelle il ne pourra plus arrêter l'avion même en cas d'incident majeur. Le pilote exécute le premier bloc "Avant V1". S'il n'y a pas de condition anormale déclenchée, il exécute le bloc "Avant Rotation" et "Avant V2 +10". Si une condition anormale est satisfaite pendant l'exécution du bloc "Avant V1", alors il peut décider d'exécuter le bloc "Arrêter l'avion". 2.6. Problèmes concernant les systèmes "intelligents" Puisque notre objectif principal est de concevoir et de raffiner incrémentalement des procédures (et parfois par voie de conséquence des interfaces-utilisateur -- voir section 2.4.4), il existe quelques problèmes inhérents à cette approche qui doivent être discutés. Avons-nous besoin de modèles cognitifs pour construire et raffiner ces procédures ? L'application de telles procédures dépendra de leur compréhensibilité et, de ce fait, les interfaces-utilisateur deviennent critiques. Comment pouvons-nous mener le processus d'acquisition de connaissances ? Existe-t-il une meilleure façon de représenter des procédures ? Quels types de problèmes naissent des architectures de systèmes "intelligents" ? Les techniques d'IA ont été mises en œuvre sur des problèmes très académiques jusqu'à maintenant. Sont-elles suffisamment robustes pour prendre en compte des applications du monde réel telles que celles de l'aéronautique et de l'espace ? 2.6.1. Modèles cognitifs, acquisition et représentation de connaissances Le but n'est pas de concevoir des modèles cognitifs pour construire des clones humains, mais : 1. de comprendre et évaluer les interactions Homme-systèmes "intelligents"; 2. d'utiliser des modèles d'opérateur dans la conception de systèmes, par exemple, la conception de mécanismes de reconnaissance d'intention (Geddes, 1985, 1986; Shalin et al., 1988); 3. de concevoir des interfaces Homme-systèmes "intelligents". 54 Habilitation - Guy Boy - 1992 Tous les utilisateurs d'un SAI spécifique à une application donnée (aéronautique par exemple) peuvent ne pas partager le modèle implicite d'expertise qui a été incorporé dans le système. Plusieurs domaines, tels que le contrôle tactique de l'urbanisme, sont très liés à des différences individuelles à cause du manque de procédures standards au delà d'un certain niveau d'analyse. Ces différences peuvent avoir un impact sur la base de connaissances du SAI. Ces différences peuvent avoir un impact sur la fonctionnalité du système, par exemple, la profondeur de l'explication, la surveillance de l'utilisateur et la formation nécessaire. Comme nous l'avons déjà mentionné, il est en général reconnu que l'acquisition de connaissances, qui consiste à "mettre à plat" les connaissances de l'expert dans un domaine donné, est un sérieux goulot d'étranglement dans le développement de systèmes. Ces connaissances sont cependant cruciales pour assurer le succès des systèmes "intelligents". Un système "intelligent" ne découvrira pas de nouvelles connaissances par lui-même en temps réel dans des situations du monde réel. Et même si certains chercheurs en IA défendent le fait que certains systèmes d'IA peuvent aider à la découverte, ces systèmes doivent être guidés et "interprétés" par les chercheurs euxmêmes18. Ceci n'est clairement pas possible aujourd'hui dans des situations à forte charge de travail où la pression est importante. En ce qui nous concerne, les systèmes acceptables sont donc limités à une classe particulière : les systèmes procéduraux. Par procédural, nous entendons des systèmes basés sur des procédures explicites, utilisant éventuellement certaines connaissances déclaratives très bien structurées. Dans les situations critiques, le problème n'est pas de construire des procédures ab initio, mais d'utiliser des procédures déjà testées et adaptées à la situation courante. Dans les cas de situations nouvelles, les opérateurs "inventent" des procédures sous-optimales simples de récupération. Le problème majeur est de collecter toutes ces procédures, et de les raffiner itérativement par expérience. De plus, il est impératif de capturer à la fois les connaissances de conception et les connaissances d'utilisation pour construire les procédures les plus adaptées. Au début, ces procédures sont appropriées à des situations particulières, mais après plusieurs simulations ou des missions réelles, elles peuvent être regroupées en classes de situations plus générales. L'acquisition de connaissances est alors un processus continu allant de la conception de l'IIHM jusqu'à son utilisation en routine. Dans tous les cas, il semble que les buts (et sous-buts), plans (ou procédures) et situations (ou événements ou états) sont les trois ingrédients les plus communs des représentations de connaissances. L'expression actions situées est récemment devenue un sujet d'intérêt en IA (Suchman, 1987; Drummond, 1989). Cependant, si la notion de contexte est toujours un problème majeur, très peu de définitions convainquantes ont été données à ce jour (voir chapitre 3). Le temps et les exceptions (conditions anormales) sont aussi des problèmes majeurs en représentation des connaissances, en particulier pour la conception de IIHM. Ces aspects ont été pris en compte dans la représentation par bloc. 18En accord avec Jean-Gabriel Ganascia (1992), l'utilisation de systèmes d'IA peut amener l'effet de surprise qui peut être parfois une aide importante à la découverte. 55 Habilitation - Guy Boy - 1992 2.6.2. Compatibilité des systèmes "intelligents" avec les opérateurs Comme nous l'avons déjà noté, les recherches actuelles dans le domaine des IIHM sont dominées par l'étude des tâches procédurales en environnement non déterministe. La résolution du problème de la compatibilité entre l'opérateur et le système entraîne des répercussions sur les entrées/sorties et les traitements effectués par le système (Shalin & Boy, 1989). Compatibilité des Entrées/Sorties (Communication)—Certains environnements de tâches (par exemple, l'apesanteur, les fortes accélération, les équipements de protection, la forte charge de travail) ont tendance à restreindre les entrées humaines, telles que la frappe de texte. Si ce type d'environnement peut bénéficier d'interfaces intelligentes incluant une certaine reconnaissance des intentions de l'utilisateur, nous devons alors nous soucier de la compatibilité cognitive. Ceci est mis en évidence par le développement de langages de communication adaptés à la tâche et compatible avec le raisonnement humain dans le domaine donné. Une dernière considération sur la communication Homme-machine concerne les sorties du système. En particulier, les capacités d'explication, lorsqu'elles existent, sont souvent controversées. Dans un cockpit d'avion par exemple, l'explication devrait être réduite au minimum, en particulier lorsque la fréquence de contrôle est très élevée. Ceci ne veut pas dire que l'explication doit être absente, le cockpit doit être autoexplicatif à chaque instant et comporter, si possible, des présentations polysémiques. Compatibilité du Traitement—Le besoin de développement incrémental, et si possible de modification incrémentale, suggère de spécifier la compatibilité au niveau du traitement, de façon à favoriser le retour (feedback) des utilisateurs sur la fonctionnalité du système. Pour améliorer la confiance de l'utilisateur, le traitement peut comporter des capacités humaines standardisées, telles que le raisonnement sur les conséquences de ses recommandations. Une considération complémentaire pour la compatibilité du traitement est la conscience qu'a l'utilisateur des limites de fiabilité du système. En environnements réactifs, les systèmes automatisés devraient être des extensions directes des capacités perceptives et cognitives de l'opérateur, étant donné qu'il n'a souvent pas assez de temps pour une analyse extensive en-ligne du traitement effectué par le système. Nous avons pris en compte le retour en-ligne de l'utilisateur dans CID (voir section 3.3). IA Temps Réel— Les problèmes soulevés par l'IA temps-réel ne concernent pas seulement la rapidité des calculs, mais aussi l'allocation de ressources, la coopération et l'interruption de procédures. Etant donné que les données sont incertaines, imprécises et incomplètes, l'intégration de la logique non monotone dans un SAI est critique (qu'elle soit explicitement mise en œuvre ou non). Cette intégration doit être accomplie de façon pragmatique et raffinée incrémentalement par expérimentation. Les discussions actuelles sur ce problème amènent à quatre outils logiciels : — la programmation conventionnelle sera encore utile, pour la mise en œuvre des "petits" détails par exemple; 56 Habilitation - Guy Boy - 1992 — les architectures tableau noir sont utiles pour mettre en œuvre des interactions coopératives et opportunistes (Nii, 1986); — les architectures d'agents (vues comme des extensions des langages orientés objets) sont intéressantes pour la coopération multi-agent (Ferber, 1989) lorsque les modèles internes des divers agents sont disponibles (en reconnaissance d'intention par exemple); — les hypermedia (Conklin, 1987) fournissent des représentations externes explicites des divers agents mis en jeu dans l'interaction (le passage de messages par exemple). Validation des Systèmes à Base de Connaissances—Même si certaines méthodologies ont été conçues, développées et testées, l'état de l'art des techniques de validation des systèmes à base de connaissances n'est pas très avancé aujourd'hui. Comme l'acquisition de connaissances, la validation est un processus incrémental. De plus, l'acquisition de connaissances et la validation peuvent être vues comme des processus coordonnés dans la conception de systèmes à base de connaissances. Afin d'améliorer le processus incrémental de validation, il faudrait plus associer les utilisateurs finaux dans la boucle de conception (Boy, 1988). On peut comparer la validation des systèmes à base de connaissances à la certification des avions, au moins en termes de complexité. 2.6.3. Applications monde-réel et automatisation Le présent champ d'investigation est expérimental. Nous adoptons le point de vue que les représentations de connaissances théoriques ne proviennent pas d'une pure introspection, mais de la rationalisation de l'expérience dans un domaine donné et de l'analyse de protocoles expérimentaux. Les domaines expérimentaux que nous avons choisis proviennent du monde réel et sont plutôt centrés sur la prise de décision, le diagnostic, la planification et le contrôle de systèmes physiques. Ils sont généralement bornés et dirigés par des procédures. C'est pour cela que les recherches actuelles se focalisent sur les déviations autour de ces procédures qui sont des blocs de connaissances déterministes (analyse de l'activité des opérateurs). Falzon (1989) parle de connaissances opératives. A ce niveau, la difficulté la plus importante est liée à la reconnaissance de situation. Les êtres humains sont bons pour reconnaître des situations lorsqu'ils sont vraiment dans la boucle de contrôle. Cependant, il est très difficile d'acquérir (au sens de la modélisation de connaissances) les mécanismes et les stratégies de reconnaissance de situation. Les êtres humains disposent de patterns situationnels très sophistiqués par expérience. La recherche en apprentissage symbolique automatique (machine learning) (Kodratoff, 1989) offre un ensemble de techniques pouvant aider à recréer ces patterns par expérimentation. Les principales difficultés rencontrées en reconnaissance de situation (à la fois par un opérateur humain et un SAI) peuvent être résumées par les trois questions suivantes : 1. Quand l'information doit-elle être présentée ? 2. Quel contenu doit-elle contenir ? 57 Habilitation - Guy Boy - 1992 3. Quel format doit-elle prendre ? L'expérience dans les applications du monde réel devrait fournir une taxonomie des activités de traitement des connaissances de la conception jusqu'aux opérations (voir section 1.4.2). Comme nous l'avons déjà discuté, étant donné que le type d'explication dépend des activités effectuées, il s'en suit que les types de recommandations données aux opérateurs ou aux concepteurs seront différentes. Le problème se pose lorsque le niveau d'investigation change, par exemple, lorsqu'un opérateur suit religieusement un ensemble de procédures, il devra éventuellement mettre au point un nouvel ensemble de procédures dans le cas où il se trouve confronté à une situation non prévue à l'avance; il devient donc, en situation, un concepteur de procédures. Ceci est une excellente raison pour conserver des êtres humains dans la boucle de contrôle de machines hautement automatisées. Ils sont les seuls agents possédant la capacité d'inventer des solutions de récupération dans des cas graves. Ces solutions peuvent être maintenues pour des cas futurs similaires. Notons que, quelque soit leur niveau de qualification ou de développement intellectuel, ils sont aussi capable de faire des erreurs. Si une situation non nominale peut être anticipée, elle peut être considérée comme "nominale" par le système s'il la connait. Par définition, les situations nominales sont connues à l'avance. Cependant, lorsqu'une situation non anticipée se produit, l'opérateur doit être conscient et comprendre ce qui se passe, en d'autres termes le SAI ne doit pas masquer et distordre la situation. Ceci introduit le problème difficile des contraintes de qualité et de sécurité. L'un des facteurs de l'allocation de fonctions entre l'Homme et le système est l'existence de tâches partageables entre les deux preneurs de décision. De plus, la performance globale devrait être optimisée en maintenant les meilleures qualités de chacun au bon endroit. Dans des domaines tels que le contrôle tactique de l'urbanisme, il peut y avoir un besoin d'allocation dynamique de tâches entre l'être humain et le système. En fonction du contexte et des exigences imposées à l'opérateur, le système peut avoir plus ou moins d'autorité dans l'exécution de certaines portions de la tâche. De plus, l'allocation de tâches peut être affectée par des restrictions stratégiques sur la modifications des opérations existantes. L'automatisation des applications monde-réel, telles que l'aviation, a déjà montré le problème des erreurs humaines. Les analyses de ces erreurs devraient apporter un nouvel ensemble de recommandations pour la conception et la maintenance incrémentale de procédures. Les machines font certaines choses mieux que les êtres humains : des calculs par exemple. Elles travaillent sur des problèmes bien formulés. Elles ne sont pas inventives. En définitive, qu'est-ce que l'IA apporte au problème de l'automatisation ? Est-ce que l'IA apporte de nouveau problèmes en ce qui concerne l'interaction entre l'Homme et les système "intelligent" ? Par l'évolution de ces méthodes, l'IA commence à supporter la notion que l'automatisation complète n'est plus un problème à part entière, en d'autres termes les opérateurs humains doivent être pris en compte pendant le processus de conception (conception centrée sur l'utilisateur) (Woods & Hollnagel, 1987). Une question importante posée en IA est la meilleure compréhension des interactions entre 58 Habilitation - Guy Boy - 1992 des agents intelligents (Homme et machine). Même si l'intelligence artificielle et l'intelligence naturelle ne peuvent pas se comparer, il est important de chercher une bonne coopération entre elles. En particulier, si l'un des acteurs ne fonctionne plus "normalement", nous pouvons concevoir que dans le futur l'autre (agent) aidera à récupérer. 2.7. Conclusion Un des premiers emplois d'une théorie est de nous aider à chercher aux bons endroits des réponses à certaines questions. Même s'il n'y a pas de théorie de la conception et de l'évaluation des systèmes engendrant une interaction "intelligente" avec l'opérateur, ce chapitre donne certaines directions construites à partir de notre expérience dans le domaine. Les êtres humains adaptent leur perception et leurs actions au champ social. Cette adaptation se passe à tous les niveaux d'interaction : les gens disent les mots "justes" au "bon" moment; ils se souviennent grâce à l'expérience passée; ils essayent de se conserver en cas de danger; ils affichent parfois un agréable sens de l'humour; etc. Existet-il un système qui possède ces capacités aujourd'hui ? Nous avons montré dans ce chapitre que la réponse à cette question réside dans la recherche de l'intelligence dans l'interaction, par opposition à l'intelligence dans le système individuel. Par conséquent, le concept de IIHM est essentiel. La connaissance situationnelle est difficile à acquérir. Cependant, elle est cruciale à la fois en conception et en évaluation. En effet, les procédures actuelles montrent que la même action peut avoir divers effets dépendant de la situation et du champ social, donnant lieu à des interactions ayant différents contenus, structures et formes syntaxiques. Par exemple, faire un cours donnera lieu à une interaction différente de fournir une checklist opérationnelle. Une expert et un débutant utiliseront une même procédure différemment. Le contexte est un concept essentiel dans l'analyse, la conception et l'évaluation les systèmes "intelligents". En effet, lorsqu'une machine est capable de mettre en œuvre une interaction "intelligente", il est nécessaire de s'assurer que son langage de communication est approprié dans le champ social. Il est alors nécessaire que cette machine soit capable d'adapter ses interactions. Ceci est particulièrement important lorsqu'il s'agit de systèmes informatiques appelés à communiquer avec une communauté très variée et dans une frange de situations toujours plus grande. La prise en compte de la connaissance situationnelle complique énormément les processus de conception et de certification dans le sens traditionnel. Le chapitre suivant propose un ensemble d'outils conceptuels visant à aider le concepteur et l'évaluateur à intégrer ce type de connaissances dans leur tâches respectives. 59 Habilitation - Guy Boy - 1992 60 Habilitation - Guy Boy - 1992 3. Connaissances Contextualisées "... Lakatos, Kuhn ou Feyerabend cherchent à relativiser l'approche scientifique en soutenant qu'on ne peut examiner la vérité d'une théorie scientifique qu'en la situant dans son contexte, et par rapport aux savants concernés; ainsi, la science devient aussi un phénomène sociologique." Herbert Simon (1984). Dans ce chapitre, nous nous appuyerons sur le travail que nous avons effectué à la NASA au cours du projet Computer Integrated Documentation (CID). Les connaissances contextualisées19 seront représentées par des blocs de connaissances (section 2.5.2). Elles incluent à la fois des connaissances analytiques et situationnelles au sens où nous l'avons défini dans la section 2.4. Les connaissances contextualisées sont analogues aux connaissances opératives de Falzon (1988). Elle sont spécifiques à un domaine et à une activité. Elles sont acquises par la pratique. 3.1. Notion de contexte La notion de contexte n'est pas facile à définir. La notion de contexte peut être reliée à la persistance et à la pertinence d'une connaissance dans une situation donnée. Une situation générique est construite par intégration incrémentale (et généralisation) de diverses situations spécifiques. Par exemple, les mots sont définis incrémentalement en les utilisant dans diverses situations spécifiques. Même si vous ne connaissez pas le mot fixations, les phrases suivantes vont contribuer à sa définition : Il a utilisé les meilleures fixations disponibles dans la course... Ces fixations très souples lui ont permis de ne pas être éjecté dans le virage... Un autre raison est que ce type de fixations est situé très avant sur la planche... En fait, tous les skis équipés de telles fixations ne devraient être utilisés que par des professionnels... Après la première phrase, nous savons que des fixations peuvent être utilisées dans une course. Même si nous ne savons pas de quel type de course il s'agit, cette phrase élimine la possibilité de fixations psychologiques. Dans la deuxième phrase, nous apprenons que les fixations sont utilisées sur une sorte de circuit ou trajectoire à cause du mot virage. Après avoir lu la troisième phrase, nous savons que les fixations sont situées sur une planche. Finalement, dans la dernière phrase, nous apprenons que les fixations sont des équipements de ski (nous supposons que nous savons ce qu'est un ski, sinon nous continuerions à chercher à identifier ce nouveau mot dans les conversations suivantes). 19Nous avons choisi la terminologie constructiviste connaissances contextualisées parce que nous nous plaçons du point de vue de la (re)construction de ces connaissances ["on met du contexte" sur les (ou autour des) connaissances déjà acquisses]. La terminologie réaliste connaissances contextuelles ne permet pas de distinguer si les connaissances correspondantes sont les connaissances du contexte ou les connaissances en contexte. 61 Habilitation - Guy Boy - 1992 Donc, en ajoutant des situations (contexte) dans lesquelles un mot est utilisé, celui-ci peut être défini incrémentallement. Ce type de contexte est appelé contexte verbal. En d'autres termes, un mot défini dans un contexte verbal est défini par les autres mots qui l'entourent. En recherche d'information, la notion de mot clé en contexte (verbal) (keyword in context : KWIC) a été utilisée comme corrélation visuelle pendant la sélection (Luhn, 1959). Cette technique a été récemment automatisée par Zimmerman (1988) et est utilisée dans CID. Il existe une autre forme de contexte, le contexte physique et social. Si on vous présente une paire de skis par exemple, son propriétaire peut vous expliquer comment les utiliser. Dans la conversation, il peut dire, "Si tu chausses les fixations de cette façon, il est possible qu'elles déclenchent rapidement". Vous découvrez soudainement que ces parties métalliques des skis servant à fixer les chaussures sont appelées des fixations. Vous apprenez ceci dans un contexte physique. Il peut arriver que vous vous rappeliez ce mot pour toujours dans le contexte où vous l'avez appris, c'est-à-dire que chaque fois que vous penser à votre ami vous expliquant comment utiliser des skis, vous vous rappelez l'anecdote des fixations, et de façon symétrique lorsque vous vous rappelez des fixations. Ceci montre l'importance du contexte pour la recherche d'informations en mémoire. En particulier, en recherche d'information, nous pensons que si le contexte est utilisé de façon appropriée, la recherche en mémoire sera considérablement facilitée et efficace. Hayakawa (1990) a écrit que : Les "définitions" données par des enfants à l'école montrent clairement comment ils associent les mots aux situations. Ils définissent presque toujours ces mots en termes de contexte physique et social : "La punition c'est lorsque vous n'avez pas été sage et que vous êtes assis sur les escaliers pour dix minutes." "Les lettres sont ce que le facteur porte chez nous." Comme Hayakawa (1990) le fait remarquer, la signification des mots peut être extensionnelle ou intentionnelle. Si un mot peut être décrit par un objet réel que l'on peut voir dans l'environnement, sa signification est extensionnelle. Par exemple, si vous montrez une vache dans un pré, vous dénotez la vache. Si un mot est décrit par plusieurs mots pour suggérer sa présence, alors sa signification est intentionnelle. Par exemple, vous pouvez décrire une vache en disant que c'est un animal qui mugit, vit dans une ferme, etc. Tout objet peut être associé à une description intentionnelle propre à une personne donnée, lorsque cette description est donnée, etc. Encore une fois, le contexte est une notion clef lorsque l'on doit décrire des objets. Ce serait un leure d'affirmer que chaque objet peut être associé à un mot unique. Quiconque essaye de retrouver des documents dans une bibliothèque en utilisant des équations logiques de mots clefs le sait. Il est presque impossible de retrouver les informations désirées lorsque la description que vous donnez comme requête ne s'apparie que très faiblement avec les descriptions développées par le bibliothécaire. Cependant, si vous parlez avec le bibliothécaire, il peut mieux vous aider s'il arrive à identifier correctement le contexte de recherche de l'information désirée. Dans le meilleur des cas, si le bibliothécaire est un bon ami et connait votre travail ou vos besoins, il vous sera alors une ressource très utile. Si le bibliothécaire ne vous connait pas, il peut capturer une partie du contexte physique tout 62 Habilitation - Guy Boy - 1992 simplement en vous observant. Il peut prendre en compte des faits comme : vous êtes jeune; vous portez une blouse blanche; vous avez su où chercher la première fois; etc. Il va aussi capturer du contexte à partir de ce que vous lui dites (contexte verbal). Hayakawa dit qu'un "examen du contexte verbal d'une phrase, autant que l'examen de la phrase elle-même, nous éclaire sur sa signification intentionnelle; un examen du contexte physique nous éclaire sur les significations extentionnelles." Il convient de noter un autre type de contexte : le contexte historique. La notion de contexte inclue un aspect temporel, en d'autres termes, le contexte peut résumer une période de temps. De plus, la persistance de certains événements renforce le contexte. Par exemple, un utilisateur a dit au bibliothécaire qu'il cherchait des informations sur la géométrie, il suit actuellement un cours d'informatique, il a un problème de traçage de courbes à partir de points, il veut obtenir un tracé continu sur l'écran, enfin, plus tard, il demande une référence sur les splines. Les bibliothécaires ont l'habitude d'intégrer le contexte historique, Dans notre exemple, le bibliothécaire ne confondra pas les fonctions splines mathématiques (ce que l'utilisateur a réellement demandé) et les splines physiques que les dessinateurs de jadis utilisaient pour lisser leurs courbes. Dans cet exemple, les mots "informatique" et "écran" aident à décider si les "splines" dont il est question correspondent à une utilisation du dernier quart du vingtième siècle.. En termes plus formels, le contexte peut être défini par des relations entre objets. Un objet peut être un mot ou une phrase, une image,une séquence vidéo, un objet physique (tel qu'une table), une personne, etc. Ces paires d'attributs peuvent être des descriptions du contexte verbal (ce qui est autour de l'objet et le définit dans certaines situations), le contexte physique et social (ce qui peut être désigné dans l'environnement de l'objet pour concrétiser sa définition), ou le contexte historique (ce qui s'est passé avant et est relié causalement à l'objet décrit). Par exemple, le contexte d'un processus de recherche d'informations peut être décrit par un profil d'utilisateur (modèle d'utilisateur). Ce profil peut inclure le type de l'utilisateur, le type de tâche qu'il est en train d'accomplir, le temps, etc. Le principal problème d'une définition formelle du contexte est qu'elle peut conduire à un très grand ensemble de paires attribut/valeur. D'un point de vue du calcul, l'appariement de patterns résultant peut devenir pratiquement impossible. Ceci conduit à l'idée que le contexte est habituellement la définition par défaut de la structure de paires attribut/valeur les plus fréquemment utilisées. Cette structure peut avoir des exceptions. Par exemple, lorsque nous utilisons le mot banc, il dénote une entité physique utilisée pour s'assoir. Cependant, dans le contexte de la mer, le banc désigne habituellement un groupe de poissons se déplaçant ensemble. 3.2. L'indexation L'indexation peut être considérée comme un processus d'acquisition de connaissances à partir de texte ou de graphiques. La recherche d'information peut être vue comme le processus de corrélation des requêtes descriptives avec des documents indexés. L'indexation et la recherche d'information dépendent toutes deux du contexte. Par exemple, les bibliothécaires et les utilisateurs peuvent utiliser le même contexte lorsqu'ils 63 Habilitation - Guy Boy - 1992 indexent ou lorsqu'ils essayent de retrouver des documents. Ce n'est malheureusement pas le cas en général. Si nous faisons l'hypothèse que chaque document (un livre, un chapitre, un paragraphe ou même un mot) possède sa propre base de connaissances figurant son contenu sémantique, le principal problème est d'extraire cette base de connaissances. Les documents et leur base de connaissances associée sont appelés documents actifs. Les documents actifs sont considérés comme des systèmes à base de connaissances dans le sens où ils peuvent "fournir la bonne information, au bon moment et sous le bon format en accord avec le contexte courant" ou "diriger l'utilisateur vers d'autres documents qui sont plus corrélés à ses besoins". La corrélation entre documents n'est pas seulement un moyen de savoir si des documents sont reliés entre eux, mais aussi un moyen de valider les bases de connaissances qui leur sont attachées (processus de certification par comparaison). C'est la façon naturelle qu'utilisent les gens pour évaluer leurs connaissances, en les comparant aux connaissances des autres. Un thésaurus est une base de connaissances attachée à la documentation toute entière. Il peut être représenté par un réseau sémantique de descripteurs de la documentation. Lorsqu'il s'agit de valider un thesaurus, il est d'usage de corréler la connaissance qu'il renferme à la connaissance d'un ou plusieurs expert(s). Une telle validation dépend des situations ainsi que des points de vue (c'est-à-dire du contexte). Afin de définir plus formellement ce que nous appelons la société artificielle de documents actifs, nous avons d'abord besoin de définir quelques concepts importants : descripteurs, référents, et liens contextuels. 3.2.1. Descripteurs et référents L'indexation est le processus de construction des descripteurs {d} (descriptions) à partir de référents {r} et de liaison de ces référents entre eux dans un contexte donné (r->d). Nous appelons descripteur n'importe quelle partie de texte (mot, phrase, ou paragraphe) ou image (zone marquée ou label sur la partie d'une image) qui décrit objectivement ou subjectivement toute partie d'une documentation. Les descripteurs peuvent être des termes simples ou multiples. Nous appelons référent toute partie d'une documentation (mot, ligne d'un texte, paragraphe, image, film ou séquence animée, programme informatique, librairie) qui est décrit par au moins un descripteur. Tout référent est caractérisé par un identificateur unique, mais il peut aussi avoir des identificateurs subjectifs. Soit r un référent et {d1, d2, ..., dn} un ensemble de descripteurs qui décrivent indépendamment r. Il existe au moins un di qui décrit r, par exemple l'adresse de ce référent. En général, les autres descripteurs (autres que di) sont ajoutés parce qu'ils sont utiles pour les utilisateurs, même s'il ne décrivent pas r de façon unique. Par exemple, au début de ce mémoire nous avons mis un référent appelé "Résumé". Il peut être décrit de façon unique par "di=Résumé", et par d'autres descripteurs (des descriptions partielles) tels que "système d'assistance à l'opérateur", "connaissance contextualisée" et "contexte". Les descripteurs ne sont pas nécessairement inclus de façon explicite dans le contenu d'un référent (texte ou référent). 64 Habilitation - Guy Boy - 1992 Par exemple, "outils pour l'interaction cognitive Homme-machine" est une description implicite partielle du résumé de ce mémoire. Un référent peut être toute partie de documentation, table des matières et index compris. Les utilisateurs trouvent la table des matières et l'index particulièrement utiles parce qu'ils ont une structure bien connue (hiérarchique et alphabétique). r6 r2 d3 d7 r1 r3 d2 d1 d4 r5 r4 d6 d5 Figure 14. Exemple de relations sémantiques entre référents via descripteurs. La recherche d'information est un processus de recherche de référents à partir de descripteurs dans un contexte donné (d->r). La recherche d'information est un processus d'abduction utilisant de la connaissance d'indexation, c'est-à-dire connaissant r->d et d, r devient une hypothèse. En pratique r devient un référent à proposer à l'utilisateur. Nous diront que l'indexation définit un ensemble de relations sémantiques utilisables en recherche d'information. La figure 14 donne un exemple de relations sémantiques entre référents par l'intermédiaire de descripteurs. 3.2.2. Liens contextuels En général, la connaissance d'indexation et de recherche d'information n'est pas explicite et est du ressort de l'expertise humaine. Si le but est d'aider l'utilisateur à naviguer et à retrouver des informations appropriées, cette connaissance doit être rendue explicite et mise en œuvre au sein d'un système d'assistance à l'opérateur (Boy, 1991a), construit audessus de l'hypertexte. Un avantage majeur de cette architecture est que le méta-niveau correspondant est facilement programmable et permet d'ajouter de la connaissance sur les liens de l'hypertexte. Nous avons montré que les blocs de connaissance s'adaptent bien à la représentation des procédures utilisées dans la navigation documentaire (Boy, 1990). Ils ont donc été utilisés pour représenter des liens entre descripteurs et référents. Un bloc de connaissance 65 Habilitation - Guy Boy - 1992 contient des buts, un ensemble de conditions et un ensemble d'actions pour atteindre les buts. Les conditions peuvent être des conditions de déclenchement, des conditions anormales ou des conditions contextuelles. Dans CID, les conditions de déclenchement sont représentées par des descripteurs sélectionnés par l'utilisateur. Les conditions contextuelles peuvent décrire l'environnement externe (par exemple, le type d'utilisateur, le type de tâche en cours ayant donné lieu à la consultation de la documentation, la période de temps), ou l'histoire interne de l'utilisation courante de la documentation (par exemple, les derniers référents visités, les derniers descripteurs sélectionnés). Les actions sont représentées par des descriptions uniques de référents que l'utilisateur peut consulter. Un but est atteint lorsque l'utilisateur sélectionne la post-condition succès correspondant au référent choisi. D'un manière analogue, une condition anormale correspond à une postcondition échec. Les utilisateurs navigant et formulant leurs descriptions du contenu des référents contribuent à l'augmentation de la base de connaissances en sélectionnant les post-conditions succès (ou échec) après une recherche fructueuse (ou non fructueuse). Dans CID, les blocs de connaissance sont utilisés pour représenter des liens contextuels entre descripteurs et référents. Cet aspect a été développé dans Boy (1991c). Selon ce point de vue, la documentation peut être représentée par deux entités : des référents et des liens contextuels. Comme chaque référent r est décrit par une ensemble de descripteurs D(r), un lien contextuel entre deux référents r1 et r2 suppose implicitement que r1 et r2 partagent au moins un descripteur commun. Nous pouvons ainsi définir l'ensemble des descripteurs "sémantiquement" communs. La figure 15 présente l'intégration de référents (texte ou graphique) avec les liens contextuels correspondants (connaissances). Chaque descripteur d'un référent est une direction sémantique vers un ensemble de référents. Par exemple, supposons que le référent r1 a deux directions sémantiques (descripteurs d1 et d2) correspondant à des liens contextuels : {d1; (r2 | C12), (r3 | C13)} et {d2; (r4 | C14), (r5 | C15)}, où {d1; (r2 | C12), (r3 | C13)} peut être lu de la façon suivante : le lien contextuel entre le descripteur d1 et le référent r2, dans le contexte C12, et le référent r3, dans le contexte C13. 66 Habilitation - Guy Boy - 1992 r2 D(r2) r3 D(r3) r4 D(r4) r5 D(r5) C12 r1 d1 D(r1) d2 C13 C14 C15 Donnée Connaissance Document actif comme un agent Figure 15. Directions sémantiques descripteurs-référents. Si le contexte courant est correctement renseigné et la connaissance du système est stabilisée (en d'autres termes, suffisamment de liens contextuels ont été construits), alors des liens contextuels peuvent aider l'utilisateur à décider l'action (direction sémantique) la plus appropriée à mettre en œuvre. Par exemple, si l'utilisateur est en face d'un référent r1, le système propose deux directions sémantiques possibles, d1 et d2, si l'utilisateur sélectionne d1 le système propose r2 ou r3 en accord avec le contexte courant. Dans ce sens, un référent et sa base de connaissances associée est appelée document actif (ou un agent) qui a la capacité d'aider l'utilisateur à sélectionner le déplacement suivant dans la documentation. Cette approche comporte trois problèmes importants : renforcer incrémentalement les conditions contextuelles, acquérir des conditions contextuelles générales (Boy, 1990), et aider l'utilisateur à rapidement trouver son chemin dans la documentation. Nous verrons dans la section 3.5 que la corrélation sémantique entre référents peut être utilisée comme une aide à la navigation. 3.3. Renforcement incrémental en contexte 3.3.1. Critères de renforcement Les liens contextuels peuvent être vus comme des traces générées par l'utilisateur. En accord avec la théorie ACT (Anderson, 1983), une fois qu'une trace est formée elle n'est pas perdue, mais sa force peut décroître. Par analogie avec les êtres humains, la rétention long-terme montre un oubli graduel et continu. Si nous nous basons sur les données 67 Habilitation - Guy Boy - 1992 résumées par Wickelgren (1976), la force de la trace est une fonction d'une puissance du temps. En utilisant ces résultats psychologiques, nous avons choisi une heuristique simple [formule (1) ci-dessous] pour l'enregistrement d'un ensemble minimal de paramètres pendant l'utilisation du système. Nous avons considéré que la pertinence d'un lien contextuel {di, (r)} entre un descripteur di et un référent r dépend du retour de l'utilisateur (succès ou échec) sur r, la fréquence des retours sur r, et l'importance que l'utilisateur donne au référent r. La pertinence sémantique Rel(r | di.C) d'un référent r par rapport à un descripteur di dans le contexte C a été défini formellement comme suit (Boy, 1991b) : Rel (r | di . C) = ! s"Sr | di.C Is (t-ts )- !s - ! If (t-tf)- !f f"Fr | di.C (1) où t est le temps courant, ts (tf) est le temps correspondant à la sélection du succès s (échec f) par l'utilisateur, Sr | di.C (Fr | di.C) est l'ensemble des succès (échecs) jusqu'au temps t, l'exposant βs (βf) a une valeur comprise entre 0 et 1, et exprime le perte de pertinence depuis un succès (échec), et Is (If) est l'importance affectée à r par l'utilisateur par rapport à di dans le contexte C. En pratique, Is, If, τs, et τf peuvent être considérés comme des constantes pour tous les retours des utilisateurs. Cette heuristique simule le fait que les liens contextuels peuvent être oubliés s'ils n'ont pas été renforcés après une longue période de temps, excepté si un grand coefficient d'importance (Is ou If) leur a été affecté. 3.3.2. Acquisition de liens contextuels par expérimentation CID permet deux modes d'opération, qui correspondent au deux modes d'activité d'un utilisateur face à une documentation : — navigation expérimentale : une exploration libre, souvent rencontrée dans des activités comme l'apprentissage par l'action, dans lesquelles l'ordinateur peut prendre un rôle actif en suggérant des informations intéressantes à examiner; — recherche intentionnelle : une recherche délibérée d'information pour combler un besoin particulier, par exemple, préparer un rapport ou répondre à une question spécifique. La navigation expérimentale permet d'augmenter l'ensemble initial des liens contextuels. La recherche intentionnelle est plutôt utilisée pour raffiner des liens contextuels existants, en augmentant (raffinant) les conditions contextuelles. Les algorithmes d'apprentissage ont déjà fait l'objet de publications dans la littérature ouverte (Boy, 1990). Afin de mieux cerner l'esprit de l'approche, nous prendrons un exemple. Supposons que vous vouliez retrouver des informations très spécifiques sur la climatisation de la cabine principale de la station spatiale. La première chose que vous pouvez essayer est de naviguer dans la documentation en utilisant le descripteur "climatisation". Si le contexte de recherche peut être spécifiée, par exemple : 68 Habilitation - Guy Boy - 1992 — "vous êtes un concepteur" (C1), — "vous êtes intéressé par la connexion du système de climatisation" (C2), et — "vous avez très peu d'informations sur le circuit électrique dans la cabine" (C3), alors votre recherche pourra être plus efficace. La recherche ne sera pas la même dans un autre contexte, par exemple, "vous êtes un astronaute, vous êtes dans la station spatiale, et vous avez froid". Un lien contextuel est activé lorsque le descripteur "climatisation" est sélectionné par l'utilisateur : (PRECONDITIONS ("climatisation") (CONTEXT (C1 C2 C3)) (REFERENTS (R1 +5 ((AC1 1) (AC2 3))) (R2 +2 ()) (R3 +3 ((AC2 1) (AC3 1))) (R4 +2 ()))) Comme ce lien contextuel présente quatre référents possibles : — "une liste de vendeurs de systèmes de climatisation" (R1), — "une description du système de climatisation" (R2), — "une checklist de récupération lorsque la climatisation tombe en panne" (R3), et — "un diagramme du circuit électrique de la cabine principale" (R4). Le premier référent n'est pas satisfaisant dans le contexte courant : c'est un échec. Ceci est indiqué au système par l'utilisateur. Le deuxième et le troisième sont aussi des échecs. Les cas d'échec seront présentés ultérieurement. Heureusement, le quatrième donne l'information désirée : c'est un succès. Le système apprend alors que R4 est satisfaisant dans le contexte courant. Le système enregistre la sélection en ajoutant +1 ou -1 au coefficient de renforcement attaché au référent correspondant (rote learning). Si cela est répété fréquemment, R4 sera présenté de façon préférentielle à l'utilisateur lorsqu'il sélectionnera le descripteur "climatisation" dans le contexte (C1, C2, C3) en mode de recherche intentionnelle. Ceci se traduit en pratique par une présentation d'une liste ordonnée de référents. Supposons maintenant que, en utilisant le lien contextuel, on observe dans une situation particulière que l'utilisateur indique au système que R1 est un échec. Il serait malvenu et inefficace de répéter cette expérience trop souvent. Pour résoudre ce problème, CID note qu'une condition anormale a été rencontrée, et cette connaissance est ajoutée au lien 69 Habilitation - Guy Boy - 1992 contextuel correspondant. Comme pour les référents, des coefficients de renforcement sont associés aux conditions anormales. Les conditions anormales peuvent être vues comme des exceptions à l'utilisation "normale" d'un lien contextuel. Lorsqu'un échec est détecté, le système demande à l'utilisateur d'expliquer la raison de cet échec. Une liste de conditions anormales déjà acquises est alors présentée à l'utilisateur. L'utilisateur peut sélectionner l'une des explications fournies ou en générer une nouvelle (qui sera mémorisée pour des cas futurs d'échec). Cette sélection est alors traitée automatiquement et conservée au sein du lien contextuel correspondant comme une condition anormale. Si l'utilisateur fournit aussi une solution de récupération, cette solution est enregistrée. Un nouveau lien contextuel est créé. Si une condition anormale est observée plusieurs fois, par définition elle ne peut plus être considérée comme anormale (une exception trop fréquente n'est plus une exception), sa négation sera donc automatiquement ajoutée aux conditions contextuelles appropriées. Un algorithme de rote learning est utilisé pour transformer la connaissance du système (Boy, 1990). 3.4. Clustering des conditions contextuelles Une grande quantité de blocs de connaissance sont créés à partir de l'acquisition incrémentale des conditions contextuelles. On peut aussi s'attendre à des régularités sur les patterns situationnels construits pendant le renforcement incrémental. Par exemple, la même classe d'utilisateur consulte les mêmes référents dans la même situation. Nous avons choisi de construire incrémentalement des clusters conceptuels de contexte, c'est-à-dire des nouveau objets assimilés un par un. Dans COBWEB, Fisher (1987) propose des opérateurs permettant d'incorporer incrémentalement des nouveaux objets (dans notre cas des nouveaux patterns contextuels) dans un arbre de classification, où chaque nœud est un concept probabiliste représentant la classe d'un objet. Parmi ces opérateurs figurent : — classification de l'objet par rapport à une classe existante; — création d'une nouvelle classe; — combinaison de deux classes en une seule classe; — division d'une classe en plusieurs classes. Nous prenons la même approche pour le clustering de contexte. Chaque pattern contextuel est représenté par une conjonction de conditions contextuelles. 70 Habilitation - Guy Boy - 1992 3.4.1. Placement d'un pattern contextuel dans une classe existante Utilisateurs Astronautes Opérationnels Tâches Concepteurs Diagnostics Monitoring (Opérationnels ! Diagnostics) (Jack Ames ! Diagnostic ECLSS) (Paul Smith ! Diagnostic PGS) Figure 16. Placement d'un nouveau pattern contextuel dans une classe existante. Placer un pattern contextuel dans une classe existante est probablement la façon la plus naturelle d'actualiser un ensemble de classes. Prenons un exemple qui illustre la méthode. Soit un nouveau pattern contextuel (Paul Smith ∧ Diagnostic PGS). Chaque condition contextuelle appartient à une classe ou est elle-même une classe. Dans le présent exemple (Figure 16), "Paul Smith" fait partie des "Opérationnels" et que "Diagnostic PGS" fait partie des "Diagnostics". Alors la conjonction (Paul Smith ∧ Diagnostic PGS) est une instance de la classe existante (Opérationnels ∧ Diagnostics). L'arbre de classification initial est donc transformé comme le montre la figure 16. 3.4.2. Création d'une nouvelle classe Un nouvelle classe est créée chaque fois qu'un nouveau pattern de contexte ne peut pas être placé dans une classe existante. Cette nouvelle classe est identique au nouveau pattern de contexte. Elle peut être liée vers le haut à des classes de certaines conditions contextuelles qui la compose. Dans le présent exemple (Figure 17), "Barry North" fait partie de la classe des "Concepteurs", et "Diagnostic FTS" fait partie de la classe des "Diagnostics". Alors la conjonction (Barry North ∧ Diagnostic FTS) est une instance de la nouvelle classe (Concepteurs∧ Diagnostics). 71 Habilitation - Guy Boy - 1992 Utilisateurs Astronautes Opérationnels Tâches Concepteurs Diagnostics Monitoring (Concepteurs ! Diagnostics) (Opérationnels ! Diagnostics) (Barry North ! Diagnostic FTS) (Jack Ames ! Diagnostic ECLSS) (Paul Smith ! Diagnostic PGS) Figure 17. Création d'une nouvelle classe. 3.4.3. Combinaison de deux classes en une seule classe Utilisateurs Astronautes Opérationnels Tâches Concepteurs Diagnostics Monitoring (Concepteurs ! Diagnostics) (Opérationnels ! Diagnostics) Figure 18-a. Classes de contexte initiales avant la combinaison de classes. Comme nous avons fait l'hypothèse que des classes composées sont des conjonctions de classes ou d'objets, la combinaison de deux classes engendre la création d'une nouvelle classe ou le remplacement des conjoncts-instances par les conjoncts-classes correspondants des classes combinées. Par exemple dans la Figure 18-a, "Opérationnels" et "Concepteurs" sont tous deux des "Utilisateurs", et ils font tous les deux une tâche de diagnostic. La figure 18-b présente le réseau de contextes résultants après combinaison : (Opérationnels ∧ Diagnostics) et (Concepteurs ∧ Diagnostic FTS) combinés en (Utilisateurs ∧ Diagnostics). La façon dont la combinaison est aussi appelée généralisation. 72 Habilitation - Guy Boy - 1992 Utilisateurs Astronautes Opérationnels Tâches Concepteurs Diagnostics Monitoring (Utilisateurs ! Diagnostics) (Concepteurs ! Diagnostics) (Opérationnels ! Diagnostics) Figure 18-b. Classes de contexte après la combinaison de classes. 3.4.4. Division d'une classe en plusieurs classes La division d'une classe en plusieurs classes est approximativement l'opération inverse de la combinaison (Fisher, 1987). Une division a lieu lorsqu'une classe composée est surgénéralisée. Par exemple, il est possible de découvrir après coup que (Utilisateurs ∧ Diagnostics) est trop général parce que la classe (Astronautes ∧ Diagnostics) est très différente des autres classes (Opérationnels ∧ Diagnostics) et (Concepteurs ∧ Diagnostics). Par conséquent, deux classes seront créées (Astronautes ∧ Diagnostics) et (Ingénieurs ∧ Diagnostics) par exemple (Figure 19). Si la classe "Ingénieurs" n'existe pas déjà, le processus amène à la création d'une nouvelle classe, sous-classe des "Utilisateurs" et super-classe des "Opérationnels" et "Concepteurs". Utilisateurs Ingénieurs Astronautes Opérationnels (Astronautes ! Diagnostics) Tâches Concepteurs Diagnostics Monitoring (Ingénieurs ! Diagnostics) (Concepteurs ! Diagnostics) (Opérationnels ! Diagnostics) Figure 19. Division d'une classe en plusieurs classes. 73 Habilitation - Guy Boy - 1992 3.5. Corrélation sémantique entre référents La recherche d'informations est améliorée si les besoins de l'utilisateur sont pris en compte dans la génération et la maintenance des liens contextuels, c'est-à-dire si chaque document actif a un modèle approprié de l'utilisateur. En général, les utilisateurs raffinent (et souvent définissent) leurs besoins par un processus d'essais/erreurs. Ils évaluent les résultats des différentes recherches d'informations. Un tel comportement nécessite un environnement interactif qui permet d'acquérir incrémentalement des connaissances d'indexation. L'indexation est un processus de prise de décision qui doit être directement accessible à l'utilisateur. Ce processus de décision met en jeu la construction de relations sémantiques, c'est-à-dire de relations entre descripteurs, entre référents, et entre descripteurs et référents. La représentation des connaissances correspondante doit permettre des transformations incrémentales en cas d'échec. Dans l'application de la documentation de la station spatiale, les documents (des référents à un certain niveau de granularité) sont générés par des gens qui ne sont pas nécessairement en interrelation. Ces documents sont théoriquement connectés par l'intermédiaire d'une structure hiérarchique descendante (table des matières). Dans le système de documentation actuel, il n'existe pas de liens transversaux préconstruits. Ceci est un problème classique dans la construction d'une très grande documentation; parfois deux référents similaires peuvent être générés par des équipes indépendantes. Le problème est alors de vérifier si des référents différents décrivent les mêmes concepts. Si c'est le cas, peuvent-ils être fondus en un seul référent ? Est-il nécessaire de créer deux points de vue (contextes) ? Afin de résoudre ce problème, il est nécessaire de générer des descripteurs bien-définis partageables entre les générateurs de documentation. Si ces descripteurs sont bien-définis, nous pouvons accepter de vérifier le degré d'interdépendance entre référents en mesurant leur corrélation sémantique. La corrélation sémantique entre deux référents exprime la ressemblance entre le contenu de chaque référent. Elle peut être construite en prenant en compte les descripteurs attachés à chaque référent. Ces descripteurs caractérisent les dimensions selon lesquelles chaque référent peut être situé dans l'espace des descripteurs. Si les descripteurs expriment la sémantique de l'espace des référents, alors l'espace des descripteurs peut être espace sémantique par extension. Le problème principal est que ces dimensions ne sont pas indépendantes. Comme nous l'avons déjà expliqué, l'espace des descripteurs représente les relations entre descripteurs, ce sont en général des relations d'héritage et de propriétés. De plus, il semble raisonnable de laisser les gens indexer leurs référents sans les contraindre au problème de la dépendance des descripteurs. Le problème est alors de concevoir une représentation qui rende explicite les dépendances entre descripteurs. L'idée de base est de construire un réseau sémantique dans lequel les nœuds sont des descripteurs et les liens sont des relations d'héritage et de propriétés. En adoptant cette approche, les descripteurs sont organisés en nuages de dépendances (descripteur dependency clusters). Ces nuages peuvent être faiblement connectés entre eux ou complètement indépendants. 74 Habilitation - Guy Boy - 1992 Nous considérons que les paramètres suivants affectent la corrélation sémantique en contexte entre les deux référents r1 and r2: — le nombre de descripteurs nds(r1, r2) partagés par r1 et r2; — la pertinence sémantique d'un référent par rapport à un descripteur de l'ensemble commun dans un contexte donné (dérivé des retours des utilisateurs); — le niveau hiérarchique des descripteurs communs dans chaque référent; — le contexte courant. Supposons que nous voulions comparer deux référents r1 et r2. Salton (1989) définit la similarité entre deux référents r1 et r2 comme une fonction du nombre de descripteurs communs aux deux référents. Les référents r1 et r2 ont deux listes de descripteurs D(r1) et D(r2). Le contexte courant est pris en compte en restreignant D(rj) [avec j=1 ou 2] à la liste des descripteurs qui ont été "suffisamment" renforcés [Rel(rj | di.C) > Seuil] dans le contexte courant. L'intersection entre D(r1) et D(r2) est alors calculée en utilisant les règles suivantes : If d ! D(r1) and [" d' ! D(r2), " n, such that d' = childOf(n)(d)] then d ! D(r1) # D(r2) If d ! D(r1) and [" d' ! D(r2), " n, such that d = childOf(n)(d')] (3) then d' ! D(r1) # D(r2) (4) où la fonction d'=childOf(n)(d) signifie que d' est un fils de génération n de d. Par exemple, childOf(0) est la fonction identité, childOf(1) est la fonction fils direct (première génération), childOf(2) est le petit-fils (deuxième génération), etc. En d'autres termes, nous conservons les descripteurs les plus généraux dans l'intersection. Si l'ensemble D(r1) ↔ D(r2) n'est pas vide, il peut être ordonné par rapport aux pertinences sémantiques correspondantes. Nous utilisons alors la corrélation de rang de Spearman (Snedecor, 1946) pour calculer la corrélation sémantique ρSem(r1, r2 | C) dans le contexte C. Le formalisme a été rapporté dans (Boy, 1991, 1992). Ce type de mesure de similarité sémantique peut être utilisée comme une aide à la navigation dans une documentation. Deux cas génériques peuvent se présenter en dérivation des listes ordonnées de référents sémantiquement corrélés à un référent donné, ou une requête complexe de l'utilisateur. 1. A partir d'un référent r1, ρSem(r1, r2 | C) peut être calculée pour tous les référents r2 qui partagent des descripteurs avec r1. 75 Habilitation - Guy Boy - 1992 2. Une requête complexe mettant en jeu la conjonction de plusieurs descripteurs peut être représentée par un ensemble D(Q). ρSem(Q,r | C) peut être calculée pour tout référent r qui partage des descripteurs avec Q. Dans les deux cas, la liste ordonnée correspondante des référents peut être présentée à l'utilisateur pour des raisons de validation, ou comme lui suggérer les actions suivantes possibles. La corrélation sémantique peut être utilisée pendant l'acquisition des liens contextuels pour mettre au point les descriptions référents. Par exemple, si deux référents r1 et r2 sont hautement corrélés mais l'utilisateur n'est pas d'accord avec le résultat, alors les descriptions des référents D(r1) et/ou D(r2) peuvent être révisées. Dans les consultations futures, cette révision s'appliquera à l'utilisateur qui l'a faite, excepté si la révision a été faite par une classe d'utilisateur. 3.6. Leçons apprises Nous avons analysé (Boy, 1991b) diverses utilisations des systèmes de documentation disponibles à la NASA y compris les documents du programme de la station spatiale Freedom (SSF), et certains manuels de procédures d'opérations de la navette spatiale. Le premier type de documentation a été appelé documentation de conception et le second documentation opérationnelle. La documentation de conception est en général mise en œuvre en utilisant une recherche par mots clefs. Les gens trouvent cette pratique très difficile parce que les mots clefs sont utilisés dans un mode de recherche plein-texte. Par conséquent, les gens utilisant de tels systèmes se retrouvent en face de centaines de références ou rien, selon le critère de rappel/précision (Salton, 1989). Nous avons trouvé que l'approche CID introduisant le mode expérimental, permet à l'utilisateur d'indexer des référents avec des concepts qui ne sont pas nécessairement des mots ou des phrases inclus dans le texte. Un autre aspect est que les systèmes actuels utilisés à la NASA on des capacités de navigation pauvres (souvent complètement absentes). Les gens tendent à construire leur propres cartes cognitives de la documentation même si rien n'est fourni pour rendre explicite la topographie de la documentation. Nous avons trouvé que les cartes explicites de la documentation sont très utiles. Ces cartes peuvent être locales ("où aller ?"), ou globales ("où suis-je ?"). Elles peuvent se présenter sous la forme d'une structure hiérarchique de la documentation (table des matières locale ou globale), ou de relations conceptuelles entre les référents par l'intermédiaire de descripteurs (index local ou global). Les systèmes de documentation opérationnelle (habituellement sur papier) sont en général mise en œuvre en utilisant des tables de matières. De plus, les utilisateurs experts tendent à développer des stratégies de recherche robustes basées sur l'expérience et le contexte. Nous avons observé que, à l'inverse des utilisateurs de documentations de conception, les utilisateurs de documentations opérationnelles disposent de représentations cognitives très intégrées de la documentation qu'ils utilisent, en d'autres 76 Habilitation - Guy Boy - 1992 termes, ils connaissent sa structure hiérarchique ainsi qu'un ensemble extensif de liens conceptuels. La raison est que les opérationnels, dans une salle de contrôle de missions par exemple, sont hautement entraînés à résoudre des problèmes en utilisant des manuels d'opérations. De plus, ils actualisent cette documentation à partir de leur propre expertise (pas seulement son indexation mais aussi son contenu). CID facilitera ce processus pénible et couteux. Les résultats actuels indiquent que CID est très utile à la fois pour indexer des documents en contexte, et pour améliorer le processus de révision de la documentation lui-même. La recherche d'informations sensible au contexte donne des possibilités plus large comme fournir une expertise de recherche d'informations qui étaient jusqu'alors détenue par d'autres utilisateurs, par exemple, "que ferait John Smith dans cette situation ?" Nous testons actuellement CID avec des spécialistes de la SSF et de la navette spatiale afin d'obtenir plus d'information sur le niveau d'acceptation des capacités d'apprentissage et les comportements de CID par des concepteurs et des opérationnels. En premier lieu, les résultats ont montré que, et ce n'est pas surprenant, l'expansion de la base de liens contextuels doit être contrôlée avec soin. Actuellement, cette expansion est contrôlée par un seuil portant sur les coefficients de renforcement qui ont été calculés à partir des retours des utilisateurs (succès et échecs) et le temps cumulé entre les retours des utilisateurs. Nous avons introduit un coefficient de gravité qui pénalise le coefficient de renforcement dans le cas de liens critiques, en particulier lorsque le temps entre les retours est grand. La première version de CID a été mise en œuvre en Allegro Common LISP, HyperTalk et C. La version courante utilise HyperCard (version 2.0) et plusieurs fonctions externes en langage C. HyperCard est un bon outil de prototypage qui est courant à la NASA à cause de sa disponibilité étendue. C'est pour cette raison que CID peut être testé à une grande échelle. Même si nous n'avons pas encore de résultats expérimentaux quantitatifs, notre expérience actuelle sur CID est très encourageante. L'application de la documentation de la station spatiale Freedom contient actuellement environ 160 descripteurs liés à la documentation. CID dispose d'un algorithme d'apprentissage IARC (Index Acquisition and Refinement according to Context) un système qui met en œuvre une technique d'acquisition de contexte décrite dans (Boy, 1990). 3.6. Relations avec d'autres travaux L'indexation sémantique a été étudiée par de nombreux auteurs. Dumais et al. (1988) proposent une méthode pour organiser les nœuds en une structure sémantique basée sur la superposition des descripteurs utilisés dans les référents. Stotts et Furuta (1988) ont proposé un modèle d'hypertexte basé sur des réseaux de Petri. Leur système renforce les restrictions de navigation, par exemple, désactive certains liens. Comme CID, un précis de médecine décrit par Frisse et Cousins (1989) sépare l'espace d'indexation de l'espace documentaire. Ils ont montré comment certaines architectures d'indexation peuvent être exploitées pour améliorer la recherche d'information, le raffinage de requêtes, et le raisonnement automatisé. Leur modèle d'espace d'indexation est basé sur l'inférence en utilisant des réseaux de croyances sur les descripteurs. Le système I3R (Croft, 1989) 77 Habilitation - Guy Boy - 1992 utilise un réseau d'inférence Bayésienne pour acquérir des informations sur les besoins des utilisateurs et sur le domaine de connaissances. Crouch et al. (1989) ont utilisé des hiérarchies de clusters pour aider à naviguer dans la structure hypertexte. Toutes ces contributions à la recherche d'information ont contribué à développer des méthodes pour raffiner des liens entre des descripteurs et des référents. Cependant, le concept de contexte n'a pas été présenté explicitement dans aucun d'entre eux. Weyer (1988) défend le fait que l'information devrait être adaptable aux préférences des apprenants, et les liens devraient dépendre des actions précédentes de l'utilisateur et des buts courants. Ce point de vue va dans le sens de notre approche basée sur la connaissance de l'hypertexte. D'autres approches ont été développées pour acquérir et raffiner des liens en-ligne. Par exemple, Kibby and Mayes (1989), dans leur système hypertexte StrathTutor essayent d'éliminer le besoin de création de liens à la main en générant des liens basés sur des connaissances acquises lorsque l'utilisateur navigue dans le système. Monk présente aussi une méthode pour construire un outil de navigation personnel (Monk, 1987). Dans cette approche, le système surveille le comportement de navigation de l'utilisateur et interrompt l'utilisateur pour lui demander s'il doit ajouter une nœud à l'outil de navigation en fonction de la fréquence des accès. CID utilise les concepts de contexte et de conditions anormales pour apprendre à partir des retours des utilisateurs. Le travail sur les exceptions accompli par Winston (1983) et Williamson (1986) est similaire au nôtre, en particulier sur l'utilisation de conditions anormales. Nous avons étendu cette approche avec l'utilisation du renforcement dynamique, et avons mis en œuvre pratiquement ces considérations théoriques. Finalement, ce travail est une première étape vers une recherche plus approfondie sur la modélisation de l'utilisateur, dans laquelle des modèles d'utilisateurs (si possible acquis automatiquement) sont exploités par le système selon des façons prédéfinies. De tels systèmes ne peuvent pas actualiser leurs modèles d'utilisateurs en fonction de leur expérience. Notre système peut accomplir cette actualisation automatiquement. En d'autres termes, notre système apprend à opérationnaliser des modèles d'utilisateurs automatiquement, en fonction de l'expérience. 3.7. Discussion et futures directions Les résultats courants montrent que l'hypertexte est un bon outil de programmation pour le développement de tels systèmes. Alors que les systèmes hypertextes accroissent l'accessibilité, ils ne fournissent pas de mécanismes pré-construits de sélectivité. En d'autres termes, alors que les systèmes non-linéaires ou hypertextes peuvent accroître considérablement l'accessibilité à l'information, cette accessibilité accrue peut augmenter un problème déjà sévère de sélection (Jones, 1987). Pour ces raisons, notre approche basée sur la connaissance peut être très utile pour résoudre le problème de sélection ainsi que la surcharge cognitive de l'utilisateur. Nous n'avons pas trouvé d'approche équivalente à la nôtre en ce sens que la conception de liens contextuels pour retrouver des informations est basée non seulement sur la façon dont la documentation a été construite, mais aussi sur les exigences en information et les suggestions des utilisateurs lorsque 78 Habilitation - Guy Boy - 1992 ceux-ci utilisent le système. Donc, l'utilisateur augmente continuellement et raffine l'intelligence du système de recherche d'information. En dehors de l'interface intelligente pour naviguer à l'intérieur de grands documents, la capacité de notre système d'acquérir automatiquement le contexte est significative. En premier lieu, cette capacité permet au système de s'adapter aux besoins des utilisateurs. Par ailleurs, nous avons montré qu'il était possible d'incorporer les retours des utilisateurs dans la connaissance du système, ce qui est de nature à améliorer les performance du système. Dans ce sens, nous n'avons pas besoin de collecter et d'analyser des grandes quantités d'informations sur la façon dont les utilisateurs interagissent avec le système, parce que le système s'en charge lui-même. En conclusion, notre système apprend automatiquement comment exploiter des modèles d'utilisateurs et des descriptions de contexte. Ceci fournit plus de flexibilité et permet à notre système de s'adapter à l'utilisateur. Il est évident qu'il existe beaucoup de questions encore non résolues. Nous en donnerons quelques unes. Tout d'abord, la formalisation des conditions contextuelles reste problématique. D'une part, les conditions contextuelles devraient être minimales afin d'éviter des calculs excessifs. D'autre part, elles doivent inclure autant d'informations que possible pour caractériser la situation courante. Par ailleurs, nous n'avons pas de méthodologie adéquate pour définir expérimentalement le seuil "idéal" de renforcement des conditions anormales (Boy, 1990), pour décider de créer un nouveau lien contextuel, en supprimer un qui est inutilisé, inclure une action dans un lien contextuel, ou généraliser deux liens contextuels similaires. 79 Habilitation - Guy Boy - 1992 80 Habilitation - Guy Boy - 1992 Conclusion "... Descartes... croyait que l'on pouvait déduire une méthode à partir des principes, alors que je cherche ces principes. Descartes avait formulé la grande disjonction qui va dominer le monde occidental: entre l'objet et le sujet, entre la nature et l'homme qui doit la maîtriser... Il est impossible d'isoler l'être vivant de son écosystème, l'individu de la société, le sujet et l'objet. Il nous faut travailler et penser non seulement par distinction et clarté, mais aussi avec le flou et l'obscur." Edgar Morin (1991). Contribution de la thèse La société de l'information est aujourd'hui une réalité économique, pas une abstraction intellectuelle. C'est dans ce contexte que nous avons voulu placer cette thèse. La télévision, les ordinateurs personnels et la mobilité des gens constituent quelques traits visibles de la révolution de l'information. En particulier, l'être humain peut acquérir de l'information dans des lieux où elle était pratiquement inaccessible dans le passé. Une transformation profonde de nos sociétés est en marche. Notre expérience dans le domaine de l'interaction cognitive Homme-machine se situe au carrefour de plusieurs disciplines : l'informatique, l'automatique, et la psychologie cognitive. Le travail que nous présentons dans le cadre de cette thèse contribue à donner : un cours sur les méthodes et techniques pour l'élaboration de systèmes d'assistance à l'opérateur (travail rapporté dans les livres "Assistance à l'Opérateur : Une Approche de l'Intelligence Artificielle" et "Intelligent Assistant Systems"); un ensemble de réponses concrètes à des problèmes posés par la réalisation et l'évaluation de systèmes d'assistance à l'opérateur (réalisation de systèmes tels que MESAGE, HORSES, SAOTS et CID); et une approche pour la prise en compte du contexte dans la construction de bases de connaissances. Un cours Le cours que nous avons développé depuis 1983 est une introduction aux concepts et aux techniques nécessaires d'une part pour pouvoir construire facilement des programmes informatiques auto-explicatifs et adaptés à l'utilisateur final et, d'autre part pour comprendre les principes d'une interaction cognitive Homme-machine. Il est orienté vers l'analyse et la conception de systèmes d'assistance à l'opérateur en utilisant les principes et les techniques de l'IA. Deux courants se rencontrent : d'un côté, celui des formalisateurs qui soutiennent la normalisation des représentations, d'un autre coté, celui des défenseurs des aspects créatifs de l'IA. Le premier courant fait partie de l'évolution naturelle des techniques de programmation compte tenu des potentialités toujours plus importantes du matériel. Il est très probable que la logique, les objets, et les règles de production feront partie de la 81 Habilitation - Guy Boy - 1992 panoplie du programmateur de la prochaine décennie. Le second courant pourrait être défini comme l'évolution des interactions entre l'IA et les sciences cognitives : d'un côté, le développement de théories qui vont rendre les machines plus "intelligentes", par exemple, la physique qualitative de Johan de Kleer; d'un autre côté, les recherches hypothético-déductives de la psychologie cognitive, comme l'explication (par simulation) du comportement humain en utilisant des modèles de l'IA, et les recherches expérimentales de la psychologie cognitive. L'IA peut être vue comme une discipline scientifique ayant deux grandes directions, l'une technologique, le développement d'une informatique moderne, et l'autre cognitive, une contribution à part entière au développement des sciences cognitives. Nous pouvons résumer ceci par le schéma suivant. IA techniques de programmation informatique moderne faciliter la programmation langages objets sciences et techniques de l'épistémologie de la connaissance introduire l'utilisateur final dans la boucle de conception langages de règles fournir des structures informatiques pour simuler le comportement cognitif humain ...... chercher de nouvelles structures cognitives et informatiques ...... analyse de protocoles La conception de systèmes d'assistance à l'opérateur donne lieu à cinq grandes étapes : 1. discuter de ce qui est connu : il est important de rendre explicite et de clarifier la connaissance des experts du domaine; 2. décrire des langages pour exprimer "informatiquement" cette connaissance : il est évident que les langages déclaratifs ont une puissance descriptive du réel nettement supérieure à celle des langages classiques de programmation; 82 Habilitation - Guy Boy - 1992 3. Déterminer quels processus de traitement vont guider le programme pour aller des faits initiaux (ou courants) à des conclusions. On peut citer, par exemple, la déduction logique, l'induction, l'analogie, etc. 4. programmer une première version du système d'assistance : cette version sera pauvre en connaissance situationnelle et riche en connaissance analytique; 5. évaluer la machine intelligente d'AO d'une manière incrémentale, c'est-à-dire par utilisation progressive, comparer les résultats produits avec les résultats "raisonnables" attendus (par un expert par exemple) et modifier itérativement la connaissance du système. Certaines parties analytiques sont progressivement "compilées" sous forme de nouvelle connaissance situationnelle. Dans le cours que nous avons développé, nous nous intéresserons tout d'abord à la première direction pour aller progressivement vers la seconde, pour les trois raisons suivantes. 1. Dans le stade actuel des recherches en IA, il est difficile de dissocier les deux aspects, en particulier au niveau des représentations de connaissances, ou des processus d'acquisition de connaissances, par exemple. 2. Le futur praticien ou chercheur en IA doit avoir des bases "solides" sur les processus actuellement programmables et liés à la cognition. 3. Par leur souplesse d'utilisation, la modularité des représentations mises en oeuvre et les facilités de mise au point, les techniques d'IA permettent aux concepteurs de systèmes de prendre en compte dès le début, l'utilisateur final dans la boucle de conception. Dans une première phase, elles permettent de réaliser rapidement un prototype de simulation qui peut être testé et amélioré au fur et à mesure de l'avancement du projet. Une expérience Même si elle a connu quelques désappointements à la fin des années quatre-vingt, l'intelligence artificielle fait maintenant partie de l'informatique. Les techniques d'IA sont actuellement appliquées pour améliorer des produits industriels conventionnels, mais des nouvelles activités, des nouveaux processus et produits sont en train d'arriver et seront développés dans le courant de années quatre-vingt dix. Nous nous sommes délibérément attaqués aux problèmes posés par l'intégration de ces nouvelles technologies dans la société de travail. Nous avons travaillé sur l'interaction des pilotes avec les systèmes d'un avion de transport moderne, sur la coopération entre l'opérateur et un système de diagnostic dit à base de connaissances, sur l'assistance au suivi de procédures d'opérations dans le cadre de la télémanipulation, et sur l'assistance à la navigation "intelligente" dans une base d'informations hypertexte. 83 Habilitation - Guy Boy - 1992 L'un des premier buts d'une théorie est de nous aider à trouver des réponses à certaines questions. Même s'il n'existe pas de théorie de l'analyse, la conception et l'évaluation de systèmes cognitifs Hommes-machines, nous avons tenté de donner quelques directions provenant de notre expérience dans le domaine. L'intelligence humaine se traduit par le fait que les êtres humains adaptent leur perception et actions au champ social. Cette adaptation se produit à tous les niveaux d'interaction : les gens disent les "bons" mots au "bon" moment et sous la "bonne" forme20; ils se rappellent de leurs expériences; ils essayent de se préserver du danger; etc. Existe-t-il aujourd'hui un système ayant de telles capacités ? Notre travail s'appuie sur l'hypothèse que l'intelligence est à rechercher dans l'interaction plutôt que dans les systèmes euxmêmes. Par conséquent, le concept d'IIHM est essentiel, i.e., la conception de tout système ne peut se faire qu'en prenant en compte les utilisateurs finaux dans la boucle de conception-évaluation. En particulier, l'anticipation de changement de mode de travail est essentielle dans le développement des machines modernes. En effet, le modèle opératif interne de l'opérateur peut être différent selon qu'il contrôle ou surveille seulement la machine augmentée d'un système automatique. Par conséquent, commuter d'une tâche de surveillance à une tâche de contrôle manuel peut être très difficile pour un opérateur humain. D'une manière générale, la prise en compte du facteur humain dans la conception et l'évaluation des systèmes est essentielle. Les êtres humains sont différents des machines parce que leur charge de travail peut affecter leur performance. En particulier, la charge mentale peut être prohibitive en résolution de problème ou en contrôle distribué. Une étude réalisée par Sears en 1986 sur 93 accidents majeurs d'avion montre que la responsabilité était allouée pour 65% à l'équipage (rapporté par Nagel, 1986). 33% des pilotes sont sortis des procédures standards, 26% étaient dûs à une vérification mal appropriée par le copilote, dans 10% des cas le commandant de bord n'a pas pris en compte l'information provenant de l'équipage, et finalement dans 9% des cas l'équipage n'était pas parfaitement entraîné pour traiter des situations critiques. Il est maintenant bien connu que la plupart des erreurs humaines sont des dérapages (erreurs d'étourderie). Si les causes des dérapages sont connues, elles peuvent être utilisées dans la conception de fonctionnalités de systèmes d'assistance à l'opérateur. Il est connu que la compréhension de comment une machine fonctionne est une fonction de l'instruction et de l'entraînement. Les êtres humains agissent et décident par rapport à de petits ensembles d'heuristiques. Cependant, ces heuristiques peuvent être très compliquées. Construire et structurer des heuristiques repose sur l'entraînement. Généralement, comme nous l'avons vu plus haut, les premiers stades de l'apprentissage sont analytiques. Cette connaissance est ensuite compilée par un processus d'accommodation. La connaissance compilée est appelée connaissance situationnelle. Les accidents récents en aviation commerciale et dans les centrales nucléaires ont montré de façon dramatique combien l'automatisation excessive pouvait entraîner une baisse de 20Ce principe souvent cité en ingénierie cognitive (Boy, 1983; Holnagel, 1988) fait aussi partie la thèse du raisonnement basé sur les cas (Schank, 1991). Schank défend la thèse que l'intelligence humaine se traduit par le fait que les gens racontent la bonne histoire au bon moment. 84 Habilitation - Guy Boy - 1992 vigilance chez les opérateurs humains. Par ailleurs, il a été montré que lorsque les opérateurs humains agissent, ils sont d'excellents surveillants et superviseurs. De tels résultats indiquent que, pendant les opérations, les ordinateurs doivent être utilisés plus comme des associés que comme des "béquilles". La technologie des systèmes à base de connaissances peut être utilisée pour servir ce point de vue. Nous devons encore acquérir plus de connaissance et de savoir-faire pour construire des processeurs intelligents interactifs et adaptés au monde réel et au temps-réel. Ce que nous pouvons faire aujourd'hui c'est : surveiller des sous-systèmes indépendants; présenter des buts et des explications causales à l'opérateur humain; mettre en œuvre des systèmes à base de connaissances de diagnostic, d'ordonnancement et parfois de réordonnancement. Il faut tout de même remarquer que le raisonnement est toujours basé sur des procédures standards. Enfin, un système d'assistance à l'opérateur (Boy & Rappaport, 1987; Boy, 1988) doit tolérer les erreurs humaines et proposer à l'opérateur un dialogue orienté vers la tâche. La prise en compte du contexte La connaissance situationnelle est difficile à obtenir. Cependant, elle est essentielle dans la conception et l'évaluation de tout système cognitif. En particulier, certaines procédures montrent que la même action peut avoir divers effets en fonction de la situation et du champ social attendu, donnant lieu à des interactions ayant un contenu, des structures et des formes syntactiques différents. Par exemple, la même procédure sera utilisée de façons différentes par un expert et un débutant. Notre travail s'est efforcé de montrer qu'il est nécessaire de s'assurer que le langage de l'interaction est approprié à son champ social. L'expérience du projet MESSAGE a été déterminante dans ce sens. Il est aussi important de disposer d'outil d'analyse de ces connaissances situationnelles. Dans notre travail sur l'assistance intelligente au contrôle de processus, avec Nathalie Mathé, nous avons tenté de donner une approximation du concept de contexte par le modèle hiérarchique des blocs. Nous avons mis au point une représentation des connaissances : la représentation par blocs. Cette représentation dite intermédiaire (Bradshaw et al., 1992) offre un niveau de transition entre la connaissance brute et des langages potentiels de mise en œuvre informatique. L'expérience des projets HORSES et SAOTS nous ont beaucoup aidé à formaliser ce type de représentation. Il est aussi nécessaire de penser des systèmes ayant certaines capacités d'adaptation aux interactions. Notre travail sur CID nous a amené à considérer le problème de l'adaptation, en particulier lorsque la communauté des utilisateurs est variée et lorsque les situations d'opérations changent fréquemment. La certification de tels systèmes reste l'un des problèmes les plus difficiles. Des expériences sont en cours à la NASA sur ce sujet dans le cadre du projet CID. Nous avons mis en évidence trois modes d'interaction entre agents : la compétition; la coopération par partage de données communes; et la coopération par communication directe. Dans chacun de ces modes, la notion de contexte dépasse la prise en compte de la tâche; elle inclut le champ social dans lequel s'effectue l'interaction. Un contexte spécifique est très difficile à mettre en évidence parce que c'est un concept dynamique (le 85 Habilitation - Guy Boy - 1992 contexte change à tout instant). "Contextualiser" les connaissances mises en œuvre par une machine est un processus d'apprentissage essentiellement basé sur l'interaction. Le but de l'acquisition de connaissances contextualisées est d'augmenter le contexte partagé entre deux agents. En dynamique, même si deux agents partagent un même ensemble de connaissances contextualisées, il se peut qu'à un instant donné ces deux agents ne partagent pas la même focalisation d'attention, c'est-à-dire le sous-ensemble des connaissances contextualisées mises en jeu dans l'interaction instantanée. Notre approche d'acquisition des connaissances contextualisées est basée sur l'analyse, la mise en évidence et la réparation de la différence de focalisation d'attention entre deux agents. Cette différence peut venir d'une définition inadéquate du contexte courant ou du manque de connaissances contextualisées de l'un des agents. Perspectives L'automatisation va croître dans les années à venir. En aviation par exemple, les bibliothèques électroniques (ELS) vont apparaître à bord, les checklists électroniques, et les communications digitales air-sol (Billings, 1991). Les bibliothèques électroniques vont réduire la quantité de papier à bord. Dans la première phase d'installation, les pilotes pourront avoir accès aux données stockées dans ces systèmes, mais n'auront probablement pas la permission d'interagir avec eux pour retarder des problèmes dus aux critères actuels de certification. Les checklists électroniques vont alléger sensiblement la charge de travail des pilotes. Les checklists électroniques sont en cours d'investigation par Palmer et Degani au Centre de Recherches de la NASA Ames (1991). En particulier, le bon choix du niveau d'automatisation reste une question cruciale. Les communications digitales air-sol vont accroître la quantité d'information vers le cockpit. Cette nouvelle possibilité va donner lieu à plus d'études sur le type, la qualité, et l'intégration de l'information disponible aux pilotes. A coté de cette automatisation accrue, les ordinateurs restent un mythe pour la plupart des gens. Une question reste cependant sans réponse : est-ce que les ordinateurs vont conserver leur statut d'outils pour spécialistes ? Il semble que cette direction a déjà montré ses limites en termes d'acceptation sociale et industrielle. Il n'est pas rare d'entendre que des grands décideurs ont dépensé des sommes colossales dans le logiciel informatique pour des résultats très peu satisfaisants. Ceci est dû au fait que les utilisateurs finaux n'ont pas été pris en compte dans la boucle de conception (nous avons déjà discuté de ce point dans la section 1.4), et, même si les systèmes développés sont très "intelligents", ils sont généralement construits par des ingénieurs pour des ingénieurs... et pas pour une autre classe de professionnels ou tout simplement pour des gens "ordinaires". Nous pensons que l'évolution de la technologie informatique va nous forcer à considérer une perspective plus large sur la nature de l'activité humaine. La technologie ne peut améliorer nos connaissances et notre plaisir que si nous l'utilisons de la façon adaptée. De ce point de vue, les ordinateurs vont devenir le nouveau médium utilisé tous les jours par n'importe qui dans n'importe quel endroit du monde pour échanger et traiter des informations. Brenda Laurel (1991) partage cette idée lorsqu'elle 86 Habilitation - Guy Boy - 1992 déclare que nous devrions "penser à l'ordinateur non comme un outil, mais comme un médium". Construire des systèmes à bases de connaissances aujourd'hui consiste à construire des bases de connaissances depuis le début. Dans le futur, il semble que la tendance soit tournée vers la réutilisation de composants réutilisables. Les développeurs de systèmes n'auraient alors qu'à créer des connaissances spécialisées et des mécanismes de traitement adaptés à la tâche spécifique de leur système. Ce nouveau système va interagir avec des systèmes existants, les utilisant, par exemple, pour accomplir certaines tâches. De cette façon, les connaissances déclaratives, les techniques de résolution de problème, et les services de raisonnement pourraient tous être partagés par une grande quantité de systèmes. Cette approche est de nature à faciliter la construction de systèmes plus grands et meilleurs à moindre frais. Cette infrastructure supportant un tel partage et une telle réutilisation de connaissances amenerait à une plus grande ubiquité de ces systèmes, ce qui amènerait vers une industrie de la connaissance. Quelques initiatives ont déjà commencé, comme le projet Cyc développé par MCC Corporation (Guha and Lenat, 1990) qui a pour but de développer une immense base de connaissances de sens commun sous laquelle "toutes" les applications pourraient être construites. Robert Neches et al. (1991) ont récemment lancé une nouvelle initiative portant sur une technologie du partage de la connaissance. Cette vision est basée sur le point de vue de Mark Stefik que les bases de connaissances vont être le prochain mécanisme d'échange d'information. Un médium de connaissances basé sur la technologie de l'IA fait partie d'un continuum. Les livres et d'autres média passifs ne peuvent que stocker des connaissances. A l'autre bout du spectre, on trouve les systèmes experts qui peuvent stocker et aussi appliquer les connaissances. Entre ces deux extrêmes il existe un grand nombre de possibilités hybrides dans lesquelles le traitement des connaissances est principalement accompli par des êtres humains. Il existe plusieurs opportunités pour établir des partenariats Hommemachine et pour construire de nouveaux outils automatisant les tâches de façon incrémentale. Comme Winograd et Flores (1987), nous pensons que les outils sont fondamentaux pour l'action et que par nos actions nous transformons le monde. Cependant, les transformations qui nous intéressent ne sont pas seulement technologiques, elles concernent notre propre évolution individuelle et l'évolution de nos sociétés. 87 Habilitation - Guy Boy - 1992 Hors Contexte ? "LPP21—S'il vous plaît... dessine-moi un mouton... ADSE22—... Et si tu es gentil, je te donnerai aussi une corde pour l'attacher pendant le jour. Et un piquet. La proposition parut choquer le petit prince: LPP—L'attacher? Quelle drôle d'idée! ADSE—Mais si tu ne l'attaches pas, il ira n'importe où, et il se perdra. Et mon ami eut un nouvel éclat de rire: LPP—Mais où veux-tu qu'il aille! ADSE—N'importe où. Droit devant lui... Alors le petit prince remarqua gravement: LPP—Ça ne fait rien. c'est tellement petit, chez moi! Et, avec un peu de mélancolie, peut-être, il ajouta: LPP—Droit devant soi on ne peut pas aller bien loin..." Antoine de Saint-Exupéry. 21Le Petit Prince. de Saint-Exupéry. 22Antoine 88 Habilitation - Guy Boy - 1992 Références Addis, T.R. (1987). A framework for knowledge acquisition. Proceedings of the 1st European Knowledge Acquisition for Knowledge-Based Systems Workshop (EKAW87), Reading, U.K., September 2-3. Anderson, J.R. (1983). The Architecture of Cognition. Harvard University Press, Cambridge, Massachusetts. Amalberti, R., (1986). Human Errors in Some Aeronautics Accidents and Perspectives of Intelligent Aiding. Proceedings of the First International Conference on HumanMachine Interaction and Artificial Intelligence in Aeronautics and Space, G. Boy Ed., October 13-14, Toulouse, France. Billings, C.E., (1991). Human-Centered Aircraft Automation: A Concept and Guidelines. NASA Technical Memorandum 103885, August. Boy, G.A. (1983a). Contribution à l'étude de la charge de travail des fonctions de gravité - Le passage nécessaire par un modèle d'opérateur humain pour analyser la charge de travail. Mémoire de Diplôme d'Etudes Approfondies, Université Toulouse Le Mirail, U.E.R. des Sciences du Comportement et de l'Education. Boy, G.A. (1983b). Le système MESSAGE: un premier pas vers l'analyse assistée par ordinateur des interactions homme-machine. Le Travail Humain, 46 (2). Boy, G.A. (1986). An expert system for fault diagnosis in orbital refueling operations. AIAA 24th Aerospace Science Meeting, Reno, Nevada, January 1986. Boy, G.A. (1987a). Analytical representation and situational representation. Seminar on Human Errors and Automation. ENAC, Toulouse, May (in French). Boy, G.A. (1987b). Operator assistant systems. International Journal of Man-Machine Studies, 27, pp. 541-554. Boy, G.A. (1988). Breakdown in Human Adaptation: Designing the Human-Machine Loop. CEC Discussion Meeting Report, CERT, Toulouse. Boy, G.A. (1990). Acquiring and Refining Indices According to Context.Proceedings of the Fifth AAAI-Sponsored Knowledge Acquisition for Knowledge-Based Systems Workshop, Banff, Canada, November 4-9. Boy, G.A. (1991a). Intelligent Assistant Systems. Academic Press, London. Boy, G.A. (1991b). Some Theoretical Issues on the Computer Integrated Documentation Project. Proceedings of the Sixth AAAI-Sponsored Knowledge Acquisition for Knowledge-Based Systems Workshop, Banff, Canada, October 6-11. Boy, G.A. (1991c). Indexing Hypertext Documents in Context.Proceedings of the Hypertext'91 Conference, San Antonio, Texas, December. Boy, G.A. (1992). Semantic Correlation in Context: Application in Document Comparison and Group knowledge design. Proceedings of the AAAI Spring Symposium on Cognitive Aspects of Knowledge Acquisition, Stanford University. Boy, G.A. & Caminel, T. (1989). Situation Patterns Acquisition improves the Control of Complex Dynamic Systems. Proceedings of the Third European Knowledge Acquisition Workshop, Paris. Boy, G.A. & Delail, M. (1988). Knowedge Acquisition by Specialization/Structuring: A Space Telemanipulation Application. Proceedings of the AAAI-88 Workshop on 89 Habilitation - Guy Boy - 1992 Integration of Knowledge Acquisition and Performance Systems, St Paul, Minnesota, U.S.A. Boy, G.A., & Mathé, N., (1989). Operator Assistant Systems: An Experimental Approach Using A Telerobotics Application. IJCAI Workshop on Integrated Human-Machine Intelligence in Aerospace Systems, Detroit, Michigan, USA, August 21. Boy, G.A. & Tessier, C. (1985). Cockpit Analysis and Assessment by the MESSGE Methodology. Proceedings of the 2nd IFAC/IFIP/IFORS/IEA Conference on Analysis, Design and Evaluation of Man-Machine Systems, G. Mancini, G. Johannsen and L. Martensson (Eds.), Varese, Italy, September 10-12. Bradshaw, J.M., Holm, P., Kipersztok, O. & Nguyen, T. (1992). eQuality: An Application of DDUCKS to the Process Management. Proceedings of the 6th European Knowledge Acquisition for Knowledge-Based Systems Workshop (EKAW92), Heidelberg and Kaiserslautern, Germany, May 18-22. Brown, J.S. (1992). Designing for Leveraging the Social Mind: Tapping into the Invisible Resources of the Periphery. Closing Plenary Talk, CHI'92, Monterey, Californie. Cahours, B. & Paris, C. (1991). Role and Use of User Models. Proceedings of the IJCAI Workshop on Agent Modeling for Intelligent Interaction, Sydney, Australie. Card, S.K., Moran, T.P. & Newell, A. (1983). The Psychology of Human Computer Interaction, Lawrence Erlbaum Ass., Pub., Hillsdale. Changeux, J.P. & Conne, A. (1989) Matière à Pensée. Paris: Editions Odile Jacob. Chase, W.G. & Simon, H.A. (1973). Perception in chess. Cognitive Psychology, 4, pp.5581. Clancey, W.J. (1990). The Frame of Reference Problem in the design of Intelligent Machines. In K. Van Lehn & A. Newell, Architectures for Intelligence: The 22nd Carnegie Symposium of Cognition. Hillsdale: LEA. Collins, A. & Smith, E.E. (1988). Readings in Cognitive Science - A Perspective from Psychology and Artificial Intelligence. Morgan Kaufmann Publishers, Inc., San Mateo, California. Conklin, J., (1987). Hypertext: An Introduction and Survey. Computer, September. Coombs, C.H., Dawes, R.M. & Tversky, A. (1975). Psychologie Mathématique. PUF. Coutaz, J. (1988). Interface Homme-Ordinateur : Conception et Réalisation. Thèse d'Etat, Université Joseph Fourier, Grenoble. Dejong, G. (1981). Generalization based on explanation. Proc. IJCAI, pp. 67-69. de Saint Exupéry, A. (1943). Le Petit Prince. Harcourt, Brace & World, New York. Dreyfus, S.E. (1982). Formal models vs. human situational understanding: inherent limitations on the modeling of business expertise. Office: Technology and People, 1 , pp.133-165. Drummond, M., (1989). Situated Control Rules. Proceedings of the First International Conference on Principle of Knowledge Representation and Reasoning, Morgan Kaufmann Pub., Toronto, May. Dubois, D. & Prade, H. (1985). Théorie des Possibilités. Applications à la Représentation des Connaissances en Informatique. Masson, Paris. Engelbart, D.C. (1963). A conceptual framework for the augmentation of man's intellect. In Vistas in Information Handling, Vol. 1. Spartan Books, London. 90 Habilitation - Guy Boy - 1992 Falkenhainer, B.C. (1990). A unified approach to explanation and theory formation. In J. Shrager & P, Langley (Eds.), Computational models of scientific discovery and theory formation. Morgan Kaufmann, San Mateo. Falzon, P. (1986). La communication Homme-machine : Les stratégies de dialogue et le langage d'interaction. Colloque sur l'Interaction Homme-Machine et l'Intelligence Artificielle dans les Domaines de l'Aéronautique et de l'Espace, ENSAE, Toulouse, 13-14 octobre. Falzon, P. (1988). Ergonomie Cognitive du Dialogue. Presses Universitaires de Grenoble. Feigenbaum, E.A. & Barr, A. (1982). The Handbook of Artificial Intelligence, Vols 1-2. Kaufmann, Los Altos, CA. Fensel, D., Angele, J. & Landes, D. (1991). KARL: A Knowledge Acquisition and Representation Language. Proceedings Expert Systems and their Applications, 11th International Workshop, Conference "Tools, Techniques and Methods", Avignon. Fensel, D., (1992). Knowledge acquisition and the qualitative oriented social science. Proceedings of the AAAI Spring Symposium on Cognitive Aspects of Knowledge Acquisition, Stanford University. Ferber, J. (1989). Objets et Agents: Une Etude de la Représentation et des Structures de Communication en Intelligence Artificielle. Thèse d'Etat. Université Pierre et Marie Curie, Paris 6, Juin. Fisher, D. (1987). Knowledge acquisition via incremental conceptual clustering. Machine Learning, 2, pp. 139-172. Ford, K.M. & Agnew, N.M. (1992). Expertise: Socially Situated, Personally Constructed, and "Reality" Relevant. Proceedings of the AAAI 1992 Spring Symposium on the Cognitive Aspects of Knowledge Acquisition, March 25-27, Stanford University, California. Frisse, M.E. & Cousins, S.E. (1989). Information Retrieval from Hypertext: Update on the Dynamic Medical Handbook Project. Hypertext'89 Proceedings, pp. 199-212, ACM press, New York. Gaines, B.R. (1992). The Species as a Cognitive Agent. Proceedings of the AAAI 1992 Spring Symposium on the Cognitive Aspects of Knowledge Acquisition, March 25-27, Stanford University, California. Ganascia, J.G. (1992). Exposé sur les modèles. Journées d'Acquisition de Connaissances et Journées Françaises d'Apprentissage et d'Explication des Connaissances. Dourdan. Ganascia, J.G. (1990). L'âme-machine - Les enjeux de l'intelligence artificielle. Seuil, Paris. Geddes, N.D., (1985). Intent inferencing using scripts and plans. Proceedings of the First Annual Aerospace Applications of Artificial Intelligence Conference, Dayton, Ohio. Gentner, D. (1989). Mechanisms of analogical learning. In S. Vosniadou & A. Ortony (Eds.) Similarity and analogical reasoning. Cambridge University Press, London. Guha, R.V. & Lenat, D.B. (1990). Cyc: A Mid-Term Report. AI Magazine, 11(3), pp. 3259. Hammond, K. (1989). Chef. In C.K. Riesbeck & R.C. Schank (Eds.), Inside Case-Based Reasoning. Erlbaum, Hillsdale, NJ. Hayakawa, S.I. (1990). Language in Thought and Action. Fifth Edition. Harcourt, Brace & Jovanovich, New York. 91 Habilitation - Guy Boy - 1992 Hayes-Roth, B. & Hayes-Roth, F. (1978). Cognitive Process in Planning, Rep. No. R2366-0NR, Rand Corp., Santa Monica, CA. Hegel, G.W.F. (1929). Science of Logic. George Allen & Unwin, London. Originally 1812-1816 translated by W.H. Johnson & L.G. Struthers. Heckel, Paul (1984). The Elements of Friendly Software Design. Warner Books, New York. Hewitt, C. (1977). Viewing control structures as patterns of message passing. Artificial Intelligence, 8 (3). Hollan, J. & Williams, M. (1991). The Craft of Exploiting AI Techniques in Human Interface Design. Tutorial AAAI conference, Anaheim, California. Hollnagel, E. (1989). Man-Machine Interaction and Decision Support Systems: User Modeling and Dialogue Spécification. Update of a paper presented at the IAEA Technical Committee Meeting on User Requirements for Decision Support Systems, Vienna, November 1988. Hutchins, E. (1991). How a Cockpit Remembers its Speeds. NASA Ames Review Meeting, and Distributed Cognition Laboratory, Department of Cognitive Science, UCSD, August 12. Imbert, M., Bertelson, P., Kempson, R., Osherson, D., Schnelle, H., Streitz, N., Thomassen, A. & Viviani, P. (1987) Cognitive Science in Europe. Berlin, New York: Springer Verlag. Kodratoff, Y. (1988). Introduction to Machine Learning. Morgan Kaufmann Publishers, San Mateo, CA. Kolodner, J. (1983). Reconstructive memory: a computer model. Cognitive Science, 7, pp. 281-328. Korf, R.E. (1985). Learning to Solve Problems by Searching for Macro-Operators. Research Notes in Artificial Intelligence, Pitman, Boston. Langley, P., Simon, H.A. & Bradshaw, G.L. (1987). Heuristics for empirical discovery. In L. Bolc (Ed.), Computational models of learning. Springer-Verlag, Berlin. Laurel, B. (1991). Computer as Theatre. Addison Wesley, Reading, Massachusetts. Lenat, D.B. (1977). The ubiquity of discovery. Artificial Intelligence, 9, pp. 257-285. Leplat, J. (1985). The elicitation of expert knowledge. NATO Workshop on Intelligent Decision Support in Process Environments, Rome, Italy. September. Lesser, V. & Corkill, D. (1983). The distributed vehicle monitoring testbed: a tool for investigating distributed solving networks. AI Magazine, 4 (3). Linster, M. (1992). L'ingénierie de la connaissance : une symbiose de deux perspectives sur le développement des modèles. Actes des 3èmes Journées d'Acquisition de Connaissances du PRC-IA, Dourdan, 14-16 avril. Luhn, H.P. (1959). Keyword-in-Context for Technical Literature (KWIC Index), American Documentation, 11, pp. 288-295. Mathé, N. (1990). Assistance Intelligente au Controle de Processus: Application a la Telemanipulation Spatiale. Ph.D. Dissertation, November, ENSAE, Toulouse, France. Mathé, N. (1991). Procedures Management and Maintenance. Second ESA Grant Progress Report, NASA Ames Research Center, California, August. 92 Habilitation - Guy Boy - 1992 McClelland, J.L., Rumelhart, D.E. & The PDP Research Group (1986). Parallel Distributed Processing. Exploration in the Microstructure of Cognition. Volume 2 : Psychological and Biological Models. The MIT Press, Cambridge, Massachusetts. McCulloch, W. & Pitts, W. (1943). A logical calculus of the ideas imminent in nervous activity. Bulletin of Mathematical Biophysics, 5. Minsky, M. (1985). The Society of Minds. Touchtone Book, Simon & Schuster Publishers, Inc., New York. Mitchell, T.M. (1982). Generalization as search. Artificial Intelligence, 118, pp. 203-226. Mitchell, T.M., Keller, R.M. & Kedar-Cabelli, S.T. (1986). Explanation-based generalization: A Unifying view. Machine Learning, 1, pp. 47-80. Morin, E. (1981). Edgar Morin l'encyclopédant. Le Monde, 29 novembre. Munford, L. (1934). Technics and Civilization. Harcourt, Brace and World, Inc., New York, NY. Nagel, D.C. (1986). Pilots of the future: humans or computers? Invited Talk at the First Conference on Human-Machine Interaction and Artificial Intelligence in Aeronautics and Space. Toulouse, October 13-14 1986. Neches, R., Fikes, R., Finin, T., Gruber, T., Patil, R., Senator, T. & Swartout, R. (1991). Enabling Technology for Knowledge Sharing. AI Magazine, 12(3), pp. 36-56. Newell, A. & Simon, H.A. (1972). Human Problem Solving, Englewood Cliffs, N.J., Prentice Hall. Nii, P. (1986). Blackboard systems. AI Magazine, 7 (2-3). Norman, D., (1981). Categorization of Action Slips. Psychological Review, 88, p. 1-15. Norman, D.A. & Draper, S.W. (1986). User Centered System Design: New Perspectives on Human-Computer Interaction. Lawrence Erlbaum Associates, Hillsdale, N.J. Norman, D.A. (1992). Turn Signals are the Facial Expressions of Automobiles. Addison Wesley, Reading, Massachusetts. Palmer, E., & Degani, A. (1991). Electronic Checklists: an Evaluation of two Levels of Automation. Proceedings of the Sixth Symposium on Aviation Psychology, Columbus, OH, April. Pelegrin, M. (1986). Difficultés et risques du semi-automatique. Journées d'Etudes Effets de l'Automatisation sur la Performance de l'Opérateur Humain, Proceedings, A. Coblentz Ed., Paris, 27-28 octobre. Penzias, A. (1989). Ideas and Information. Simon and Schuster, New York, NY. Pessis-Pasternak, G. (1991). Faut-il brûler Descartes ? Du chaos à l'intelligence artificielle: quand les scientifiques s'interrogent. Science et Société, Editions La Découverte, Paris. Piatteli-Palmarini, M. (1990) Cognitive Science in Europe. Issues and Trends. Monograph Series no. 1, GOLEM. Posner, M.I. (1989). Foundations of Cognitive Science. MIT Press, Cambridge, Massachusetts. Rappaport, A. (1986). Multiple sub-spaces of problem solving in knowledge acquisition. Proceedings of the Conference on Human-Machine Interaction and Artificial Intelligence in Aeronautics and Space. CERT/ENSAE, Toulouse, France, October 1986. 93 Habilitation - Guy Boy - 1992 Rasmussen, J. (1979). On the Structure of Knowledge. A Morphology of Mental Models in a Man-Machine Context. Riso National Laboratory, Report no.RISO-M-2192, Rostilde, Denmark. Rasmussen, J. (1983). Skills, rules and knowledge; signals, signs, and symbols, and other distinctions in human performance models. IEEE Transactions on Systems, Man, and Cybernetics, 3, pp. 257-266. Rasmussen, J. (1986). Information Processing and Human-Machine Interaction - An Approach to Cognitive Engineering. North Holland Series in System Science and Engineering, A.P. Sage, Ed Reason, J. (1986). Decision aids: prostheses or tools ? pp. 7-14 in Cognitive Engineering in Complex Worlds, eds E. Hollnagel, G. Mancini & D.D. Woods. Academic Press, London. Roscoe, S., (1980). Cockpit Workload, Residual Attention and Pilot Errors. Aviation Psychology, Iowa University Press. Rosenblatt, F. (1958). The perceptron: a probabilistic model for information storage and organization in the Brain. Psychological Review, 65. Rumelhart, D.E., McClelland, J.L. & The PDP Research Group (1986). Parallel Distributed Processing. Exploration in the Microstructure of Cognition. Volume 1: Foundations, The MIT Press, Cambridge, Massachusetts. Salton, G. (1989). Automatic Text Processing. Addison Wesley, Reading, MA. Schank, R.C. (1991). Where's the AI? AI Magazine, Volume 12, Number 4, Winter. Schneider, W. & Shiffrin, R.M. (1977a). Controlled and automatic human information processing: I. Detection, search, and attention. Psychological Review, 84 (1). Schneider, W. & Shiffrin, R.M. (1977b). Controlled and automatic human information processing: II. Perceptual learning, automatic attending, and a general theory. Psychological Review, 84 (2). Shneiderman, B. (1987a). Designing the User Interface. Addison Wesley, Pub. Comp., Menlo Park, CA. Shalin, V.L., Perschbacher, D.L., & Jamar, P.G., (1988). Intent Recognition: An Emerging Concept. Proceedings of the 2nd International Conference on HumanMachine Interaction and Artificial Intelligence in Aeronautics and Space, Toulouse, France, September 28-30. Shalin, V.L., & Boy, G.A., (1989). Proceedings of the IJCAI-89 Workshop Report on Integrated Human-Machine Intelligence in Aerospace Systems. Detroit, Michigan, U.S.A., August. Sheridan, T.B., (1984), "Supervisory Control of Remote Manipulator, Vehicles and Dynamic Processes: Experiment in Command and Display Aiding", Advances in Man-Machine System Research, J.A.I. Press, Vol. 1, pp. 49-137. Simon, H.A. (1984). L'ordinateur libéré de ses maîtres. Le Monde, 1er avril. Suchman, L.A., (1987). Plans and Situated Actions. The Problem of Human-Machine Communication. Cambridge University Press. Tessier, C. (1984). MESSAGE: A Human Factors Tool for Flight Management Analysis. Doctoral Thesis, ENSAE, Toulouse, France (in French). Turing, A.M. (1950). Computing Machinery and Intelligence. Mind, Oxford University Press, Oxford, England, 5, pp. 433-460. 94 Habilitation - Guy Boy - 1992 Van der Velde, W. (1986). Learning heuristics in second generation expert systems. Proceedings of the International Conference - Expert Systems and their Applications, Avignon, France, 1986. Weyer, S.A. (1988). As we May Learn. In Aubron, S. & Hooper, K. Interactive Multimedia: Visions of Multimedia for Developers, Educators, & Information Providers. pp. 87-103, Microsoft Press. Wickelgren, W.A. (1976a). Network Strength Theory of Storage and Retrieval Dynamics. Psychological Review 83, pp. 466-478. Wickelgren, W.A. (1976b). Memory Storage Dynamics. In W.K. Estes, ed., Handbook of Learning and Cognitive Processes, vol. 4, Erlbaum Associates, Hillsdale, H.J. Wielinga, B., Schreiber, G. & Breuker, J. (1992). KADS: A modeling approach to knowledge engineering. Knowledge Acquisition, Special Issue on KADS. Wiener, E.L. & Curry, R.E. (1980). Flight-deck automation: promises and problems. NASA TM 81206, Moffett Field, CA, June. Winograd, T. & Flores, F. (1987). Understanding Computers and Cognition. Addison Wesley, Reading, Massachusetts. von Neumann, J. (1966). The Theory of Self-Reproducing Automata. Urbana, University of Illinois Press. Woods D.D. & Hollnagel E., (1986). Mapping cognitive demands and activities in complex problem solving worlds. Proceedings of the Knowledge Acquisition for Knowledge-Based Systems AAAI Workshop, Banff, Canada, November 1986. Zadeh, L.A. (1965). Fuzzy Sets. Information and Control. 8, pp. 338-353. Zadeh, L.A. (1976). Fuzzy sets as a basis for a theory of possibility. Fuzzy Sets and Systems. 1 (1), pp. 3-28. Zimmerman, M. (1988). TEX version 0.5. Technical report, Silver Spring, MD. 95