Habilitation à Diriger des Recherches Guy Boy

Transcription

Habilitation à Diriger des Recherches Guy Boy
Université Pierre et Marie Curie
4, Place Jussieu - 75252 Paris Cedex 05
Habilitation à Diriger des Recherches
Synthèse de l'Activité Scientifique
de
Guy Boy
METHODOLOGIES ET OUTILS
POUR L'INTERACTION COGNITIVE HOMME-MACHINE
Soutenue le lundi 29 juin 1992 devant la Commission d'Examen :
MM. Georges Duvaut
Mme. Joëlle Coutaz
MM. Pierre Falzon
Brian Gaines
Jean-Gabriel Ganascia
Yves Kodratoff
Marc Pelegrin
Président
Examinateurs
"You do not understand anything
until you understand it in more
than one way..." Marvin Minsky1.
1"Vous
ne comprenez pas quelque chose tant que vous ne l'avez pas compris de différentes manières"
Résumé
L'analyse, la conception et l'évaluation des interactions entre l'Homme et la machine
informatisée relève des sciences et de de l'ingénierie cognitives. Une première
contribution de ce travail est la synthèse de diverses réponses à la question : faut-il
modéliser l'opérateur humain ? Cette synthèse essaie de montrer la nécessité de
coopération entre deux approches scientifiques : l'interaction Homme-machine et
l'intelligence artificielle.
Une seconde contribution de ce travail est la définition du concept de système
d'assistance à l'opérateur (SAO). Ce concept est basé sur le modèle reconnaissance de
situation et raisonnement analytique (RSRA). Nous montrons comment ce concept met
en évidence l'exigence d'une contribution plus importante sur la notion de contexte et de
connaissances contextualisées, et sur le partage des tâches cognitives entre l'Homme et la
machine informatisée. Nous montrons que l'interaction Homme-machine doit étudier le
compromis entre l'interface et les procédures d'opération. Nous présentons une
représentation de ces procédures, appelée bloc de connaissances.
La réalisation de quatre systèmes, MESSAGE, HORSES, SAOTS et CID ont permis de
mettre en évidence l'intérêt du concept de SAO et du modèle RSRA. MESSAGE est un
système d'aide à l'analyse et à la certification de cockpits d'avion de transport. HORSES
est un système d'assistance au diagnostic de pannes. SAOTS est un système d'assistance à
la télémanipulation et CID est un système hypertexte dont les liens sont
incrémentalement contextualisés en fonction des interactions avec les utilisateurs.
Abstract
The analysis, design and evaluation of interactions between a human and a computerized
machine is based on cognitive sciences and engineering. A first contribution of this work
is the synthesis of various answers to the question: should we model the human operator?
This synthesis tries to make explicit the need for a cooperation of two approaches:
human-machine interaction and artificial intelligence.
A second contribution of this work is the definition of the operator assistant system
(OAS) concept. This concept is based on the situation recognition and analytical
reasoning model (SRAR). We show how this concept makes explicit the need for a more
important contribution on the notion of context and of contextualized knowledge, and on
cognitive task sharing between a human and a computerized machine. We show that
human-machine interaction has to study the compromise between the actual interface and
operational procedures. We present a representation of these procedures, called bloc of
knowledge.
The development of four systems, MESSAGE, HORSES, SAOTS and CID allowed us
to show the relevance of both OAS and SRAR concepts. MESSAGE is a system that
helps in the analysis and certification of aircraft cockpit. HORSES is a fault diagnostic
system. SAOTS is telemanipulation assistance system and CID is an hypertext system
that has incrementally contextualized links as a function of users interactions.
Mots Clés
Acquisition de connaissances pour les systèmes à base de connaissances, interaction
Homme-machine, ergonomie cognitive, systèmes d'assistance à l'opérateur, sciences et
ingénierie cognitives, intelligence artificielle.
Keywords
Knowledge acquisition de connaissances for knowledge-based systems, human-machine
interaction, cognitive ergonomics, operator assistance systems, cognitive sciences and
engineering, artificial intelligence.
Avant-Propos
Les travaux présentés dans ce mémoire ont été effectués entre 1980 et 1992. L'objet de
ces travaux a été de rechercher la cohérence et les points d'accord entre les différentes
disciplines contribuant à ce que nous appelons : l'Ingénierie et les Sciences Cognitives.
Le contact direct avec des applications du monde réel a permis de concrétiser une
approche originale que nous avons appelée : Assistance à l'Opérateur.
Ces travaux n'auraient pas été possibles sans une aide constante de l'Office National
d'Etudes et de Recherches Aérospatiales, en particulier du Centre d'Etudes et de
Recherches de Toulouse, et de la National Aeronautics and Space Administration
(NASA), plus particulièrement du Ames Research Center.
Je suis très reconnaissant à Monsieur Georges Duvaut, Directeur Scientifque Général de
l'ONERA, Professeur à l'Université Pierre et Marie Curie à Paris et Rapporteur à
l'Académie de Sciences, de l'honneur qu'il m'a fait en acceptant de preesider ce jury
d'habilitation.
Je remercie Joëlle Coutaz, Professeur à l'Université de Grenoble, pour la spontanéïté avec
laquelle elle a accepté de faire un rapport sur mon travail, en dépit d'un emploi du temps
très chargé. Je souhaite vivement que notre future coopération dans le domaine de
l'interaction Homme-machine soit très fructueuse.
Je remercie Jean-Gabriel Ganascia, Professeur à l'Université Pierre et Marie Curie à
Paris, pour son aide et ses encouragements depuis le début de la concrétisation de cette
habilitation. J'espère que ce travail trouvera une place en France où j'aimerais mettre en
œuvre un certain nombre d'idées que nous partageons en acquisition de connaissances
ainsi que sur une certaine théorie des modèles.
Je remercie Yves Kodratoff, Directeur de Recherche au CNRS et Professeur à
l'Université d'Orsay, pour l'honneur qu'il me fait en ayant accepté d'être rapporteur de ce
travail. Nos chemins se sont souvent croisés pendant ces dernières années, en voilà un
nouveau témoignage. Je souhaite que nous puissions continuer notre coopération déjà
bien commencée.
Je remercie Pierre Falzon, Professeur d'Ergonomie au Conservatoire National des Arts et
Métiers, de siéger à ce jury pluridisciplinaire. Sa présence est très importante parcequ'elle
témoigne de l'évolution de ce nouveau secteur scientifique : les sciences cognitives.
Brian Gaines, Professeur à l'Université de Calgary (Canada) et chef de file de la
communauté internationale de l'acquisition de connaissances, a énormement influencé
mon travail. Il m'a toujours encouragé à présenter mes idées dans le domaine de
l'acquisition des connaissances d'utilisation. Je le remercie d'avoir accepter de témoigner
sur mon travail.
J'exprime ici toute ma gratitude à Monsieur Marc Pelegrin, Haut Conseiller Scientifque à
l'ONERA et Rapporteur à l'Académie de Sciences, pour la confiance et l'aide qu'il m'a
données lorsque j'étais ingénieur de recherche au Centre d'Etudes et de Recherches de
Toulouse et pour la préparation de l'Institut Européen de l'Ingénierie et des Sciences
Cognitives.
Philippa Gander, par sa patience et son dévouement, m'a beaucoup aidé et soutenu dans
les moments "intenses" de ce travail. Elle a relu pratiquement tous mes articles depuis
1985 et m'a aidé à mieux formaliser un grand nombre d'idées énoncées dans ce mémoire.
Merci Philippa.
Je remercie aussi Sophie Chalard et Patrick Pleczon d'avoir relu le premier manuscript et
fourni un grand nombre de commentaires extrêmement pertinents. Le concours et le
soutien de toute l'équipe de la société Dialogics dirigée par Alain Garès ont été
exceptionnels. Merci Alain.
Mes remerciements vont encore à tous ceux et celles qui, à des titres divers, ont participé
à l'élaboration et à la réalisation de ce mémoire.
Table des Matières
Résumé
3
Mots Clés
3
Avant-Propos
4
Introduction 8
La motivation
8
L'interaction Homme-machine
8
L'acquisition de connaissances
9
L'approche socio-cognitive pluri-disciplinaire
Des besoins nouveaux et importants
10
L'objet et l'organisation de la thèse
11
1. Modélisation Cognitive
9
13
1.1. Faut-il modéliser l'opérateur?
13
1.1.1. L'évolution de la technologie va privilégier la créativité
1.1.2. Modélisation de l'opérateur 14
1.2. Le modèle de Rasmussen 16
1.3. Acquisition de connaissances et apprentissage
17
1.3.1. Acquisition d'habiletés pour accroître la performance
1.3.2. Analogie et apprentissage basé sur des cas 18
1.3.3. Induction et apprentissage empirique
19
1.4. L'importance de l'acquisition de connaissances
19
1.4.1. Le problème de l'interprétation
19
1.4.2. L'approche ascendante versus l'approche descendante
1.4.3. La modélisation de l'expertise
21
1.5. Le triangle outil-tâche-utilisateur
22
2. Approche Empirique et Rationalisation de Concepts
13
18
20
24
2.1. Introduction 24
2.2. L'expérience de la certification de cockpits 27
2.2.1. Le modèle d'agent du système MESSAGE 27
2.2.2. Utilisation du système MESSAGE pour la certification de cockpit
28
2.2.3. Modélisation d'agents pour évaluer l'interaction Homme-machine29
2.3. Modélisation de la communication entre agents 30
2.3.1. Comprendre comment les agents partagent les rôles
30
2.4.
2.5.
2.6.
2.7.
2.3.2. Niveaux d'autonomie
31
2.3.3. Attributs de l'automatisation centrée sur l'Homme 32
Le modèle reconnaissance de situation / raisonnement analytique 34
2.4.1. Représentation situationnelle
34
2.4.2. Représentation analytique 36
2.4.3. Connaissance compilée, instanciée et profonde 36
2.4.4. Evaluation dynamique guidée par un modèle évolutif d'utilisateur37
Vers un concept d'intelligence intégrée Homme-machine 40
2.5.1. Structure
40
2.5.2. Fonction : la représentation par blocs de connaissance
41
Problèmes concernant les systèmes "intelligents" 44
2.6.1. Modèles cognitifs, acquisition et représentation de connaissances 44
2.6.2. Compatibilité des systèmes "intelligents" avec les opérateurs
45
2.6.3. Applications monde-réel et automatisation 46
Conclusion 48
3. Connaissances Contextualisées
49
3.1. Notion de contexte 49
3.2. L'indexation 51
3.2.1. Descripteurs et référents 52
3.2.2. Liens contextuels 53
3.3. Renforcement incrémental en contexte
54
3.3.1. Critères de renforcement 54
3.3.2. Acquisition de liens contextuels par expérimentation
55
3.4. Clustering des conditions contextuelles
57
3.4.1. Placement d'un pattern contextuel dans une classe existante
3.4.2. Création d'une nouvelle classe
58
3.4.3. Combinaison de deux classes en une seule classe 58
3.4.4. Division d'une classe en plusieurs classes 59
3.5. Corrélation sémantique entre référents
60
3.6. Leçons apprises
62
3.6. Relations avec d'autres travaux
63
3.7. Discussion et futures directions
64
Conclusion 65
Contribution de la thèse 65
Un cours
65
Une expérience
67
La prise en compte du contexte
Perspectives
69
Hors Contexte ?
Références 72
71
68
57
Habilitation - Guy Boy - 1992
Introduction
"The machine itself makes no demands and holds out no promises: it is the human
spirit that makes demands and keeps promises. In order to reconquer the machine
and subdue it to human purposes, one must first understand it and assimilate it.
So far we have embraced the machine without fully understanding it." Munford
(1934)2.
La motivation
L'exploration de l'espace, la banalisation de l'aviation civile, les transplantations
cardiaques, la télévision haute-définition et le contrôle des naissances sont des exemples
concrets témoignant que les avancées technologiques sont en train de changer nos
sociétés dîtes "occidentales". L'une de mes préoccupations tout au long de mes
recherches pendant ces douze dernières années a été d'analyser comment l'automatisation
et l'informatique modifient nos lieux de travail. Cette problématique m'a mené au cœur de
deux communautés scientifiques différentes celle de l'interaction Homme3-Machine
(IHM) et celle de l'intelligence artificielle (IA), plus spécifiquement l'acquisition de
connaissances pour les systèmes à base de connaissances. D'un côté, il est apparu que
l'IHM était un problème essentiel pour l'intégration sociale des nouveaux systèmes
comportant de plus en plus des composantes cognitives. D'un autre côté, l'acquisition de
connaissances et la modélisation restent des champs d'investigation essentiels pour
permettre une meilleure intégration des aspects cognitifs et sociaux dans ces nouveaux
systèmes.
L'interaction Homme-machine
Le partage des tâches entre l'Homme et la machine est progressivement devenu un sujet
central de recherche. Avec l'automatisation accrue, ces tâches sont devenues
principalement cognitives. A l'opposé des machines, les êtres humains peuvent créer des
idées qu'ils utilisent pour progresser. Ils construisent aussi des outils pour mettre en
œuvre ces idées. Les ordinateurs ne contiennent pas de "cerveaux", pas plus que des
chaînes stéréos ne contiennent des instruments de musique. Les machines informatiques
ne sont capables que de manipuler des nombres et des symboles. Les êtres humains
peuvent les connecter entre eux pour leur donner une signification (Penzias, 1989).
2"La
machine elle-même n'a pas d'exigence et ne peut tenir aucune promesse : c'est l'esprit humain qui a
des exigences et tient les promesses. Afin de reconquérir la machine et l'asservir aux besoins de l'Homme,
on doit tout d'abord la comprendre et l'assimiler. Jusqu'à maintenant nous avons embrassé la machine sans
la comprendre".
3Nous utiliserons le terme "Homme" avec une majuscule pour désigner l'être humain, homme ou femme.
11
Habilitation - Guy Boy - 1992
A l'instar des chercheurs comme Shneiderman (1987), une approche scientifique des
interfaces-utilisateurs est née. Celle-ci met en jeu l'expérimentation psychologique, la
collection de données provenant de l'utilisation ainsi que des techniques informelles
d'observation des utilisateurs. Des théories de l'IHM ont été développées (Card et al.,
1983; Norman & Draper, 1986; Anderson, 1983). Il n'existe cependant toujours pas de
théorie unifiée sur l'ergonomie cognitive de conception réellement utilisable pour
construire des interfaces-utilisateur. Une synthèse sur les axes de recherches dans le
domaine des interfaces Homme-ordinateur est fournie par (Coutaz, 1988).
L'acquisition de connaissances
Concevoir et construire des outils adaptés aux besoins de l'Homme a toujours été une
motivation depuis que l'Homme existe. La construction d'outils est très souvent basée sur
une approche itérative ou "incrémentale"4 par essai-erreur, même lorsqu'elle est
explicitement motivée par un but ou basée sur un modèle. Ce qui différencie l'Homme
des autres êtres vivants, c'est qu'il est capable de transmettre sa connaissance5 (ou une
partie de sa connaissance) sous des formes plus ou mois explicites. Ce processus de
transmission-acquisition des connaissances est complexe. La technologie des systèmes à
base de connaissances (SBC) a clairement mis en évidence le problème du goulot
d'étranglement de l'acquisition des connaissances (AC).
Il existe toutefois une question difficile. Beaucoup de gens parlent de systèmes
"intelligents". Qu'est-ce qu'un système "intelligent" ? L'intelligence n'est pas tant dans le
système que dans l'interaction entre l'utilisateur et le système. L'intelligence est à
rechercher dans le système Homme-machine. D'une manière plus générale, pouvons-nous
construire des outils qui étendent la puissance et le confort intellectuel de l'Homme dans
la société ?
L'approche socio-cognitive pluri-disciplinaire
Les réponses possibles aux question précédentes passent par une approche pluridisciplinaire. Il semble maintenant difficile de concevoir et de certifier un système
moderne complexe sans faire appel à une équipe composée d'ingénieurs et d'ergonomes.
Nous avons essayé d'intégrer divers concepts, techniques et méthodes développés dans
diverses disciplines, telles que l'intelligence artificielle, la psychologie cognitive et les
sciences de l'ingénieur, pour mettre au point une nouvelle approche de conception et
d'évaluation. Cette approche est basée sur le concept de système d'assistance à
l'opérateur6.
4Le
mot "incrémental" a été adopté de l'anglais et signifie "à petits pas".
terme connaissance est employé au singulier pour désigner la matière comme support de la pensée
humaine. Nous utilisons connaissances au pluriel lorsque nous désignons des morceaux de connaissance
particuliers.
6Nous employerons alternativement le terme "opérateur" ou "utilisateur" pour désigner la personne qui
utilise l'outil pour effectuer une tâche.
5Le
12
Habilitation - Guy Boy - 1992
En 1990, le RESCO7 a adopté la définition suivante:
Plusieurs disciplines scientifiques se rejoignent pour étudier la façon dont l'esprit
humain perçoit, apprend, et utilise ses connaissances, notamment dans les
relations avec les systèmes informatisés et les machines. La psychologie,
l'ingénierie des systèmes, l'intelligence artificielle, les neurosciences,
l'anthropologie appliquée, la linguistique, l'épistémologie, la philosophie de la
pensée et du langage concourent à ces études. A l'intersection de ces champs se
constitue aujourd'hui un nouveau domaine scientifique : celui des Sciences
Cognitives.
Les Sciences Cognitives ont donc pour objet la connaissance. Plus précisément,
elles portent sur la représentation, l'acquisition et l'utilisation de connaissances par
des Hommes et par des machines, et leurs applications concernent l'analyse, la
conception et l'évaluation des interactions entre agents naturels et artificiels.
On parlera de Systèmes Cognitifs pour désigner des systèmes mettant en œuvre,
en général par des moyens informatiques, des connaissances sur leurs propres buts
et fonctions, et des outils d'interaction avec l'utilisateur.
On notera que le RESCO, constitué de scientifiques et d'industriels, a proposé la
dénomination "Sciences Cognitives" (au pluriel) qui traduit implicitement le fait que "La
Science Cognitive" n'est pas encore une discipline unifiée8, mais est un regroupement
d'approches vers un même but : l'étude des processus cognitifs chez l'homme. Les
industriels sont surtout intéressés par l'étude des processus cognitifs chez l'homme au
travail.
L'ingénierie cognitive recouvre le domaine de l'ergonomie cognitive incluant l'analyse, la
conception, et l'évaluation de systèmes nécessitant une interaction cognitive avec leurs
utilisateurs potentiels. Nous pensons que l'ingénierie cognitive peut difficilement être
séparée des sciences cognitives dans la perspective d'une approche du monde réel, et, qui
plus est, industriel.
7Le
Réseau Européen des Systèmes Cognitifs (RESCO) a été créé en 1989 par des universitaires et
ingénieurs toulousains pour la création d'un institut de recherche en ingénierie et sciences cognitives
associant des industriels à des chercheurs. L'auteur de ce mémoire est membre fondateur du RESCO.
8 Le premier chapitre de "Cognitive Science in Europe" (Imbert et al, 1987) est intitulé "Qu'est-ce que la
Science Cognitive?". Une réponse synthétique donnée est: "l'étude de l'intelligence développée
biologiquement, avec une attention particulière, naturellement, portée sur le système appelé Homme". Cette
définition propose une base pour distinguer la Science Cognitive de l'Intelligence Artificielle (IA) qui se
focalise sur les systèmes créés artificiellement. Il est clair que cette séparation n'est pas aussi nette qu'elle
pourrait le laisser suggérer. En effet, tout système artificiel créé par l'homme inclut nécessairement une
partie de la connaissance humaine générée "biologiquement". Il existe certes un grand débat entre les
constructivistes et les réalistes (Changeux et Conne, 1989) sur la représentation formelle des
mathématiques, i.e., les représentations cognitives formalisables sont-elles construites ou bien existent-elles
de la même manière que des entités physiques existent (encore faut-il les découvrir)?
13
Habilitation - Guy Boy - 1992
Nous sommes en train de passer de l'âge industriel à l'âge de l'information. Selon John
Seely Brown (1992), la nouvelle intelligence dans la conception n'est plus tellement dans
l'individu seul mais dans le groupe collaborant. La majeure partie du travail traditionnel
en interaction Homme-ordinateur a été focalisé sur le dialogue entre l'utilisateur et le
système et pas sur les interactions entre l'utilisateur et le monde qui utilise le système
comme un intermédiaire. L'approche "assistance à l'opérateur" que nous avons développé
se situe dans cette perspective d'évolution (Boy, 1988, 1991). L'évolution de la
technologie de l'interaction Homme-machine est en train de favoriser le changement du
"je pense donc je suis" vers le "nous participons donc nous sommes".
Des besoins nouveaux et importants
Les systèmes professionnels et domestiques deviennent de plus en plus complexes, par
exemple, les réseaux de communication, la fabrication intégrée, l'industrie nucléaire, les
activités financières, l'aviation civile et commerciale, etc.
Cette complexité s'est développée avec l'accroissement de l'automatisation d'un grand
nombre de processus. Cependant, dans un grand nombre de cas où les frontières de
l'automatisation ont été poussées à l'extrême et où l'intervention d'un opérateur humain y
est encore nécessaire, les opérateurs humains ont souvent des problèmes pour reprendre
le contrôle de ces systèmes lorsqu'il est nécessaire de le faire (Pelegrin, 1986) : ceci
amène des problèmes d'efficacité, de fiabilité et de sécurité qui peuvent conduire à des
pertes de qualité des produits industriels, et même parfois à des catastrophes telles que
celle de Tchernobyl.
Afin d'éviter ces problèmes, il est nécessaire de concevoir les systèmes en incluant
itérativement le rôle et les moyens d'interaction de l'opérateur humain. Le système luimême, en particulier lorsqu'il met en jeu de la connaissance experte sur une tâche donnée
(système à base de connaissances), doit être adapté en profondeur à ses utilisateurs, en
particulier pour que l'utilisateur identifie des représentations et des modes de
raisonnement qui lui sont familiers.
Pour réaliser de tels systèmes, il est nécessaire de comprendre les mécanismes de la
cognition, d'étudier des représentations de connaissances appropriées, de savoir comment
stocker et utiliser la connaissance acquise, de traiter des problèmes d'interaction Hommemachine en général : le rôle des sciences cognitives est de fournir des éléments théoriques
et une approche opérationnelle en réponse à ce type de questions.
Les applications des sciences cognitives sont tout d'abord apparues dans les domaines de
la haute technologie, tels que l'aéronautique et l'espace, ou l'énergie atomique, où la
fiabilité et la sécurité des systèmes mis en jeu est essentielle. Ce type d'approche des
problèmes est en train de s'étendre à d'autres domaines plus proche de la vie quotidienne,
par exemple l'éducation, les transports, les communications, etc. : aujourd'hui, avec
l'utilisation des systèmes complexes, c'est l'activité de la société moderne toute entière
qui est concernée par les applications des sciences cognitives.
14
Habilitation - Guy Boy - 1992
L'objet et l'organisation de la thèse
L'un des objets de la thèse est de mettre en évidence le potentiel naissant de la
coopération entre les disciplines dites "cognitives" (ou tout au moins à potentiel cognitif).
La construction de méthodologies et d'outils pour l'interaction cognitive relève parfois
plus d'un art que d'une technique. Il n'existe pas de loi du type E=mC2 dans le domaine
des sciences cognitives. Un nombre grandissant de compétences se sont développées dans
ce domaine au cours de la dernière décennie. Ce travail présente la nôtre dans le contexte
de l'évolution du champ dispersé des sciences cognitives. Elle comprend trois parties. La
première présente la problématique de la modélisation cognitive au sein du triangle outiltâche-opérateur. La deuxième partie montre une évolution de l'ergonomie cognitive de
l'évaluation de systèmes Homme-machine vers l'intégration de l'Homme dans le
processus de conception. La troisième partie présente une approche pour la représentation
et l'acquisition de connaissances en contexte. Des exemples d'applications illustrent les
concepts développés.
La première partie introduit le problème de la modélisation cognitive. Nous avons tenté
de répondre à une question que se pose beaucoup de concepteurs de systèmes : faut-il
modéliser l'opérateur ? Nous présentons deux tendances : la facilitation de la créativité du
concepteur et la construction de modèles d'opérateur. Nous faisons une place particulière
au modèle de Rasmussen qui a l'avantage de fournir une introduction élégante à la
problématique acquisition de connaissances versus apprentissage. Nous donnons enfin un
éclairage socio-technique sur l'acquisition de connaissances pour la construction de
systèmes.
La deuxième partie pose le problème de l'intégration de l'ingénierie et des sciences
cognitives dans les processus de conception et d'évaluation. Nous avons tiré profit de
notre expérience dans le domaine de la certification de cockpit et l'assistance au
diagnostic de pannes pour développer le modèle Reconnaissance de Situation /
Raisonnement Analytique. Nous avons étendu ce modèle au concept d'intelligence
intégrée Homme-machine et donnons un éclairage sur les problèmes concernant les
systèmes dits "intelligents". Notre analyse nous conduit à faire le point sur la
modélisation de la communication entre agents.
La troisième partie est réservée aux connaissances contextualisées. Nous introduisons la
notion de contexte qui peut être verbal, social ou historique. Nous avons pris l'indexation
de documents comme processus générique d'utilisation du contexte. Nous donnons un
compte rendu de notre expérience sur le système CID. En particulier en ce qui concerne
le renforcement incrémental du contexte et le regroupement de conditions contextuelles.
Nous montrons comment la corrélation sémantique entre documents peut aider à la
navigation à l'intérieur d'une documentation. Nous donnons les leçons apprises ainsi que
les relations avec les autres travaux dans le même domaine.
La conclusion fait le point sur la mise en œuvre de ce travail dans le contexte de la
recherche en interaction cognitive Homme-machine. Elle présente des possibilités de
développement de collaboration entre les diverses disciplines composant les sciences
15
Habilitation - Guy Boy - 1992
cognitives. Au titre des résultats, notre contribution a donné naissance à un cours sur les
systèmes d'assistance à l'opérateur, ainsi qu'à des systèmes opérationnels en cours
d'utilisation ou de tests.
Les perspectives de prolongements de ce travail pourraient se situer dans le domaine de
l'étude du travail coopératif, de l'enseignement assisté par ordinateur, et des méthodes
d'acquisition des connaissances dans un contexte socio-technique.
16
Habilitation - Guy Boy - 1992
1. Modélisation Cognitive
"To learn a new field, according to the cognitive science approach, is to build
appropriate cognitive structures and to learn to perform computations that will
transform what is known into what is not yet known." Michael Posner (1989)9.
1.1.
Faut-il modéliser l'opérateur?
Faut-il Modéliser l'Opérateur ? Cette question a suscité et suscite encore de vives
polémiques. Les uns rejettent a priori la notion de modèle d'opérateur parce qu'elle est
éphémère (Hollan & Williams, 1991). Dans cette approche, il est question de créativité
du concepteur d'interface-opérateur et de corrections progressives pour arriver à un
résultat convenable. La notion de modèle d'opérateur est trop figée et ne résiste pas à
l'évolution. Les autres militent pour une classification des modèles d'opérateurs (Boy,
1983; Rasmussen, 1986; Cahours & Paris, 1991). Ce type d'approche défend le fait que
modéliser l'opérateur permet de mieux comprendre et concevoir l'interaction entre
l'Homme et la machine.
Dans cette section, nous présenterons deux points de vue concourant à la prise en compte
de l'utilisateur final dans la boucle de conception : la facilitation de la créativité du
concepteur et la construction de modèles d'opérateur. Même si certains chercheurs
opposent ces deux approches, nous pensons qu'elles sont complémentaires. La première
favorise l'aspect implicite et situationnel10 des modèles d'opérateur. La seconde favorise
l'expression explicite et analytique de ces modèles. Nous avons pris le parti que la
modélisation (qu'elle soit implicite ou explicite) était une étape obligatoire dans l'analyse,
la conception et l'évaluation des systèmes Homme-machine. Ce point de vue n'empêche
pas une approche incrémentale dans la conception de ces systèmes.
1.1.1. L'évolution de la technologie va privilégier la créativité
La créativité du concepteur d'interfaces-utilisateurs peut être facilitée par l'évolution du
matériel et du logiciel.
Le matériel informatique va continuer à diminuer en taille et augmenter en puissance. Les
puces vont devenir encore plus rapides : en 1990, 10 MIPS11; cette année, 40-75 MIPS; et
bientôt, 100 MIPS. Cependant, malgré cette amélioration considérable, la capacité
entrées/sorties ne suit pas, par exemple, il faut 3 heures pour charger un programme dont
le temps d'exécution est de 30 minutes. Les réseaux locaux vont améliorer la capacité des
9"En
accord avec l'approche des sciences cognitives, apprendre un nouveau domaine c'est construire des
structures cognitives appropriées et apprendre à faire des calculs qui transformeront ce qui est connu en ce
qui n'est pas encore connu."
10Les termes situationnel et analytique sont définis en détails dans la section 2.3.
11Million d'instructions par seconde.
17
Habilitation - Guy Boy - 1992
processeurs. Aujourd'hui Ethernet peut supporter jusqu'à 10 megabytes par seconde
(Mb/s). Bientôt, il sera possible de transferer 45 Mb/s avec le réseau DS3. Dans un futur
plus ou moins proche, les réseaux tels que SMDS ou FDDI seront capables de supporter
de 100 à 1000 Mb/s. La mémoire de stockage va aussi s'améliorer de façon considérable.
Aujourd'hui, le coût du stockage sur disque est d'environ 18 francs/Mb. Ce coût va chuter
rapidement, 2 gigabytes (Gb) de bande vont coûter moins de 30 francs/Gb.
Cette évolution du matériel va permettre plus de stockage, des présentations graphiques
plus rapides, et améliorer les capacités de raisonnement. L'évolution des réseaux locaux
(local area networks : LAN) vont donner naissance à une augmentation de la répartition
des données et de leurs traitements. Les gens vont être très facilement capables de
réutiliser les logiciels produits par d'autres.
La standardisation du logiciel va croître. Les outils logiciels vont devenir "familiers".
L'interface utilisateur va prendre une importance considérable en même temps qu'elle va
se banaliser, en d'autres termes les graphiques seront de meilleure qualité et utilisés de
façon extensive, et la conception de systèmes sera plus centrée sur l'utilisateur. Les
techniques orientées objet sont en train de prendre une place de plus en plus importante
dans la façon de programmer. Pour confirmer l'idée du partage de logiciels déjà énoncée,
les objets et les bases de données persistants seront progressivement générés et stockés
dans des bibliothèques publiques. Cette tendance amène à la personnalisation, à
l'adaptation à l'utilisateur, aux environnements modulaires et intégrants, et à la
programmation par l'utilisateur final lui-même.
Les frontières entre les applications sont en train de disparaître, ce qui va permettre le
développement plus aisé de systèmes du monde-réel en permettant d'interconnecter des
logiciels de natures différentes (par exemple, le système 7 du Macintosh). Les frontières
entre les machines vont aussi disparaître pour répartir le calcul (par exemple, les logiciels
de gestion de réseaux d'ordinateurs). Les frontières entre les Hommes vont disparaître
pour changer le travail au sein des organisations (par exemple, le travail coopératif assisté
par ordinateur) et répartir la cognition. Les frontières entre les media vont disparaître, par
exemple, la télévision, le film, le son, les communications et le calcul. Les média
d'interaction avancés sont en train de se développer dans divers centres de recherches,
comme le MIT Media Laboratory, la NASA, Xerox PARC, etc.
Nous prétendons que toutes ces avancées contribuent et vont contribuer plus à favoriser
la créativité des concepteurs de systèmes plus adaptés à l'Homme. Aujourd'hui, les
ordinateurs sont encore un mythe pour la plupart des gens, y compris pour certains
concepteurs. Paul Heckel (1984) a déclaré que :
"Les films n'ont pas fleuri tant que les ingénieurs n'ont pas perdu le contrôle sur
les artistes—ou plus précisément, sur les scénaristes. La même chose est en train
d'arriver aujourd'hui avec les ordinateurs personnels."
Dans la préface du récent livre de Brenda Laurel (1991), Donald Norman a écrit que :
18
Habilitation - Guy Boy - 1992
" Il est temps que les ingénieurs reviennent faire de l'ingénierie. Pour développer
ces nouvelles technologies, nous avons besoin d'une nouvelle veine d'individus
créatifs, très vraisemblablement ceux qui sont associés à la poésie, l'écrit et la
direction théâtrale."
1.1.2. Modélisation de l'opérateur
Il existe déjà un certain nombre de modèles d'opérateur développés (Anderson, 1983;
Card et al., 1983; Norman & Draper, 1986; Rasmussen, 1986). Nous ne les décrirons pas
ici, ils ont déjà été analysés ailleurs (Coutaz, 1988; Boy, 1988, 1991). Le modèle de
Rasmussen (voir section 1.2) occupera cependant une place particulière dans notre
approche pour expliquer le problème fondamental de l'acquisition de connaissances et
l'apprentissage (voir section 1.3).
On ne développe pas de modèles d'opérateur ou d'utilisateur sans but précis. En général,
ces modèles sont développés pour améliorer la performance du système Homme-machine
correspondant, pour contribuer à la diminution de la charge de travail de l'opérateur, ou
pour améliorer la qualité des produits.
Erik Hollnagel (1989) donne une liste de types de modèles d'utilisateur : les modèles
d'utilisateur généraux utiles dans les systèmes d'aide en-ligne (help), les modèles de
dialogue, les modèles thérapeutiques qui aident à modifier le comportement de
l'utilisateur, les modèles d'élèves dont le but principal est l'enseignement, les modèles de
conception visant à aider le concepteur de systèmes, les modèles d'aide à la prise de
décision, et les modèles d'opérateur habituellement utilisés en contrôle de processus.
Ces modèles peuvent servir dans différents cadres : l'assistance au suivi de procédures, la
surveillance de l'activité de l'opérateur, la présentation des informations, l'accès à la
connaissance (recherche contextualisée d'informations), l'allocation de tâches, l'aide à la
planification et l'ordonnancement et l'aide à la décision.
Les exigences de l'utilisateur sont de disposer de la bonne information, au bon moment et
sous la bonne forme (Boy, 1983a). Pour ce faire, il convient de mieux comprendre à la
fois l'utilisateur, mais aussi la tâche et le fonctionnement du système à contrôler (ou
l'environnement au sens large). Nous analysons ce point en détail dans la section 1.5.
Lorsqu'il applique un modèle, le chercheur identifie des objets et des relations naturelles,
au moyen d'éléments et de relations d'un ensemble formel (Coombs et al., 1975). Le
modèle à construire (ici celui de l'opérateur humain) sera une abstraction du réel. Il
permettra de prédire des données nouvelles (déduction) qui devront être comparées et
interprétées en fonction des données expérimentales correspondantes. Cette comparaison
doit permettre d'apporter des modifications au modèle initial afin de le rendre plus proche
de la réalité (Figure 1).
19
Habilitation - Guy Boy - 1992
Monde réel
Expérimentation
Modélisation
Modèle
Données
Expérimentales
Comparaison
Déduction
Prédictions
Interprétation
Modification
Figure 1. Processus de modélisation.
Les modèles peuvent être analogiques ou syntaxo-sémantiques. Les modèles dits
analogiques sont construits à partir de modèles existants et dont l'utilité à déjà été
démontrée dans un autre domaine. Par exemple, certains processus mécaniques sont
souvent simulés par des équations déjà utilisées pour représenter des processus
électriques. Les modèles analogiques sont aussi appelés modèles "boites noires". Ils
constituent une norme équivalente utilisée pour simuler et prédire certains
comportements. L'important n'est pas d'expliquer le comportement interne des processus
simulés, mais de produire des comportements proches de ceux observés en réalité.
L'approche connexioniste appartient à ce type d'approche. Les modèles dits syntaxosémantiques définissent une syntaxe et une sémantique propres au domaine qu'ils
prétendent modéliser. Ils sont généralement symboliques et logiques, et relèvent plus des
approches utilisées en IA. Ils tentent de représenter des mécanismes internes, au lieu de
se limiter à la simulation simple du comportement.
Les modèles peuvent être prédictifs ou explicatifs. Les modèles dits prédictifs constituent
des normes (modèles normatifs) dont il convient d'ajuster les paramètres pour pouvoir les
utiliser en prédiction de phénomènes du monde réel. Les modèles dits explicatifs sont des
cadres d'expression d'une observation du monde réel. Ils ne sont généralement pas
utilisables tels quels pour la prédiction. Nous avons développé un modèle d'opérateur
humain pour analyser sa charge de travail dans le cadre de la certification des Airbus
(Boy, 1983). Ce modèle est essentiellement explicatif. Cependant, nous en avons extrait
certaines méthodes opérationnelles qui ont été utilisées pendant la certification d'avions
de transport. Ces méthodes sont supportées par des modèles normatifs.
D'une manière générale, il est important d'étudier les modèles d'utilisateur dans leur
contexte d'utilisation (déjà mentionné plus haut) et de caractériser les liens entre le rôle et
le type de chaque modèle d'utilisateur (Cahours & Paris, 1991). Si ces exigences ne sont
20
Habilitation - Guy Boy - 1992
pas remplies, le modèle d'utilisateur sera trop complexe à utiliser et ne sera pas adapté à
la tâche. Il faut conserver un niveau de complexité adapté à l'application. Une typologie
des modèles d'utilisateurs peut être faite selon trois axes : les types d'informations
(caractéristiques cognitives de l'utilisateur, caractéristiques sociales et caractéristiques
personnelles), la granularité des informations (informations stéréotypiques et
informations individualisées) et l'importance du modèle d'utilisateur (ce modèle est
parfois préférable, dans d'autres cas il est nécessaire).
1.2.
Le modèle de Rasmussen
Le modèle de Rasmussen (1986) est un modèle explicatif. Il a été développé pour
représenter la performance d'un opérateur en situation de contrôle de processus. Il permet
d'étudier les mécanismes humains de traitement de l'information. Selon Rasmussen, l'être
humain fonctionne comme un système hiérarchique ayant deux types de processeurs :
— l'un de bas niveau, subconscient et hautement parallèle;
— l'autre de haut niveau, conscient et séquentiel.
Le premier type de processeur correspond aux fonctions sensori-motrices. Il est
hautement dynamique du fait de son parallélisme. Le second type de processeur est limité
par les capacités de la mémoire à court terme. Cependant ses capacités de traitement de
l'information (symbolique) lui permettent de traiter une grande variété de problèmes avec
un bonne efficacité.
Rasmussen distingue trois niveaux de comportement d'un opérateur en interaction avec
un environnement dynamique (Figure 2) :
— les habiletés (skill-based behavior);
— les procédés (rule-based behavior);
— le savoir (knowledge-based behavior).
21
Habilitation - Guy Boy - 1992
But(s)
Savoir
Identification
Procédés
Reconnaissance
de Situation
Habiletés
Capteurs
Prise de
Décision
Planification
Situation(s)
/ tâche(s)
Tâches
(procédures)
Effecteurs
Environnement
Figure 2. Trois niveaux de comportement de Rassmussen.
L'acquisition des habiletés, à la fois sensori-motrices et cognitives, est le résultat d'un
entraînement long et intensif. Les habiletés permettent des opérations rapides du type
stimulus-réponse. Le niveau des procédés est aussi un niveau opératif, manipulant des
plans spécifiques, des règles (savoir-faire) ou des procédures (par exemple une checklist
ou une recette de cuisine). Le savoir est le "vrai" niveau de l'intelligence. Les systèmes
experts actuels restent pour la plupart au niveau des procédés, parce qu'il est difficile (et
souvent impossible) d'extraire de la connaissance experte compilée provenant du niveau
des habiletés (Dreyfus, 1982). Le niveau intermédiaire est le plus facile à formaliser et à
extraire des explications d'un expert. Comme le fait habituellement un professeur, l'expert
doit "décompiler" sa connaissance pour expliquer le "pourquoi" et le "comment" de ses
propres comportements. Le résultat d'une telle décompilation est facilement transférable
de façon déclarative sur un ordinateur, avec un format SI ... ALORS ... (généralement
appelé règle), par exemple. Le processus de décompilation ne capture pas nécessairement
la connaissance et le comportement expert utilisé au niveau des habiletés.
1.3.
Acquisition de connaissances et apprentissage
L'expérience montre qu'il est le plus souvent plus facile d'acquérir des connaissances au
niveau du comportement basé sur les procédés. En effet, ce niveau de Rasmussen
correspond à ce que nous appelons la mémoire anecdotique. Il est toujours plus facile
d'exprimer la connaissance sous forme d'anecdotes.
Dans cette section, nous utiliserons le modèle de Rasmussen pour situer l'intérêt et
l'apport des méthodes d'apprentissage symbolique automatique (ASA) pour l'acquisition
22
Habilitation - Guy Boy - 1992
de connaissances. L'approche ASA (machine learning) est une discipline très jeune
(Kodratoff, 1988). Nous distinguerons trois types d'apprentissage :
— l'acquisition d'habiletés et l'apprentissage de type "speed-up";
— l'analogie et l'apprentissage basé sur des cas;
— l'induction et l'apprentissage empirique.
Le premier type est lui-même subdivisé en deux grandes catégories : la construction de
macro-opérateurs (Korf, 1985) et l'apprentissage basé sur des explications (DeJong,
1981). Le second type concerne la génération de connaissances nouvelles à partir de
connaissances existantes (Gentner, 1989; Hammond, 1989). Le troisième type peut être
réparti en trois groupes de méthodes : l'apprentissage supervisé de concepts (Mitchell,
1982), l'apprentissage basé sur des similarités (Quinlan, 1986), la découverte (Lenat,
1977; Langley et al., 1987; Falkenhainer, 1990) et le clustering non-supervisé (Fisher,
1987).
1.3.1. Acquisition d'habiletés pour accroître la performance
Il est pratiquement impossible d'acquérir des connaissances de type habiletés par des
méthodes classiques d'interviews. Ces connaissances ne peuvent être que reconstruites à
partir de données acquises en situation. Nous les appelons connaissances situationnelles.
L'analyse de protocoles verbaux permet d'accéder à ce type de connaissances par
reconstruction. Les méthodes d'observation de l'expert au travail (ou de l'utilisateur)
permettent d'extraire des patterns situationnels (voir section 2.4). Nous avons utilisé ce
type de méthodes dans le projet HORSES à la NASA pour extraire des connaissances de
diagnostic. Dans tous les cas, les résultats provenant de ces méthodes doivent être
interprétés en utilisant un modèle. Certaines connaissances situationnelles peuvent être
construites à partir de connaissances analytiques. Cette recompilation peut se faire par
des méthodes d'apprentissage de type "speed-up". Nous avons développé un programme
qui transforme la connaissance analytique en connaissance situationnelle dans le cadre du
projet SAOTS (système d'assistance à l'opérateur en télémanipulation spatiale) avec le
CNES (Centre National d'Etudes Spatiales). Ce travail a été reporté dans (Boy & Delail,
1988).
1.3.2. Analogie et apprentissage basé sur des cas
Au cours des phases de construction de notre modèle MESSAGE (voir section 2.2), nous
avons travaillé avec des pilotes d'essais pour construire un premier corpus de
connaissances. Les connaissances brutes exprimées par les pilotes ont toujours été
traduites sous forme de cas du type: "J'étais à 10 000 pieds, la tour de contrôle m'a donné
l'autorisation de passer en phase d'approche, mon copilote...". Les experts se souviennent
d'anecdotes. Ils expriment leur connaissance sous la forme d'histoires. C'est le point de
vue de Roger Schank sur l'expression de la connaissance par les gens en général. Ce type
de connaissances doit ensuite être comparé à la connaissance déjà acquise et
23
Habilitation - Guy Boy - 1992
éventuellement généralisée. Dans notre travail, nous avons utilisé ce type de méthodes de
façon manuelle (Boy, 1983b).
1.3.3. Induction et apprentissage empirique
Cobweb est certainement l'algorithme de clustering de concepts le plus connu et le plus
utilisé (Fisher, 1987). Nous avons travaillé sur une approche similaire dans le cadre du
système CID (Computer Integrated Documentation) développé à la NASA. La génération
de contexte dans CID demande en effet une réduction de la base de connaissance. Un
exemple de clustering de contexte est donné dans la section 3.4. Dans le cas de CID,
c'est-à-dire une application monde-réel, l'intervention humaine est particulièrement
importante dans le processus d'apprentissage empirique.
1.4.
L'importance de l'acquisition de connaissances
Winograd et Flores (1987) défendent l'idée que "les exemples de succès de systèmes
experts ont presque tous été le résultat d'un effort long et intensif par un opérationnel
qualifié, et on peut aussi dire que les domaines générés lors du développement de ces
systèmes sont eux-mêmes des contributions significatives de recherche".
L'acquisition de connaissances est le processus de capture et de modélisation de la
connaissance d'un domaine donné en vue de la construction de systèmes à base de
connaissances. Il existe un certain nombre de problèmes bien connus :
— la compréhension des capacités des experts à résoudre des problèmes de leur
domaine est insuffisante;
— l'expertise est basée sur des habiletés et des connaissances implicites difficile et
souvent impossible à mettre en évidence directement;
— l'expert, comme tout autre être humain, a tendance à justifier ses comportements;
— l'expert est expert en résolution de problème, mais pas en explication de solutions.
La littérature dans le domaine est très variée et manque de fondements et de cadre
méthodologique. Nous avons déjà recensé un certains nombre de méthodes d'acquisition
de connaissances (Boy, 1991a). Dans cette section nous tentons de situer la
problématique de l'acquisition de connaissances dans le cadre de l'ingénierie et des
sciences socio-cognitives.
1.4.1. Le problème de l'interprétation
24
Habilitation - Guy Boy - 1992
Il convient de considérer l'acquisition de connaissances dans la perspective des sciences
sociales. En sciences physiques ou naturelles, le but de la recherche est d'expliquer
causalement des phénomènes. Lorsque les êtres humains deviennent le sujet de recherche
principal, la question de la signification se pose. Les êtres humains interprètent la réalité
et produisent des significations. Le chercheur (le cogniticien) et l'objet de recherche
(l'expert ou l'utilisateur) peuvent ne pas parler le même langage, ou s'ils parlent le même
langage, ils peuvent avoir des interprétations différentes. Il se peut aussi que l'un des
deux ne traduise pas la vérité. Fensel (1992) insiste sur le fait que la séparation classique
du sujet (expérimentateur) et de l'objet de recherche du modèle normatif scientifique
classique ne tient plus en acquisition de connaissances (Tableau 1).
Les méthodes et les résultats vont tendre à être qualitatifs plutôt que quantitatifs. Ils sont
basés sur l'étude de cas bien choisis et considérés comme typiques dans le domaine
d'expertise. Le caractère fortement interactif de l'acquisition de connaissances donne lieu
à un processus interprétation - compréhension - nouvelle hypothèse.
Sciences naturelles
Sciences sociales
Principe
Hypothèse -> vérification
Création et révision
d'hypothèses
Méthodes et résultats
Quantitatifs
Qualitatifs
Activité de recherche
Observation
Interaction
Approche
Statistique
Cas typiques
Tableau 1. Comparaison des perspectives sciences naturelles et sciences sociales pour
l'acquisition de connaissances.
1.4.2. L'approche ascendante versus l'approche descendante
Typiquement, il existe deux types d'approches de la construction de systèmes
informatiques, les systèmes à base de connaissances en étant un cas particulier :
l'approche ascendante et l'approche descendante (Tableau 2).
25
Habilitation - Guy Boy - 1992
Approche
Ascendante
Descendante
Méthodes et techniques
Prototypage rapide
Cycle de vie
Avantages
Obtention rapide d'un
prototype pour évaluation
Résultat et processus de
développement structurés
Inconvénients
Solutions non structurées
Problèmes de maintenance
Les utilisateurs ne sont
souvent pas satisfaits
Tableau 2. Comparaison des approches ascendante et descendante pour l'acquisition de
connaissances.
Les deux approches présentent chacune des avantages et des inconvénients. L'approche
ascendante est basée sur la notion de prototypage rapide et permet d'inclure les
utilisateurs très tôt dans la boucle de conception par le fait qu'il est possible de fournir
très rapidement un prototype pour l'évaluation. Le principal inconvénient est que les
systèmes résultants sont très difficiles à maintenir parce que très rapidement
incompréhensibles. L'approche descendante, au contraire, offre un processus de
développement et des résultats structurés. C'est l'approche qui est habituellement utilisée
en ingénierie. Malheureusement, les utilisateurs finaux ne sont pas facilement pris en
compte dans cette approche, et par conséquent, ils ne sont pas toujours satisfaits des
résultats. Nous avons mené des études sur ce sujet au sein du projet européen
"Breakdown in Human Adaptation" (Boy, 1988). Fensel et al. (1991) ont tentés de
combiner les deux approches pour en combiner les avantages et en éviter les
inconvénients.
Le modèle KADS (Wielinga et al., 1992) fournit une approche descendante à
l'acquisition de connaissances. L'expertise est analysée au niveau de la connaissance
(knowledge level) indépendamment des détails de la mise en œuvre informatique. Elle est
formalisée au niveau symbolique. Le résultat est appelé modèle. Le principal problème
est que KADS n'utilise pas de langage formel pour la représentation des connaissances.
Les résultats des tests de la base de connaissances opérationnelle ne sont accessibles
qu'après la mise en œuvre du modèle, et donc après un délai bien trop important entre la
conception du modèle et la mise en œuvre (Linster, 1992).
Dans certains domaines d'application comme la téléopération de robots, il n'existe pas
d'expertise a priori. L'approche est donc nécessairement ascendante puisque l'expertise
doit être construite progressivement avec les utilisateurs. Ce type de construction de
connaissances par l'action est un processus incrémental que nous avons tenté d'analyser.
Lorsque des systèmes complexes sont construits, un ensemble de procédures d'opérations
sont aussi construites pour les opérer. Ce processus itératif est nécessaire, long et
26
Habilitation - Guy Boy - 1992
couteux. Dans un soucis de compréhension et de rationalisation, nous avons développé la
représentation par blocs de connaissances pour prendre en compte ce type d'acquisition
(voir section 2.5.2). Nous avons lancé un programme de recherche à la NASA sur le
thème de la gestion et la maintenance de procédures en télérobotique. Ce programme est
actuellement développé par (Mathé, 1991).
1.4.3. La modélisation de l'expertise
"Les termes elicitation et acquisition tendent à être utilisés de façon interchangeable.
Cependant, il existe une distinction claire entre elicitation et acquisition dans la création
d'un modèle. L'elicitation est le processus de développement d'un modèle par interview
des experts et observation de leur environnement; c'est former une théorie ou concevoir
un modèle. L'acquisition concerne les processus de capture des informations (faits) qui
conviennent dans le cadre de travail défini par le modèle" (Addis, 1987). Nous
conservons ici le terme anglais elicitation.
L'interview non-structuré est de loin la méthode la plus couramment utilisée en
acquisition de connaissances. Certains développeurs sont d'ailleurs convaincus que c'est
la seule méthode possible pour extraire de la connaissance experte. Dans un interview
non-structuré, le cogniticien pose des questions plus ou moins spontanées pendant que
l'expert est en train de raconter une anecdote ou expérience qu'il a vécue ou qu'il est en
train de vivre. Par exemple, le cogniticien demande : "Pourquoi faites-vous cela ?" ou
"Comment savez-vous cela ?" au moment où l'expert décrit une action ou fait une
inférence.
En dépit (et dans certains cas à cause) de la nature asymétrique des interviews, à force de
travailler sur des bases de connaissances, les cogniticiens sont cependant amenés à sentir
la nature particulière de l'expertise. En particulier, ce que possèdent les experts ne semble
pas être l'intelligence, au moins au sens habituel, ni même de l'expérience, mais la façon
dont l'expérience est codée et traduite en action. Il s'agit d'habiletés. Par exemple, les
experts en courses de chevaux peuvent avoir des capacités très différentes en matière de
pari. En d'autres termes, des êtres humains ayant des capacités intellectuelles limitées
sont capables d'égaler des experts et professionnels en matière de pari.
Les experts peuvent exprimer de façon très précise leur connaissance déclarative et
procédurale, mais pas ce qu'ils possède au delà des faits et des procédures. Le plus
souvent, le savoir-faire des experts n'est pas formalisable ou exprimable sous forme de
modèle objectif. C'est généralement une collection de savoir-faire(s) semi-complète,
semi-structurée, délimitée et subjective.
L'expertise n'est pas organisée uniquement de façon factuelle, mais aussi de façon
tactique. Les experts considèrent les nouveaux problèmes de leur domaine comme des
variantes de problèmes qu'ils ont déjà résolus. Ils sont particulièrement entraînés à
retrouver des solutions de problèmes déjà résolus qu'ils modifient sensiblement pour
répondre à une nouvelle question.
27
Habilitation - Guy Boy - 1992
La majeure partie de l'expertise réside dans sa structure et son organisation. La différence
entre experts et débutants ne réside pas seulement dans le fait que les premiers possèdent
beaucoup plus de connaissances que les seconds, mais surtout dans le fait qu'ils ont
organisé toute cette information de façon structurée et hiérarchique en patterns (qui ont
un sens très précis).
L'expérience est encodée dans la mémoire épisodique. Par opposition à la mémoire
sémantique, qui peut être décrite comme la connaissance des faits. La mémoire
épisodique est la mémoire des situations recueillies par l'expérience. Ainsi, même si un
débutant possédait autant de mémoire sémantique qu'un expert dans un domaine donné,
l'expert aurait encore plus de connaissance sur la façon de l'utiliser. La mémoire
épisodique enregistre et organise les événements de telle manière que les concepts du
domaine soient reliés entre eux en accord avec leur co-occurrence dans un même épisode.
De plus, les épisodes eux-mêmes sont organisés dans la mémoire en épisodes généralisés
que Kolodner (1983) a appelés E-MOPs (Episodic Memory Organization Packets). Ces
épisodes généralisés correspondent à des classes de situations que l'expert a l'habitude de
rencontrer. De plus, les structures changent et se réorganisent dans le temps à mesure que
l'expert rencontre des succès et des échecs. La représentation par blocs (section 2.5.2) est
tout à fait superposable à la notion de E-MOPs.
Beaucoup de chercheurs se sont intéressés à la façon dont les débutants devenaient
progressivement expérimentés puis experts. Les travaux de Chase et Simon (1973) sur
l'habileté aux échecs en est un des premiers exemples. Anderson et ses collègues ont
analysé le développement de l'expertise en fonction du temps (Anderson, 1983). Le
principal résultat de leurs travaux a été de montrer que la connaissance spécifique au
domaine est tout d'abord encodée de façon déclarative. Les procédures générales de
résolution de problème sont utilisées pour interpréter la connaissance déclarative et
générer des règles de production spécifiques au problème. Une fois qu'un débutant a
résolu un certain nombre de problèmes dans un domaine donné, les nouveaux problèmes
peuvent être structurellement superposés à des problèmes précédemment résolus.
Anderson appelle cette superposition de problèmes "analogie structurelle". Si l'on
continue longtemps ce processus pour divers types de problèmes, on dit que la
connaissance est compilée sous forme de procédures spécifiques. Nous analyserons ces
mécanismes plus en détails dans la section 2.4.
1.5. Le triangle outil-tâche-utilisateur
L'approche ergonomique prend en compte l'utilisateur, la tâche et l'outil dans le processus
de conception. Elle prend aussi en compte les interactions entre les trois composantes.
L'approche ingénierie classique est centrée sur la construction de l'outil, la tâche et
l'utilisateur sont généralement considérés de façon implicite. La tâche doit être modélisée
suite à une analyse de tâche ou à une modélisation du processus sur lequel on désire
appliquer l'outil à concevoir. Ce travail d'appréhension de la tâche donne lieu à des
simulations conceptuelles ou matérielles (qui se traduisent généralement sous la forme
d'un programme informatique). Les résultats de ce type d'analyse donnent un ensemble de
spécifications pour l'outil. L'utilisateur est très rarement pris en compte dans la phase de
28
Habilitation - Guy Boy - 1992
conception. Sa prise en compte ne peut être qu'incrémentale sous la forme d'un modèle
d'utilisateur dont on spécifie progressivement la syntaxe et la sémantique, ou/et basée sur
des modèles analogiques développés dans le passé et adaptés à la tâche en cours. Les
interactions entre la tâche et l'outil fournissent les besoins en informations pour
l'utilisateur ainsi que les limites technologiques imposées sur la tâche par l'outil. Les
interactions entre la tâche et l'utilisateur peuvent être appréhendées par une analyse de
l'activité de l'utilisateur accomplissant la tâche. Ce type d'analyse ne peut être
qu'incrémentale puisque la nature de la tâche peut être modifiée par l'outil. Les
interactions entre l'outil et l'utilisateur concernent à la fois la présentation des
informations et les commandes fournies à l'utilisateur pour manipuler l'outil. Ceci se
traduit sous la forme du triangle outil-tâche-utilisateur (Figure 3).
Tâche
Besoin en informations
et limites technologiques
Analyse de la tâche
et analyse de l'activité
Outil
Utilisateur
Interaction et interface
Figure 3. Le triangle outil-tâche-utilisateur
29
Habilitation - Guy Boy - 1992
30
Habilitation - Guy Boy - 1992
2. Approche Empirique et
Rationalisation de Concepts
"... la survie des théories scientifiques dépend de leur capacité à expliquer
des phénomènes empiriques d'une manière plus adéquate que les théories
rivales." Herbert Simon (1984).
2.1.
Introduction
A partir de quel moment pouvons nous déclarer qu'un système est terminé et peut être
utilisé sans problème ? La certification est un processus difficile dans lequel il s'agit de
montrer qu'un outil sera satisfaisant dans n'importe quelle situation appartenant à un
certain domaine d'utilisation. D'habitude, la partie difficile consiste à définir des critères
et de normes qui seront acceptables socialement par un grand nombre d'experts du
domaine et d'autres personnes qui seront directement concernées par l'utilisation de
l'outil. La responsabilité de la définition de telles normes incombe à des autorités
nationales et internationales reconnues. Par exemple, on a maintenant l'habitude de voir
des labels de garanties sur des appareils ménagers. Ces labels garantissent que les
appareils qui les portent marcheront dans des conditions bien spécifiées. De telles normes
évoluent dans le temps. De plus, il est difficile de tester ces appareils par rapport à ces
normes tant qu'ils sont neufs. En réalité, les normes de certification sont habituellement
redéfinies en fonction de l'évolution des outils et, en particulier, de leur utilisation. Une
question intéressante est : peut-on placer la définition des critères d'évaluation et de
certification le plus tôt possible dans la boucle de conception ? Cette question peut-être
reformulée de la façon suivante : quels sont les moyens à mettre en œuvre pour une
conception centrée sur l'utilisateur ?
A mesure que les systèmes deviennent plus automatisés et intelligents, leur certification
devient beaucoup plus difficile. De tels systèmes sont intensifs en connaissances dans le
sens où ils incluent une expertise combinée d'un ensemble de personnes choisies.
L'évaluation de leur complétude et de leur cohérence sont deux problèmes majeurs. A
l'extrême et à titre de métaphore, les êtres humains sont évalués par l'intermédiaire
d'examens pendant leurs périodes scolaires et d'apprentissage. Pendant leur vie, les êtres
humains s'auto-évaluent continuellement et sont évalués par d'autres. En prenant le point
de vue de Ford and Agnew (1992), l'expertise (c'est-à-dire la connaissance) se situe par
rapport à un contexte social, est personnellement construite et est adaptée au monde réel.
Ceci rend le processus d'évaluation des systèmes à base d'expertise extrêmement difficile.
Il existe un problème majeur lorsque les utilisateurs (et même des experts du domaine)
possèdent des constructions mentales (constructs) différentes de celles des "expertsconcepteurs". Ceci entraîne des problèmes de communication que nous analysons dans la
section 2.2.
31
Habilitation - Guy Boy - 1992
Les systèmes que nous étudions ici sont complexes (du point de vue de leur structure et
de leur fonction) et difficiles à comprendre pour un non-spécialiste. Par exemple, les
avions modernes, les centrales nucléaires, les ordinateurs, la documentation, etc. sont des
systèmes complexes. Qu'entendons nous par systèmes "intelligents" ? Littéralement, ces
systèmes devraient être capables d'interagir avec leur environnement, d'être experts, de
faire des erreurs et des fautes comme les êtres humains, d'apprendre et de se souvenir,
d'avoir de l'humour, etc. Collins and Smith (1988) mentionnent que:
"La perspective d'intérêt [en sciences cognitives] a grandi de deux
développements: (1) l'invention des ordinateurs et, tout de suite après, les essais
de conception de programmes qui pourraient accomplir le même types de tâches
actuellement accomplies par les êtres humains, et (2) le développement de la
psychologie basée sur l'information, appelée aujourd'hui psychologie cognitive,
qui a essayé de spécifier les traitements internes mis en jeu dans la perception, la
mémoire et la pensée. Les sciences cognitives ont été une synthèse des deux,
prenant en compte à la fois les détails du traitement cognitif humain et la
modélisation informatique de ces processus."
L'article classique de Turing (Turing, 1950) pose une question qui se situe au cœur des
sciences cognitives : Est-ce qu'une machine (ou un système) peut afficher la même sorte
d'intelligence qu'un être humain ? Les systèmes conviviaux permettent aux êtres humains
d'étendre leurs capacités cognitives. De tels systèmes ne peuvent pas être qualifiés
d'intelligents dans le sens où nous l'entendons pour les êtres humains, mais ils permettent
une interaction "intelligente" avec les utilisateurs. En intelligence artificielle (IA), le
comportement intelligent est défini comme suit : confronté à un but, un ensemble de
principes d'action doivent être utilisés pour passer d'une situation initiale à une situation
finale qui satisfait un but. En accord avec ce modèle, l'un des buts de l'IA est de
construire des machines "intelligentes" capables d'interagir avec leur environnement
(Boy, 1991). Une question cruciale est : de quelle manière "l'intelligence" de ces
systèmes est-elle perçue et comprise par des êtres humains ? Dans cette perspective, le
concept d'agent est essentiel. Les agents peuvent être des êtres humains ou des machines.
Les activités de travail moderne entraînent un ensemble de questions concernant le
partage des tâches et des responsabilités entre les agents humains et machines. Un
premier modèle des interactions entre agents humains et machines a été développé pour
la certification d'avions de transport modernes dans le projet MESSAGE (Boy & Tessier,
1985). Les systèmes et les machines qui ont été analysés ne sont pas à proprement parlé
"intelligents" dans le sens IA actuel. Cependant, ils sont hautement automatisés, tels que
les systèmes de gestion du vol pour contrôler la navigation. Cette automatisation accrue
prend en compte un certain nombre de tâches cognitives très importantes qui étaient
réservées aux êtres humains dans le passé.
Il est très difficile d'acquérir l'expertise des experts (Feigenbaum & Barr, 1982; Leplat,
1985). Plusieurs années de travail dans la communauté de l'acquisition de connaissances
ont mis en évidence que le problème n'est pas tellement "d'extraire" des connaissances
pré-existantes de l'expert, mais plutôt de fournir les "bons" outils qui permettent de
modéliser la performance de l'expert. Cette modélisation est généralement réalisée par
32
Habilitation - Guy Boy - 1992
une collaboration de l'expert avec un spécialiste de l'acquisition de connaissances. Ce
type d'argumentation a déjà été rapporté par Gaines (1992), et fortement supporté par
Clancey (1990). En fait, "la progression du behaviorisme vers les sciences cognitives a
amené beaucoup de changements dans nos méthodologies, techniques expérimentales, et
modèles des activités humaines" (Gaines, 1992). Dans le même article, Gaines continue
son argument comme suit :
"Le changement subtil de terminologie entre la psychologie cognitive et les
sciences cognitives a marqué un changement majeur de modèle dans notre
approche des systèmes intelligents. Il a ouvert la question de savoir si un système
artificiel, un mécanisme, peut être intelligent et, si c'est le cas, comment cette
intelligence diffère de la nôtre. Ce faisant, il a posé les questions fondamentales
sur les fondations systémiques de l'intelligence. Il a aussi ouvert des questions du
type: quels systèmes peuvent être regardés comme intelligents ? Si nous
considérons les gens et les ordinateurs, pourquoi pas des sociétés, des cultures, les
espèces, la biomasse, l'univers ? Qu'est-ce qu'un système cognitif ?"
En donnant une explication du fait que l'intelligence émerge de composantes nonintelligentes, Minsky (1985) défend le point de vue interactioniste de l'intelligence.
L'approche interactioniste est très récente. Elle est basée sur le principe que la
connaissance est acquise et structurée itérativement par interactions successives avec
d'autres acteurs ou des agents autonomes. Cette approche est sociologique (versus
psychologique). L'interaction et l'auto-organisation sont les facteurs clefs de la
construction de concepts généraux. Ils existe deux courants principaux : les réseaux
d'automates (von Neumann, 1966; McCulloch & Pitts, 1943; Rosenblatt, 1958) et le
connexionisme (Rumelhart et al., 1986; McClelland et al., 1986); et l'IA distribuée
(Minsky, 1985; Hewitt, 1977; Lesser & Corkill, 1983). Selon ce point de vue, les
processus cognitifs ne sont pas dans les individus mais dans l'interaction entre les
individus (Hegel, 1929). Dans cette thèse, nous nous basons sur ces modèles pour
l'analyse, la conception et l'évaluation des interactions "intelligentes" (ou naturelles12)
entre humains et machines modernes.
Le problème de l'évaluation de systèmes Homme-machine fait face au problème général
de la mesure en psychologie et en sciences cognitives. Puisque nous avons adopté le
point de vue que l'intelligence réside dans les interactions, pouvons nous trouver des
mesures qui identifient la qualité de telles interactions ? Les objets physiques sont perçus
par leurs propriétés et leurs attributs. La mesure par inférence est très utilisée en
psychologie. De tels attributs (ou propriétés) abstraits comme l'intelligence ne sont jamais
mesurées directement mais doivent être inférés de comportements observables. Par
exemple, mesurer la température en touchant le front de quelqu'un, ou en lisant un
thermomètre pour inférer la fièvre. Une question importante est : qui définit ou ratifie de
telles mesures ? Qui peut être qualifié d'autorité de certification ?
12Cette
notion d'interactions naturelles résume le fait que si l'être humain interagit "naturellement" avec le
système, l'équipe résultante génère une certaine intelligence au sens de Minsky.
33
Habilitation - Guy Boy - 1992
L'interaction entre un être humain et une machine "intelligente" est basée sur la définition
d'une structure et d'une fonction qui permettent cette interaction. La structure permettant
l'interaction est habituellement appelée interface-utilisateur, cockpit, panneau de
commande, etc. La fonction prend la forme de procédures, de checklists, etc. Il existe
toujours un compromis à trouver entre structure et fonction. La qualité de l'interfaceutilisateur (e.g., assure la transparence des processus à contrôler) a des répercussion
directes sur la longueur et la rigueur des procédures requises. Les procédures sont
toujours utilisées lorsqu'il existe des risques de sécurité dans le contrôle de processus.
Une autre dimension de "l'intelligence-machine" se situe au niveau de l'interface. Les
interfaces conviviales étendent mieux les capacités cognitives humains, et augmentent
donc l'intelligence des interactions (Engelbart, 1963).
Nous donnons ici une approche de la certification et l'évaluation de systèmes Hommemachine. Elle est basée sur le fait que les modèles d'agents sont essentiels dans de tels
processus d'évaluation. Notre expérience dans la certification de cockpits est prise à titre
d'exemple pour montrer que des systèmes hautement interactifs sont nécessaires pour
stocker itérativement la connaissance d'évaluation. De plus, notre expérience nous a
montré que le concept d'agent est très utile dans l'évaluation de l'interaction cognitive
Homme-machine. Le modèle reconnaissance de situation / raisonnement analytique est
présenté comme un guide pour analyser les aspects cognitifs des interactions Hommemachine (section 2.2). La section 2.4 présente le modèle reconnaissance de situation /
raisonnement analytique (RSRA). Ce modèle est utile pour conceptualiser divers types de
comportements et d'interactions entre agents. Le concept d'intelligence intégrée hommemachine (IIHM) est introduite dans la section 2.5. Le cadre de travail introduit par l'IIHM
est utile pour la validation des équipes homme(s)-système(s) "intelligent(s)". La section
2.6 pose quelques questions importantes relatives aux systèmes "intelligents" qui sont
utiles pour leur certification et leur validation. La section 2.3 est centrée sur divers
modèles de communication Homme-machine utiles pour évaluer les diverses étapes
d'évolution des capacités de communication de tels systèmes. Enfin, nous discuterons des
extensions possibles de ce point de vue des problèmes de certification et d'évaluation
pour des environnements de haute technologie.
2.2.
L'expérience de la certification de cockpits
"Here are the most common (and effecive) cognitive aids in the cockpit:
—Speed bugs: little metal or plastic tabs that the pilots can move around
the outside of the aispeed indicator to help them remember critical settings.
—Crew-provided devices; written notes, coffee cups, and tape.
—Checklists." Donald Norman (1992)13.
Nous avons développé une méthode pour analyser les interactions entre les divers
protagonistes du système aérien (Boy & Tessier, 1985). Cette méthode est basée sur le
13"Voici
les aides cognitives les plus communes dans le cockpit: —Des curseurs de vitesse : petits
tabulateurs métalliques ou plastiques que les pilotes peuvent déplacer autour de l'indicateur de vitesse pour
les aider à se souvenir des consignes critiques. —Des équipements fournis par l'équipage; des notes écrites,
des tasses à café et un rouleau de papier collant. —Des checklists".
34
Habilitation - Guy Boy - 1992
système appelé MESSAGE, Modèle d'Equipage et des Sous-Systèmes Avion pour la
Gestion des Equipements. MESSAGE est basé sur des heuristiques données par des
experts. En ce sens, c'est une système à base de connaissances. Son domaine d'expertise
est une modeste intersection entre l'ergonomie et l'aviation commerciale.
MESSAGE est basé sur un modèle d'opérateur à cinq niveaux (Boy, 1983) :
—
—
—
—
—
l'interface Homme-véhicule pour l'acquisition d'informations;
la coordination et la gestion des canaux émetteurs et récepteurs;
la reconnaissance de situation;
la décision stratégique;
les processus d'exécution de plans.
MESSAGE est un outil informatique d'analyse qui fournit une time-line d'une mission, et
l'évolution des différents indices représentant différentes charges reliées à divers
processus cognitifs. Les indices de charge de travail comportent un aspect statique de la
situation (exigence de la tâche) et un aspect dynamique relié à la gravité de la situation
courante (activité de l'opérateur).
2.2.1. Le modèle d'agent du système MESSAGE
Le modèle d'agent proposé ici est un développement du modèle classique de traitement
de l'information de Newell & Simon (1972). Il a été développé dans le cadre du projet
MESSAGE pour analyser et évaluer le cockpit d'un avion de transport (Boy, 1983). Il
utilise un superviseur qui gère trois types de processus appelés canaux récepteurs,
émetteurs et cognitifs (Figure 4).
La fonction du superviseur est analogue à celle du tableau noir de Nii (1986). Chaque
canal échange des informations avec le superviseur. Le concept de processus automatique
et contrôlé, introduit et observé expérimentalement par Schneider et Shiffrin (1977), a
été mis en œuvre au niveau du superviseur du modèle d'agent du système MESSAGE
(Tessier, 1984). Ceci permet de générer et d'exécuter des tâches soit en parallèle
(automatismes) soit en séquence (actes contrôlés). Les processus automatiques ou
automatismes font appel à un type de représentation de connaissance qui sera décrite
comme la représentation situationnelle (section 2.4.1) Les processus contrôlés peuvent
être définis par une représentation analytique (section 2.4.2). Ce modèle a été décrit de
façon extensive dans (Tessier, 1984).
2.2.2. Utilisation du système MESSAGE pour la certification de
cockpit
MESSAGE a été utilisé pour mesurer des indices de charge de travail et de performance
et pour mieux comprendre le transfert et le traitement de l'information dans des
environnements équipage-cockpit. Les entrées sont constituées de connaissances de
traitement (sous la forme de règles) et de données de missions à analyser. Les sorties sont
la performance et la gravité de la situation (fonction de tolérance -- voir la section 2.4.3
35
Habilitation - Guy Boy - 1992
de ce chapitre), les exigences de la tâche (fonctions statiques), et les perceptions de
chaque agent en fonction du temps, ainsi que la mission simulée.
Environnement (Situation réelle)
Canaux récepteurs
Canaux émetteurs
Superviseur
Reconnaissance de situation
Situation perçue
CS
Situation désirée
MLT
Mode
Résolution de
Problème
CA
MCT
Mode
Procédural
Canaux cognitifs
MLT : Mémoire à long terme
MCT : Mémoire à court terme
CS : Connaissance situationnelle
CA : Connaissance analytique
Figure 4. Modèle d'agent.
Les données de la mission à analyser incluent des paramètres continus enregistrés
pendant un vol simulé ou réel prétraité, et des événements discrets provenant
d'enregistrements video et audio. La mission simulée est une séquence reconnue (parfois
plus courte) des donnés d'entrée de la mission augmentées de nouveaux événements
générés par MESSAGE. Les règles de traitement sont acquises et modifiées
itérativement, en prenant en compte la pertinence et la précision de la mission simulée et
la signification des indices calculés en fonction du temps. Ce processus d'acquisition et
de raffinement de connaissances doit être accompli par (ou en collaboration étroite avec)
des experts du domaine.
MESSAGE a été conçu et utilisé au début des années 1980. A ce moment là, la
technologie des interfaces utilisateurs graphiques n'étaient pas développées comme elle
l'est aujourd'hui. Cette contrainte a introduit des limitations significatives au niveau de
l'utilisation du système MESSAGE. En effet, l'utilisation d'un tel système pour analyser
36
Habilitation - Guy Boy - 1992
des données de mission doit être très interactive. Ceci est du au fait que l'évaluation des
facteurs influençant l'interaction Homme-machine est intimement liée au processus
d'acquisition et de validation des connaissances (processus en boucle). Il semble
aujourd'hui que ceci soit général aux processus de certification et d'évaluation. En effet,
la connaissance de tels processus est acquise lorsque ces processus sont accomplis
(connaissance épisodique -- voir section 1.4.3). Donc, un résultat important du projet
MESSAGE est que des outils conviviaux, hautement interactifs, doivent être développés
pour l'évaluation des interactions Homme-machine.
2.2.3. Modélisation d'agents pour évaluer l'interaction Hommemachine
MESSAGE a été conçu et développé comme un système multi-agent simulant les
interactions entre des êtres humains et des machines dans le domaine de l'aviation. Un
agent est une entité interagissant avec son environnement. Que ce soit un être humain ou
une machine, il peut être modélisé par le modèle d'agent décrit dans la section 2.2.1.
L'interaction entre agents est très sensible à la structure du champ social. La structure du
champ social est un réseau de relations informationnelles entre agents. Elle est
caractérisée par la structure et la nature des messages échangés. Par conséquent,
l'environnement d'un agent est défini par l'ensemble des autres agents (et de leurs
comportements potentiels) dans le champ social.
Un agent "intelligent" devrait être capable d'anticiper les réactions de l'environnement
ainsi que les conséquences de ses propres actions. Cette anticipation s'opérera sur les
messages (Figure 5) provenant soit de l'environnement (entrées externes ou observations,
par exemple, m1 et m2) ou de l'agent lui-même (entrées internes ou messages
intentionnels ou inférés, par exemple, m3 et m4).
m1
m3
Agent 1
Agent 2
m4
m2
Figure 5. Messages et Agents
Un cockpit, par exemple, est un réseau d'agents. Le pilote interagit avec les autres agents.
Il connait les relations complexes de ce réseau d'agents. A partir de l'observation de leurs
comportements individuels, il interprète constamment le comportement global de l'avion.
A titre de métaphore, le pilote se trouve dans une situation similaire à celle d'un
gestionnaire interagissant avec ses collaborateurs pour mener à bien un travail nécessitant
un effort de groupe. Habituellement, chaque membre de l'équipe essaye de construire une
représentation dynamique du champ social dans lequel il se trouve. Récemment, Hutchins
(1991) a décrit ce modèle comme le cadre des sciences cognitives (cognitive science
frame). Il a appliqué cette approche au problème de la mémorisation (par le pilote) de la
37
Habilitation - Guy Boy - 1992
vitesse dans un cockpit d'avion. Dans le même esprit, Hutchins présente un cadre de
travail théorique qui considère le groupe fonctionnel comme son unité première, plutôt
que le cerveau de l'individu. En d'autres termes, Hutchins privilégie l'aspect social du
groupe fonctionnel sur l'aspect cognitif interne de chaque individu composant le groupe.
Ce point de vue prend en compte des représentations de l'information et la façon dont ces
représentations sont transformées et propagées à travers le système.
2.3.
Modélisation de la communication entre agents
2.3.1. Comprendre comment les agents partagent les rôles
Dans le futur, les agents artificiels et humains accompliront des tâches intelligentes dans
le contexte d'un système intégré. Chacun aura des responsabilités, aura besoin d'accéder à
des ressources communes et aura des tâches particulières à accomplir en accord avec son
niveau de connaissance. Certaines tâches peuvent être accomplies en parallèle, d'autres
peuvent demander des résultats de tâches accomplies par d'autres agents.
L'équilibre du partage des fonctions intelligentes peut être caractérisé comme un
continuum:
Manuel
Interactif
Automatisé
Dans les systèmes complètement manuels ou automatiques, l'utilisateur et la machine
sont effectivement découplés. Dans la frange intermédiaire, où les systèmes IIHM sont
définis, les agents humains et artificiels peuvent interagir par communication.
Lorsqu'il conçoit des systèmes intégrés, le concepteur doit considérer la nature des
communications entre agents, humains et artificiels. Le type d'interaction dépend, en
partie, de la connaissance que chaque agent a des autres. Un agent interagissant avec un
autre agent, appelé un partenaire, peut appartenir à deux classes :
1. l'agent ne connait pas son partenaire;
2. l'agent connait son partenaire.
La seconde classe peut être décomposée en deux sous-classes :
a. l'agent connait son partenaire indirectement (en utilisant une base de données
partagées par exemple);
b. l'agent connait son partenaire explicitement (en utilisant des primitives de
communication clairement comprises par le partenaire).
Cette classification amène à trois relations entre les deux agents communicants :
A. compétition;
38
Habilitation - Guy Boy - 1992
B. coopération par partage de données communes;
C. coopération par communication directe.
Dans le cas de la compétition, l'agent est totalement ignorant de l'existence des autres
agents. Ceci peut mener à des conflits pour le partage des ressources existantes. Donc, il
est nécessaire de définir un ensemble de règles de synchronisation pour éviter les
problèmes d'allocation de ressources entre agents. Typiquement, ces règles de
synchronisation doivent être prises en compte par un superviseur. Le superviseur peut
être l'un des partenaires ou un agent extérieur. Bien sûr, si les ressources disponibles
dépassent les demandes de tous les agents, des conflits sont automatiquement évités.
Dans le monde réel, nous ne connaissons pas à l'avance toutes ces demandes et il est
impossible de créer des ressources physiques sur demande.
Dans le cas de la coopération par partage de données communes, l'agent sait que son
partenaire existe parce qu'il est au courant des résultats d'au moins certaines actions de
son partenaire. Tous les deux utilisent une base de données partagée. Les agents utilisent
et actualisent cette base de données. Un exemple pourrait être que les deux agents notent
toutes leurs actions sur un tableau noir auquel chaque agent se réfère avant d'agir. Ceci
n'est plus un problème d'allocation de ressources, mais un problème de partage de
données que chaque agent peut utiliser puisqu'il y est autorisé. Les agents doivent
coopérer pour gérer la base de données partagée. Ce paradigme est appelé système
orienté-données. Un tel système doit contrôler la cohérence des données partagée. Des
relations de coopération entre agents n'excluent pas des relations compétitives. Les
données partagées sont généralement supportées par des ressources pour lesquelles les
agents correspondant peuvent entrer en compétition. Dans ce cas, des règles de
synchronisation prennent en compte la résolution des conflits d'allocation de ressources et
le test de la cohérence des données correspondantes.
Dans les cas précédents, l'interaction est toujours indirecte. Dans le cas de la coopération
par communication directe, les agents partagent des règles du jeu communes et un
langage commun exprimé sous forme de messages, par exemple, les experts d'un même
domaine coopérant pour résoudre un problème.
2.3.2. Niveaux d'autonomie
Les opérateurs humains ne sont pas bons dans les tâches de monitoring s'ils ne sont pas
engagés dans une activité cognitive reliée au système contrôlé. Ils ne sont pas aussi bons
que les machines dans les tâches hautement répétitives, complexes, ou très critiques dans
le temps. Donc, un concepteur doit établir un équilibre entre le contrôle total par
l'utilisateur et le contrôle autonome de la machine.
Le partage d'autonomie entre l'Homme et la machine est très important et peu compris.
Dans cette section, nous étendons le concept de niveaux d'automatisation introduit par
Sheridan (1984). Nous donnerons ici un modèle théorique (Boy, 1986) de la performance
d'un système simple Homme -machine à différents niveaux d'autonomie déterminé par
différents niveaux de compréhension ou de connaissance sur le système Homme-machine
39
Habilitation - Guy Boy - 1992
(figure 8). L'axe horizontal représente un continuum de niveaux d'autonomie allant du
“contrôle manuel” à “automatisation complète". L'axe vertical représente la performance
du système Homme-machine. La performance peut être liée au temps, à la précision des
résultats, au coût de résolution d'un problème donné ou à tout critère heuristique
approprié pour mesurer la performance. Chaque courbe de la figure 6 correspond à un
niveau de connaissance que le concepteur a de la tâche. (En général, une meilleure
connaissance du concepteur conduit à une plus grande performance du système conçu.)
CONNAISSANCE
PERFORMANCE
DU SYSTEME
HOMME-MACHINE
LIMITATIONS
TECHNOLOGIQUES
NIVEAUX
D'AUTONOMIE
HOMME
OPTIMUM
MACHINE
Figure 6. Performance du Système Homme-Machine versus Niveaux d'Autonomie.
En suivant ce modèle, la performance du système Homme-machine croît avec
l'autonomie de la machine, mais seulement jusqu'à un certain optimum, après lequel elle
décroît. Si l'autonomie de la machine est encore accrue, l'opérateur humain peut perdre le
contrôle de la situation (il peut ne plus comprendre le comportement de la machine). Il
convient de noter que le niveau d'autonomie peut être accru jusqu'à une certaine limite
fixée par les limitations technologiques. Aujourd'hui, la plupart des projets d'ingénierie
sont développés sur ces limitations technologiques, en d'autres termes les machines sont
construites aussi bien que possible selon des critères d'optimisation strictement centrés
sur la machine. Dans notre approche, les critères d'optimisation sont centrés sur la
performance du système Homme-machine. Une telle approche nécessite des simulations
et/ou une expérimentation en grandeur nature. Les optima de performance du système
Homme-machine peuvent être déplacés vers la droite si les opérateurs humains sont très
bien entraînés. Globalement, lorsque le niveau de compréhension et de connaissance
croît, ces optima peuvent se déplacer vers le haut et vers la droite. Finalement, si tout est
connu sur le contrôle de la machine dans son environnement, alors l'optimum
correspondant est situé sur la limite d'autonomie complète. Chercher expérimentalement
ces optima constituent une bonne méthode d'acquisition et d'évaluation des
connaissances, en d'autres termes le concepteur saute d'une courbe à une autre plus haute
lorsqu'il acquiert plus de connaissances sur l'utilité du système Homme-machine.
40
Habilitation - Guy Boy - 1992
2.3.3. Attributs de l'automatisation centrée sur l'Homme
Wiener et Curry (1980) ont discuté les exigences de l'automatisation. Ils différencient le
contrôle de la surveillance. Billings (1991) a récemment retracé le diagramme des
fonctions de surveillance et de contrôle (Figure 7).
Billings (1991) donne les attributs suivants pour l'automatisation d'un avion :
— redevable, c'est-à-dire sujet à donner une analyse et une explication justificatrice;
— subordonné, c'est-à-dire placé dans ou occupant une classe, rang ou position plus
faible;
— prédictible, c'est-à-dire capable de prédire sur la base d'observations ou de
l'expérience;
— adaptable, c'est-à-dire capable d'être modifié en accord avec des circonstances
changeantes;
— compréhensible, c'est-à-dire intelligible;
— simplicité, c'est-à-dire comme Albert Einstein l'a dit "Tout devrait être fait aussi
simple que possible, mais pas plus simple";
— flexible, c'est-à-dire caractérisé par une capacité à s'adapter à des exigences
nouvelles, différentes ou changeantes;
— sûr, c'est-à-dire capable d'être ... "quelqu'un" sur qui on peut compter, on peut faire
confiance;
— informatif, c'est-à-dire l'opérateur doit toujours avoir les informations de base
(vitales) ;
— résistance aux erreurs, c'est-à-dire prévoyant l'occurrence de toutes les erreurs;
— tolérance des erreurs, c'est-à-dire permettant des erreurs humaines.
Cette liste offre les concepts essentiels à prendre en compte dans la conception et
l'évaluation de système IIHM.
41
Habilitation - Guy Boy - 1992
. Ennui
. Complaisance
. Erosion de la
Compétence
Auto
L'ordinateur surveille
Le pilote contrôle
Fonctions de
Surveillance
L'ordinateur contrôle
Le pilote surveille
Manuel
Manuel
. Fatigue
. Forte Charge de Travail
Fonctions de Contrôle
Auto
Figure 7. Fonctions de surveillance et de contrôle
(Wiener & Curry, 1980; Billings, 1991)
2.4.
Le modèle reconnaissance de situation /
raisonnement analytique
La qualité d'une communication entre deux individus repose sur la compréhension
réciproque du modèle interne de l'autre. Par exemple, une discussion entre experts du
même domaine se réduit à un langage opératif (Falzon, 1986), c'est-à-dire très
situationnel. Dans ce cas, les experts ont des connaissances quasi-identiques sur le sujet :
on dit que leurs modèles internes sont quasi-identiques. Au contraire, lorsqu'un
professeur donne un cours à ses élèves, ils ne partage pas nécessairement le même
modèle interne. En particulier, le professeur doit "décompiler" sa connaissance
situationnelle pour la rendre intelligible aux novices, nous diront qu'il utilise une
explication analytique pour se faire comprendre.
La distinction entre analytique et situationnel n'est as nouvelle. Dans sa critique de
l'intelligence artificielle, Hubert Dreyfus (1979) fait ressortir l'importance de la
connaissance situationnelle dans l'expertise, et la difficulté de l'extraire et de la
représenter pour la programmer sur un ordinateur.
42
Habilitation - Guy Boy - 1992
2.4.1. Représentation situationnelle
Le terme situation est utilisé ici pour caractériser l'état de l'environnement. En général, il
se réfère à l'état du monde. Une situation est décrite par un ensemble de composantes que
nous appelerons des faits du monde. Pour un fait générique du monde ƒi, à un instant
donné, il est possible de distinguer trois types de situations (Boy, 1983) :
1. La situation réelle caractérise l'état vrai du monde. Souvent, celle-ci n'est que
partiellement disponible à l'opérateur. La situation réelle, à un instant donné t, est
l'ensemble des faits du monde. A priori, cet ensemble est infini.
2. La situation perçue par l'opérateur caractérise une image du monde. Celle-ci est la
partie du monde accessible à l'opérateur. Elle est caractérisée par des composantes
qui sont incomplètes, incertaines et imprécises. La situation perçue par l'opérateur à
un instant donné t est l'ensemble des faits du monde perçus par l'opérateur. Nous
faisons l'hypothèse que l'ensemble des faits perçus est fini. Chaque fait perçu πi est
le résultat de l'application d'un opérateur Pi sur un sous-ensemble des faits du
monde. En général, l'opérateur Pi est "flou" au sens de Zadeh (1965, 1976). Nous
faisons aussi l'hypothèse que tous les sous-ensembles des faits du monde
caractérisant les faits perçus sont finis.
3. La situation désirée ou attendue par l'opérateur caractérise son ensemble de buts.
La situation désirée par l'opérateur à un instant donné t est l'ensemble des buts que
l'opérateur désire atteindre. Chaque but ∂i est le résultat de l'application d'un
opérateur Di sur un sous-ensemble des faits du monde. En général, l'opérateur Di est
flou. Nous faisons aussi l'hypothèse que tous les sous-ensembles des faits du monde
caractérisant les buts sont finis.
La situation réelle est un attribut de l'environnement. Les situations perçue et désirée
sont des attributs de la mémoire à court terme de l'opérateur. Dans la terminologie utilisée
en intelligence artificielle, la situation perçue représente la base de faits perçus et la
situation désirée représente les buts.
La notion de pattern14 situationnel (ou pattern) est fondamentale. Un pattern situationnel
représente la situation attendue par l'opérateur à un instant donné. Nous dirons qu'un
pattern situationnel est actif s'il est en mémoire à court terme. La situation attendue par
l'opérateur à un instant donné t est l'ensemble des patterns situationnels résidant dans la
mémoire à court terme de l'opérateur. Chaque pattern situationnel µi est le résultat de
l'application de l'opérateur ∏i sur un sous-ensemble des faits du monde. En général,
l'opérateur ∏i est flou. Nous faisons l'hypothèse que tous les sous-ensembles des faits du
monde caractérisant les patterns situationnels sont finis. Nous disons aussi qu'un pattern
est composé de conditions, chacune d'elles s'appliquant à un ensemble fini des faits du
14Nous
conservons le terme anglais pattern au lieu de "patron" parce que nous considérons qu'il est passé
dans les us et coutumes des sciences cognitives et de l'IA.
43
Habilitation - Guy Boy - 1992
monde. Un pattern situationnel est un élément de la mémoire à long terme de l'opérateur.
Il résulte d'une longue période d'apprentissage. A chaque intervalle de temps, la vigilance
de l'opérateur est caractérisée par le nombre et la pertinence des patterns situationnels
activés dans la mémoire à court terme.
En monitoring, par exemple, l'opérateur apparie les faits perçus avec les patterns
situationnels. Reason (1986) appelle ce processus appariement par similarité (similarity
matching). Si, à un instant donné, plusieurs patterns sont candidats pour une situation
perçue, les résultats de Reason montrent que le pattern le plus fréquemment utilisé est
choisi en premier. Il appelle ce processus pari fréquenciel (frequency gambling). En
pratique, chaque fait ƒj est représenté par une variable vj (numérique ou logique)
appartenant à un ensemble V, et par sa fonction de tolérance associée { TFi,j } à l'intérieur
du pattern µi. Une fonction de tolérance (TF) est une application de l'ensemble V dans le
segment [0,1]. Les éléments de V sont appelés "valeurs", par exemple, les valeurs d'une
variable numérique. V est divisé en trois sous-ensembles : les valeurs préférées
{TF(v)=1}, les valeurs permises {0<TF(v)<1}, et les valeurs inacceptables {TF(v)=0}. Ce
modèle de fonction de tolérance permet de prendre en compte des variables numériques
(par exemple, la température et la pression : Figure 8) et des variables logiques (par
exemple, la position d'une vanne ou la valeur de vérité d'une expression logique : Figure
9).
TF(v)
1
0
v
Figure 8. Fonction de tolérance pour une variable numérique.
Une échelle ordinale "subjective" peut être définie sur le segment [0,1] en accord avec la
définition définition des trois sous-ensembles de valeurs. Cette définition est très
largement applicable pour manipuler des concepts en langage naturel. En fait, une
fonction de tolérance peut aussi être définie comme une fonction d'appartenance relative
au concept de "tolérance". L'attrait de cette représentation est sa capacité à prendre en
compte l'aspect vague inhérent au langage naturel, par exemple, "la pression P1 est
proche de sa valeur maximum".
44
Habilitation - Guy Boy - 1992
TF(v)
1
0
v
Figure 9. Fonction de tolérance pour une variable logique.
2.4.2. Représentation analytique
Lorsqu'une situation est reconnue, elle suggère généralement une solution au problème.
Un problème peut être défini comme un événement qui nécessite l'allocation immédiate
de ressources parce qu'il ne peut pas être traité de façon automatique (au sens de Shiffrin
et Schneider) et/ou l'événement est trop nouveau ou différent (Rappaport, 1986). Ces
ressources intellectuelles peuvent être représentées par un réseau sémantique ou des
règles d'inférence du type:
SI <prémisses> ALORS <conséquences>.
L'inférence peut être réalisée en chaînage avant (des données vers les conclusions) ou en
chaînage arrière (des buts vers des actions de base). Hayes-Roth & Hayes-Roth (1978)
ont qualifié d'opportuniste la résolution humaine de problème, en d'autres termes le
chaînage est possible dans n'importe quel sens à tout instant. Les êtres humains ont
tendance à structurer leur raisonnement en îlots de connaissances. Chacun de ces îlots est
relié à un ou plusieurs patterns situationnels. Un îlot définit un contexte. La notion de
contexte sera introduite dans la section 2.4.2 lorsque nous décrirons la représentation par
bloc. Cette notion est approfondie dans le chapitre 3.
2.4.3. Connaissance compilée, instanciée et profonde
Il semble raisonnable d'envisager que les patterns situationnels (i.e. connaissances
situationnelles) sont compilées parce qu'ils sont le résultat d'un apprentissage de type
entraînement. Nous avons montré (Boy, 1987a,b), dans un cas particulier de diagnostic de
panne sur une système physique, que la connaissance situationnelle d'un expert résulte en
grande partie de la compilation, au cours du temps, de la connaissance analytique sur
laquelle il s'est reposée lorsqu'il était novice. Cette connaissance situationnelle constitue
l'essence de l'expertise. Elle correspond à un comportement basé sur le habiletés dans la
terminologie de Rasmussen. La "décompilation", c'est-à-dire l'explication de la
connaissance intrinsèque de base contenue dans chaque pattern situationnel, est une tâche
très difficile, et est parfois impossible. Une telle connaissance ne peut être acquise que
45
Habilitation - Guy Boy - 1992
par un processus itératif d'observation. La connaissance analytique peut être décomposée
en deux types : les procédures ou savoir-faire, et la connaissance théorique :
1. La connaissance procédurale peut être représentée sous forme de plans instanciés.
Elle peut être généralement traduite en règles de production et en logique
propositionnelle. Par conséquent, elle est aussi le résultat de l'instanciation d'une
connaissance plus générale. Nous utilisons ici les termes connaissance instanciée,
connaissance de surface (ou superficielle) et connaissance procédurale pour
désigner le même concept. La connaissance contenue dans les manuels d'opérations
est presque exclusivement de ce type. Rasmussen (1979, 1983, 1986) associe le
comportement basé sur les procédés (rule-based behavior) à ce niveau de
connaissance. La connaissance procédurale est la plus facile à acquérir. Elle peut
être plus ou moins facile à formaliser.
2. Un autre type de traitement, appelé exploration de la connaissance, est basé sur de
la connaissance dite profonde (Van der Velde, 1986). Cette connaissance n'est pas
toujours disponible dans tous les domaines et correspond aux fondements
théoriques du domaine de référence. Plusieurs modèles (et parfois des théories)
peuvent être utilisés pour décrire ou raisonner sur un système complexe. En
diagnostic de pannes, par exemple, on pourrait développer un modèle structurel du
système à diagnostiquer et le décomposer en composantes de base et relations entre
ces composantes. Parfois, un modèle géométrique est nécessaire. Un modèle
fonctionnel permettra de simuler le comportement de diverses composantes. Un
diagramme causal peut être tracé pour établir les diverses connections entre les
propriétés de ces composantes. Le type de raisonnement associé fera appel à un
mécanisme d'instanciation d'une connaissance plus générale. Cette connaissance est
organisée par rapport à la structure du champ du problème à résoudre : sa topologie,
sa fonctionnalité, sa causalité, et d'autres aspects tels que la hiérarchisation d'objets
et l'autonomie et hétéronomie des diverses parties du système. La connaissance
profonde constitue la base du comportement basé sur la connaissance (knowledgebased behavior) selon Rasmussen.
2.4.4. Evaluation dynamique guidée par un modèle évolutif
d'utilisateur
Les systèmes "intelligents" sont des extensions électroniques des capacités de
l'utilisateur. Ce sont des médiateurs entre les parties mécaniques et logiques d'un système
qui partagent quelques fonctions intelligentes avec l'utilisateur. Les copilotes
électroniques, les manuels "intelligents" d'utilisation et les blocs-notes "intelligents" sont
des exemples de tels systèmes.
Un exemple de système Homme–machine est le système de ravitaillement orbital de la
navette spatiale américaine (Orbital Refuelling System15 : ORS). L'ORS a été utilisé pour
15Nous
avons travaillé sur les données expérimentales de la manipulation de l'ORS effectuée par
l'astronaute Cathy Sullivan en octobre 1984 dans l'espace..
46
Habilitation - Guy Boy - 1992
ravitailler des satellites en hydrazine pour les réutiliser. Il est commandé par des
astronautes effectuant des activités extra-véhiculaire. Ces activité sont haut risque. Un
système "intelligent", appelé Human-ORS-Expert System (HORSES), a été développé
pour accomplir des tâches de diagnostic de pannes (Boy, 1986). HORSES a été testé au
cours d'une série d'expériences avec des utilisateurs travaillant dans un environnement
simulé de l'ORS. Un générateur de pannes, fonctionnant en parallèle et communicant par
l'intermédiaire d'une mémoire partagée sur un ordinateur MASSCOMP, générait des
scénarios de pannes pour l'ORS à des instants appropriés au cours de simulations. Ces
expériences ont produit des données montrant la façon dont les utilisateurs se sont
adaptés à la tâche, et la façon dont la performance a varié en fonction de l'évolution des
différents paramètres. A partir de ces données, nous avons développé le modèle
d'opérateur suivant.
Patterns
Situationnels
Novice
Expert
Connaissance
Analytique
s1
A1
s2
A2
sn
An
S1
a1
S2
a2
SN
aN
Figure 10. Modèle de reconnaissance de situation / raisonnement analytique .
L'identification de pannes peur être représenté dans le cadre du modèle reconnaissance
de situation / raisonnement analytique (RSRA) (Figure 10). RSRA est un modèle
évolutif d'opérateur. Dans l'état de l'art actuel, il est reconnu que les gens utilisent des
morceaux (chunks) de connaissance pour diagnostiquer des pannes. Un chunk16 de
connaissance est activé suite à l'appariement d'un pattern situationnel avec une situation
perçue critique. Cet appariement est soit total soit partiel. Suite à la reconnaissance de
situation, un raisonnement analytique est en général mis en œuvre. Ce processus
analytique donne deux types de sorties : un diagnostic ou des nouveaux patterns
situationnels.
Les chunks de connaissance sont très différents entre les novices et les experts. Les
patterns situationnels des novices sont simples, précis et statiques, par exemple “La
pression P1 est inférieure à 50 psia”. Le raisonnement analytique qui suit est
généralement compliqué et long. Lorsqu'un novice utilise un manuel d'opérations pour
16Le
terme chunk est utilisé par plusieurs auteurs en IA. Dans notre approache, un chunk va symboliser une
partie du processus de raisonnement. Cette notion préliminaire préfigure la représentation par bloc que nous
avons développé plus formellement (voir section 2.5.2).
47
Habilitation - Guy Boy - 1992
faire un diagnostic, son comportement est basé sur une logique d'ingénieur précompilée
récemment apprise. Par contre, lorsqu'il essaye de résoudre un problème directement,
l'approche est très déclarative et utilise des principes de base du domaine (connaissance
profonde). Nous avons observé que les sujets novices ont développé, avec la pratique,
une logique procédurale personnelle (logique de l'opérateur), soit à partir de la logique de
l'ingénieur précompilée ou directement à partir d'une approche du type résolution de
problème. Ce processus est appelé compilation de la connaissance. Au contraire, les
patterns situationnels des experts sont sophistiqués, flous et dynamiques, par exemple
“Pendant le transfert de carburant, l'une des mesures de pression du carburant approche
de la limite isotherme et cette pression décroît”. Ce pattern situationnel comporte
plusieurs variables implicites définies dans un autre contexte, par exemple “Pendant le
transfert de carburant” veut dire “en configuration de lancement, les vannes V1 et V2 sont
fermées, et V3, V4, V7 ouvertes”. “L'une des mesures de pression” est aussi une
déclaration plus générale que “La pression P1”. La déclaration “approche de la limite
isotherme” peut être représenté par un modèle mathématique dynamique, c'est-à-dire à
chaque instant, les valeurs de la pression de carburant sont comparées de façon floue
(“proche de”) à une limite variant dans le temps [Pisoth = f(Quantité, Temps)]. De plus,
les experts prennent en compte ce pattern situationnel seulement si “la pression décroît”,
qui est un autre pattern dynamique et flou. Une explication plausible est que les experts
ont transféré une partie de la connaissance utilisée jadis pour un raisonnement analytique
dans des patterns situationnel. Cette partie semble être liée à des aspects dynamiques.
Nous avons donné un modèle de ce type d'apprentissage dans (Boy & Delail, 1988).
Par conséquent, par apprentissage, des modèles dynamiques sont introduits dans des
patterns situationnels. Il est aussi clair que les experts détectent des ensembles de
situations plus larges. Tout d'abord, les experts semblent fuzzifier17 et généraliser ces
patterns. Ensuite, nous avons observé que les experts construisent des patterns mieux
reliés à la tâche qu'à la logique de fonctionnement du système. Enfin, pendant la phase
analytique, ils ont perturbé le système contrôlé pour obtenir des patterns situationnels
plus familiers généralement statiques : par exemple, dans les expériences que nous avons
menées sur l'ORS, nous avons observé que les pilotes (opérateurs) experts ont arrêté le
transfert de carburant après avoir reconnu une situation critique.
17Le verbe "fuzzifier"
signifie "rendre flou" (Dubois & Prade, 1985).
48
Habilitation - Guy Boy - 1992
P
P1
Q1
INDICATEUR (P, Q)
Q
Figure 11. Utilisation du pattern situationnel [Pisoth = f(Quantité, Temps)]
pour la construction de l'indicateur de position et de tendance
de la pression P en fonction de la quantité Q.
Les généralisations suivantes peuvent être tirées des expériences sur HORSES. Tout
d'abord, en analysant les interactions Homme–machine, nous avons pu concevoir une
présentation graphique donnant une information plus polysémique à l'expert (par exemple
une fenêtre présentant les limites isothermes pertinentes en fonction de la situation). Les
présentations polysémiques comportent plusieurs types d'informations reliées entre elles
présentées simultanément et compréhensibles par les experts. Ces présentation
polysémiques ont été dérivées de patterns situationnels. Ceci améliore la performance du
système Homme-machine. Dans l'exemple ci-dessus, le pattern situationnel constitué par
l'intervalle dynamique compris entre les deux courbes [Pisoth = f1(Quantité, Temps)] et
[Padiab = f2(Quantité, Temps)] (voir les deux courbes exponentielles sur le diagramme de
gauche de la figure 11) peut être utilisé pour construire un indicateur de position et de
tendance de la pression P en fonction de la quantité Q (voir l'évolution du point (P, Q) sur
l'indicateur de droite de la figure 11). L'utilisation de cet indicateur a été concluante.
Ensuite, le système d'assistance HORSES a montré un équilibre dans le partage de
l'autonomie. Le concepteur du système initial n'avait pas anticipé la façon dont les
opérateurs utiliseraient le système. Le fait de laisser les utilisateurs contrôler le système
d'assistance leur a permis d'utiliser ce qu'ils avaient appris à bien faire. Ce processus
revient à adapter la représentation graphique aux représentations opératoires des
opérateurs.
2.5.
Vers un concept d'intelligence intégrée Hommemachine
2.5.1. Structure
49
Habilitation - Guy Boy - 1992
De tels systèmes "intelligents" (décrits dans ce qui précède) ont été appelés systèmes
d'assistance intelligents (SAI) dans (Boy, 1991). Les exigences de sécurité et les
problèmes d'erreur humaine ont amené à la définition de trois types possibles de SAI :
1. les systèmes interactifs tolérant les erreurs humaines (Amalberti, 1986; Norman,
1981; Roscoe, 1980) dans des situations standards;
2. les systèmes d'allégement de la charge de travail dans des situations standards avec
une forte charge de travail;
3. les aides interactives à la résolution de problème en situations anormales avec une
forte charge de travail (Amalberti, 1986).
PROPOSEUR
BOUCLE DE
CONTROLE
SUPERVISE
CONSTRUCTEUR
DU SYSTEME
B.C. temporaire
du Domaine
Opérationnel
OPERATEUR
SITUATION
ENVIRONNEMENT
EVALUATEUR
OBSERVATEUR
OBSERVATEUR
ANALYSEUR
B.C. du Domaine d'Acquisition
B.C. du Domaine Opérationnel
B.C. du Domaine Technique
BOUCLE D'EVALUATION
RESULTATS
OBSERVES
Figure 11. Un Modèle d'Intelligence Intégrée Homme-Machine
(B.C. signifie "base de connaissances")
Les premiers et seconds types peuvent être facilement mis en œuvre en utilisant des
environnement de programmation classiques ou des systèmes experts "conventionnels". Le
troisième type demande une description plus profonde à la fois de la connaissance de
conception et de la connaissance opérationnelle. Un tel effort de recherche devrait mener à
une architecture appropriée à la mise en œuvre des SAI. Cette section traite de ce troisième
type.
50
Habilitation - Guy Boy - 1992
Le problème de la conception et de l'évaluation de l'intelligence intégrée Homme-machine
(IIHM) peut être vue comme suit :
1. analyser les actions de l'opérateur afin de comprendre ce qu'il fait;
2. fournir à l'opérateur le niveau d'information approprié et proposer les actions ou les
procédures qu'il devrait exécuter.
Le modèle global résultant est présenté dans la figure 11. Les flèches représentent les flux
d'informations. Ce modèle comporte deux boucle :
1. une boucle de contrôle de supervision à court terme où le processeur peut être vu
comme l'interface-opérateur;
2. une boucle d'évaluation à long terme.
La base des connaissances du domaine technique comporte les descriptions des divers
objets pertinents et nécessaires dans le domaine d'expertise. La base des connaissances
opérationnelles comporte les procédures disponibles et nécessaires pour la prise en
compte de diverses situations environnementales ayant déjà été rencontrées. La base des
connaissances sur l'acquisition de connaissances comporte des connaissances nécessaires
pour la mise à jour des procédures opérationnelles.
2.5.2. Fonction : la représentation par blocs de connaissance
Si nous supposons que les connaissances du domaine technique son données, l'évaluation
d'un système IIHM est principalement liée aux connaissances opérationnelles. De telles
connaissances sont très difficiles à la fois à construire et à certifier. La construction de ces
connaissances est nécessairement itérative. Un concepteur ne peut pas imaginer de telles
connaissances a priori. Il peut donner des recommandations à suivre à l'utilisateur.
Cependant, le comportement d'un système IIHM est découvert incrémentallement en le
mettant en opération. Une question importante pour le futur est : pouvons nous anticiper
le comportement de tels systèmes IIHM au moment de leur conception ? Il semble qu'il
n'y ait pas encore suffisamment de connaissance pour formuler des règles générales
répondant à cette question. Nous devons accumuler plus de résultats de recherche et
d'expérience pratique pour obtenir des classes de comportements des systèmes IIHM.
En suivant cette approche, nous avons développé des recherches en représentation des
connaissances (RC) pour rationaliser et améliorer l'analyse, la conception et l'évaluation
de la partie fonctionnelle des systèmes IIHM. Le type de connaissances qui nous
concernent est composé de procédures opérationnelles. Puisque ces procédures sont
considérées comme un support de communication essentiel entre les êtres humains et les
systèmes "intelligents", nous avons développé une RC qui est utile à la fois pour
expliquer l'intelligence humaine et mettre en œuvre une certaine intelligence artificielle.
La RC que nous avons adoptée donne un cadre de travail approprié pour représenter des
manuels d'opérations, des procédures, des checklists, des guides d'utilisation (Boy, 1987)
51
Habilitation - Guy Boy - 1992
et autres outils en-ligne utilisés pour contrôler des systèmes dynamiques complexes (Boy
& Mathé, 1989). Un corps de procédures est alors représenté par un réseau de blocs de
connaissance.
Préconditions
Procédure
Contexte
Conditions
Anormales
But
Figure 12. Bloc de connaissance.
L'entité de représentation de base est un bloc de connaissance (ou bloc pour simplifier
l'écriture) qui comporte cinq principaux attributs (Boy & Caminel, 1989; Mathé, 1990) :
—
—
—
—
—
un but,
une procédure,
des préconditions,
des conditions anormales et
un contexte ou conditions contextuelles (Figure 12).
De façon plus fine, les composantes d'un bloc sont : son nom; son niveau hiérarchique;
une liste de préconditions; une liste d'actions; une liste de buts et une liste de blocs
associés; une liste de conditions anormales (CAs) et leurs listes de blocs associés. En
fonction de son niveau d'abstraction, une procédure peut être représentée par un simple
bloc, une hiérarchie de blocs ou un réseau de blocs. Un bloc peut être actif, attendu ou
neutre : un bloc est actif lorsqu'il est en cours d'exécution; un bloc est attendu lorsqu'il
appartient à l'ensemble des blocs qui peuvent devenir actifs dès que l'exécution des blocs
actifs courants est terminée; un bloc est neutre lorsqu'il n'est ni actif ni attendu. Nathalie
Mathé a présenté une description exhaustive de la notion de bloc dans sa thèse (Mathé,
1990).
Une précondition contrôle l'activation d'un bloc attendu : lorsqu'un bloc est attendu, il
peut seulement devenir actif si l'une de ses préconditions est satisfaite. Si un bloc n'a pas
de préconditions, par défaut sa précondition est considérée toujours satisfaite. Une
précondition est représentée comme une conjonction de conditions élémentaires. Elle est
satisfaite lorsque chacune de ses conditions élémentaires est satisfaite. Une condition
élémentaire représente une comparaison entre deux prédicats (ou attributs d'objet) ou
entre un prédicat et une constante : par exemple, "On(Flight_Management_System) is
true" et "Up(Landing_Gear) is true".
52
Habilitation - Guy Boy - 1992
Les actions d'un bloc peuvent être de deux types : (1) les actions élémentaires qui
correspondent au niveau sémantique le plus bas des actions de l'opérateur, par exemple,
presser un bouton de l'interface, sélectionner plusieurs boutons pour envoyer une
commande à un avion; et (2) les sous-blocs de niveau hiérarchique plus petit qui
deviendront attendus lorsque leur parent-bloc sera actif.
Les conditions anormales et les buts sont des conditions finales qui sont testées après
l'exécution des actions du bloc. Pour un bloc donné, chaque condition anormale et but est
lié à une liste de blocs qui deviendrons espérés lorsque la condition anormale ou le but
sera satisfait. Comme les préconditions, les conditions anormales et les buts sont
représentés comme des conjonctions de conditions élémentaires. Les conditions
anormales et les buts ne diffèrent qu'au niveau sémantique. Un but est une condition qui
doit en principe être satisfaite après l'exécution des actions du bloc, c'est un conclusion
normale de l'exécution du bloc (condition finale normale). Dans certaines situations, le
but peut ne pas être satisfait après l'exécution des actions. La cause peut être due à : (1)
un événement externe se produisant pendant l'exécution (par exemple, une requête de la
tour de contrôle demandant de retarder l'atterrissage); (2) un événement interne (par
exemple, une panne d'instrument); (3) un état externe qui n'a pas pu être testé dans les
préconditions à cause d'une perception incomplète (par exemple, la détection d'un
obstacle se déplaçant sur la piste qui n'était pas prévu dans la phase finale du plan de vol);
ou (4) une panne d'action (par exemple, un incident d'exécution dû au comportement non
déterministe du système contrôlé). Les situations résultant de ces événements sont
appelées situations anormales. Pour une procédure donnée, les conditions anormales
caractérisent les situations anormales possibles et leurs blocs associés représentent la
façon de récupérer à partir d'une situation anormale. Ces notions ont été analysées de
façon extensive, mises en œuvre et testées par Nathalie Mathé (Mathé, 1991).
Vol
Avant Décollage
Décollage Montée Croisière Approche Atterrissage
Avant V1
Arrêter l'avion ?
Avant Rotation
Avant V2 + 10
Figure 13. Simple hiérarchie de contextes.
Les conditions contextuelles sont représentées par un ensemble disjonctif de prédicats.
Les conditions contextuelles d'un bloc définissent son domaine d'applicabilité. Par
exemple, les conditions contextuelles peuvent être un ensemble de conditions
53
Habilitation - Guy Boy - 1992
caractérisant une panne d'appareil, le but courant de l'utilisateur ou un mélange de
conditions physiques ou intentionnelles. Dans un contexte donné, la résolution de
problème se fera sur l'ensemble des blocs dont les conditions contextuelles s'apparient
avec ce contexte. Dans ce contexte, seules les préconditions doivent être testées, ce qui
augmente la performance du système. Les conditions contextuelles sont organisées en
hiérarchies. Cette propriété à la fois facilite l'organisation de la base de blocs et réduit le
temps de pattern matching. Par exemple, en aviation, un vol est généralement organisé en
phases, qui peuvent être décomposées en sous-phases et finalement chaque sous-phase est
décrite sous la forme de blocs de connaissances représentant des procédures (Figure 13).
Dans le contexte d'un vol (racine de la hiérarchie correspondante de contextes), il y a
plusieurs sous-contextes (avant-décollage, décollage, etc.). Dans chaque contexte
terminal (par exemple, décollage), un ensemble de blocs doit être mis en œuvre. Si tout
est "normal", le pilote accélère l'avion jusqu'à une vitesse de décision appelée V1 après
laquelle il ne pourra plus arrêter l'avion même en cas d'incident majeur. Le pilote exécute
le premier bloc "Avant V1". S'il n'y a pas de condition anormale déclenchée, il exécute le
bloc "Avant Rotation" et "Avant V2 +10". Si une condition anormale est satisfaite
pendant l'exécution du bloc "Avant V1", alors il peut décider d'exécuter le bloc "Arrêter
l'avion".
2.6.
Problèmes concernant les systèmes "intelligents"
Puisque notre objectif principal est de concevoir et de raffiner incrémentalement des
procédures (et parfois par voie de conséquence des interfaces-utilisateur -- voir section
2.4.4), il existe quelques problèmes inhérents à cette approche qui doivent être discutés.
Avons-nous besoin de modèles cognitifs pour construire et raffiner ces procédures ?
L'application de telles procédures dépendra de leur compréhensibilité et, de ce fait, les
interfaces-utilisateur deviennent critiques. Comment pouvons-nous mener le processus
d'acquisition de connaissances ? Existe-t-il une meilleure façon de représenter des
procédures ? Quels types de problèmes naissent des architectures de systèmes
"intelligents" ? Les techniques d'IA ont été mises en œuvre sur des problèmes très
académiques jusqu'à maintenant. Sont-elles suffisamment robustes pour prendre en
compte des applications du monde réel telles que celles de l'aéronautique et de l'espace ?
2.6.1. Modèles cognitifs, acquisition et représentation de connaissances
Le but n'est pas de concevoir des modèles cognitifs pour construire des clones humains,
mais :
1. de comprendre et évaluer les interactions Homme-systèmes "intelligents";
2. d'utiliser des modèles d'opérateur dans la conception de systèmes, par exemple, la
conception de mécanismes de reconnaissance d'intention (Geddes, 1985, 1986;
Shalin et al., 1988);
3. de concevoir des interfaces Homme-systèmes "intelligents".
54
Habilitation - Guy Boy - 1992
Tous les utilisateurs d'un SAI spécifique à une application donnée (aéronautique par
exemple) peuvent ne pas partager le modèle implicite d'expertise qui a été incorporé dans
le système. Plusieurs domaines, tels que le contrôle tactique de l'urbanisme, sont très liés
à des différences individuelles à cause du manque de procédures standards au delà d'un
certain niveau d'analyse. Ces différences peuvent avoir un impact sur la base de
connaissances du SAI. Ces différences peuvent avoir un impact sur la fonctionnalité du
système, par exemple, la profondeur de l'explication, la surveillance de l'utilisateur et la
formation nécessaire.
Comme nous l'avons déjà mentionné, il est en général reconnu que l'acquisition de
connaissances, qui consiste à "mettre à plat" les connaissances de l'expert dans un
domaine donné, est un sérieux goulot d'étranglement dans le développement de systèmes.
Ces connaissances sont cependant cruciales pour assurer le succès des systèmes
"intelligents". Un système "intelligent" ne découvrira pas de nouvelles connaissances par
lui-même en temps réel dans des situations du monde réel. Et même si certains
chercheurs en IA défendent le fait que certains systèmes d'IA peuvent aider à la
découverte, ces systèmes doivent être guidés et "interprétés" par les chercheurs euxmêmes18. Ceci n'est clairement pas possible aujourd'hui dans des situations à forte charge
de travail où la pression est importante. En ce qui nous concerne, les systèmes
acceptables sont donc limités à une classe particulière : les systèmes procéduraux. Par
procédural, nous entendons des systèmes basés sur des procédures explicites, utilisant
éventuellement certaines connaissances déclaratives très bien structurées. Dans les
situations critiques, le problème n'est pas de construire des procédures ab initio, mais
d'utiliser des procédures déjà testées et adaptées à la situation courante. Dans les cas de
situations nouvelles, les opérateurs "inventent" des procédures sous-optimales simples de
récupération. Le problème majeur est de collecter toutes ces procédures, et de les raffiner
itérativement par expérience. De plus, il est impératif de capturer à la fois les
connaissances de conception et les connaissances d'utilisation pour construire les
procédures les plus adaptées. Au début, ces procédures sont appropriées à des situations
particulières, mais après plusieurs simulations ou des missions réelles, elles peuvent être
regroupées en classes de situations plus générales. L'acquisition de connaissances est
alors un processus continu allant de la conception de l'IIHM jusqu'à son utilisation en
routine.
Dans tous les cas, il semble que les buts (et sous-buts), plans (ou procédures) et situations
(ou événements ou états) sont les trois ingrédients les plus communs des représentations
de connaissances. L'expression actions situées est récemment devenue un sujet d'intérêt
en IA (Suchman, 1987; Drummond, 1989). Cependant, si la notion de contexte est
toujours un problème majeur, très peu de définitions convainquantes ont été données à ce
jour (voir chapitre 3). Le temps et les exceptions (conditions anormales) sont aussi des
problèmes majeurs en représentation des connaissances, en particulier pour la conception
de IIHM. Ces aspects ont été pris en compte dans la représentation par bloc.
18En
accord avec Jean-Gabriel Ganascia (1992), l'utilisation de systèmes d'IA peut amener l'effet de
surprise qui peut être parfois une aide importante à la découverte.
55
Habilitation - Guy Boy - 1992
2.6.2. Compatibilité des systèmes "intelligents" avec les opérateurs
Comme nous l'avons déjà noté, les recherches actuelles dans le domaine des IIHM sont
dominées par l'étude des tâches procédurales en environnement non déterministe. La
résolution du problème de la compatibilité entre l'opérateur et le système entraîne des
répercussions sur les entrées/sorties et les traitements effectués par le système (Shalin &
Boy, 1989).
Compatibilité des Entrées/Sorties (Communication)—Certains environnements de tâches
(par exemple, l'apesanteur, les fortes accélération, les équipements de protection, la forte
charge de travail) ont tendance à restreindre les entrées humaines, telles que la frappe de
texte. Si ce type d'environnement peut bénéficier d'interfaces intelligentes incluant une
certaine reconnaissance des intentions de l'utilisateur, nous devons alors nous soucier de
la compatibilité cognitive. Ceci est mis en évidence par le développement de langages de
communication adaptés à la tâche et compatible avec le raisonnement humain dans le
domaine donné. Une dernière considération sur la communication Homme-machine
concerne les sorties du système. En particulier, les capacités d'explication, lorsqu'elles
existent, sont souvent controversées. Dans un cockpit d'avion par exemple, l'explication
devrait être réduite au minimum, en particulier lorsque la fréquence de contrôle est très
élevée. Ceci ne veut pas dire que l'explication doit être absente, le cockpit doit être autoexplicatif à chaque instant et comporter, si possible, des présentations polysémiques.
Compatibilité du Traitement—Le besoin de développement incrémental, et si possible de
modification incrémentale, suggère de spécifier la compatibilité au niveau du traitement,
de façon à favoriser le retour (feedback) des utilisateurs sur la fonctionnalité du système.
Pour améliorer la confiance de l'utilisateur, le traitement peut comporter des capacités
humaines standardisées, telles que le raisonnement sur les conséquences de ses
recommandations. Une considération complémentaire pour la compatibilité du traitement
est la conscience qu'a l'utilisateur des limites de fiabilité du système. En environnements
réactifs, les systèmes automatisés devraient être des extensions directes des capacités
perceptives et cognitives de l'opérateur, étant donné qu'il n'a souvent pas assez de temps
pour une analyse extensive en-ligne du traitement effectué par le système. Nous avons
pris en compte le retour en-ligne de l'utilisateur dans CID (voir section 3.3).
IA Temps Réel— Les problèmes soulevés par l'IA temps-réel ne concernent pas
seulement la rapidité des calculs, mais aussi l'allocation de ressources, la coopération et
l'interruption de procédures. Etant donné que les données sont incertaines, imprécises et
incomplètes, l'intégration de la logique non monotone dans un SAI est critique (qu'elle
soit explicitement mise en œuvre ou non). Cette intégration doit être accomplie de façon
pragmatique et raffinée incrémentalement par expérimentation. Les discussions actuelles
sur ce problème amènent à quatre outils logiciels :
— la programmation conventionnelle sera encore utile, pour la mise en œuvre des
"petits" détails par exemple;
56
Habilitation - Guy Boy - 1992
— les architectures tableau noir sont utiles pour mettre en œuvre des interactions
coopératives et opportunistes (Nii, 1986);
— les architectures d'agents (vues comme des extensions des langages orientés objets)
sont intéressantes pour la coopération multi-agent (Ferber, 1989) lorsque les
modèles internes des divers agents sont disponibles (en reconnaissance d'intention
par exemple);
— les hypermedia (Conklin, 1987) fournissent des représentations externes explicites
des divers agents mis en jeu dans l'interaction (le passage de messages par
exemple).
Validation des Systèmes à Base de Connaissances—Même si certaines méthodologies ont
été conçues, développées et testées, l'état de l'art des techniques de validation des
systèmes à base de connaissances n'est pas très avancé aujourd'hui. Comme l'acquisition
de connaissances, la validation est un processus incrémental. De plus, l'acquisition de
connaissances et la validation peuvent être vues comme des processus coordonnés dans la
conception de systèmes à base de connaissances. Afin d'améliorer le processus
incrémental de validation, il faudrait plus associer les utilisateurs finaux dans la boucle de
conception (Boy, 1988). On peut comparer la validation des systèmes à base de
connaissances à la certification des avions, au moins en termes de complexité.
2.6.3. Applications monde-réel et automatisation
Le présent champ d'investigation est expérimental. Nous adoptons le point de vue que les
représentations de connaissances théoriques ne proviennent pas d'une pure introspection,
mais de la rationalisation de l'expérience dans un domaine donné et de l'analyse de
protocoles expérimentaux. Les domaines expérimentaux que nous avons choisis
proviennent du monde réel et sont plutôt centrés sur la prise de décision, le diagnostic, la
planification et le contrôle de systèmes physiques. Ils sont généralement bornés et dirigés
par des procédures. C'est pour cela que les recherches actuelles se focalisent sur les
déviations autour de ces procédures qui sont des blocs de connaissances déterministes
(analyse de l'activité des opérateurs). Falzon (1989) parle de connaissances opératives. A
ce niveau, la difficulté la plus importante est liée à la reconnaissance de situation. Les
êtres humains sont bons pour reconnaître des situations lorsqu'ils sont vraiment dans la
boucle de contrôle. Cependant, il est très difficile d'acquérir (au sens de la modélisation
de connaissances) les mécanismes et les stratégies de reconnaissance de situation. Les
êtres humains disposent de patterns situationnels très sophistiqués par expérience. La
recherche en apprentissage symbolique automatique (machine learning) (Kodratoff,
1989) offre un ensemble de techniques pouvant aider à recréer ces patterns par
expérimentation. Les principales difficultés rencontrées en reconnaissance de situation (à
la fois par un opérateur humain et un SAI) peuvent être résumées par les trois questions
suivantes :
1. Quand l'information doit-elle être présentée ?
2. Quel contenu doit-elle contenir ?
57
Habilitation - Guy Boy - 1992
3. Quel format doit-elle prendre ?
L'expérience dans les applications du monde réel devrait fournir une taxonomie des
activités de traitement des connaissances de la conception jusqu'aux opérations (voir
section 1.4.2). Comme nous l'avons déjà discuté, étant donné que le type d'explication
dépend des activités effectuées, il s'en suit que les types de recommandations données
aux opérateurs ou aux concepteurs seront différentes. Le problème se pose lorsque le
niveau d'investigation change, par exemple, lorsqu'un opérateur suit religieusement un
ensemble de procédures, il devra éventuellement mettre au point un nouvel ensemble de
procédures dans le cas où il se trouve confronté à une situation non prévue à l'avance; il
devient donc, en situation, un concepteur de procédures. Ceci est une excellente raison
pour conserver des êtres humains dans la boucle de contrôle de machines hautement
automatisées. Ils sont les seuls agents possédant la capacité d'inventer des solutions de
récupération dans des cas graves. Ces solutions peuvent être maintenues pour des cas
futurs similaires. Notons que, quelque soit leur niveau de qualification ou de
développement intellectuel, ils sont aussi capable de faire des erreurs. Si une situation
non nominale peut être anticipée, elle peut être considérée comme "nominale" par le
système s'il la connait. Par définition, les situations nominales sont connues à l'avance.
Cependant, lorsqu'une situation non anticipée se produit, l'opérateur doit être conscient et
comprendre ce qui se passe, en d'autres termes le SAI ne doit pas masquer et distordre la
situation. Ceci introduit le problème difficile des contraintes de qualité et de sécurité.
L'un des facteurs de l'allocation de fonctions entre l'Homme et le système est l'existence
de tâches partageables entre les deux preneurs de décision. De plus, la performance
globale devrait être optimisée en maintenant les meilleures qualités de chacun au bon
endroit. Dans des domaines tels que le contrôle tactique de l'urbanisme, il peut y avoir un
besoin d'allocation dynamique de tâches entre l'être humain et le système. En fonction du
contexte et des exigences imposées à l'opérateur, le système peut avoir plus ou moins
d'autorité dans l'exécution de certaines portions de la tâche. De plus, l'allocation de tâches
peut être affectée par des restrictions stratégiques sur la modifications des opérations
existantes.
L'automatisation des applications monde-réel, telles que l'aviation, a déjà montré le
problème des erreurs humaines. Les analyses de ces erreurs devraient apporter un nouvel
ensemble de recommandations pour la conception et la maintenance incrémentale de
procédures.
Les machines font certaines choses mieux que les êtres humains : des calculs par
exemple. Elles travaillent sur des problèmes bien formulés. Elles ne sont pas inventives.
En définitive, qu'est-ce que l'IA apporte au problème de l'automatisation ? Est-ce que l'IA
apporte de nouveau problèmes en ce qui concerne l'interaction entre l'Homme et les
système "intelligent" ? Par l'évolution de ces méthodes, l'IA commence à supporter la
notion que l'automatisation complète n'est plus un problème à part entière, en d'autres
termes les opérateurs humains doivent être pris en compte pendant le processus de
conception (conception centrée sur l'utilisateur) (Woods & Hollnagel, 1987). Une
question importante posée en IA est la meilleure compréhension des interactions entre
58
Habilitation - Guy Boy - 1992
des agents intelligents (Homme et machine). Même si l'intelligence artificielle et
l'intelligence naturelle ne peuvent pas se comparer, il est important de chercher une bonne
coopération entre elles. En particulier, si l'un des acteurs ne fonctionne plus
"normalement", nous pouvons concevoir que dans le futur l'autre (agent) aidera à
récupérer.
2.7.
Conclusion
Un des premiers emplois d'une théorie est de nous aider à chercher aux bons endroits des
réponses à certaines questions. Même s'il n'y a pas de théorie de la conception et de
l'évaluation des systèmes engendrant une interaction "intelligente" avec l'opérateur, ce
chapitre donne certaines directions construites à partir de notre expérience dans le
domaine.
Les êtres humains adaptent leur perception et leurs actions au champ social. Cette
adaptation se passe à tous les niveaux d'interaction : les gens disent les mots "justes" au
"bon" moment; ils se souviennent grâce à l'expérience passée; ils essayent de se
conserver en cas de danger; ils affichent parfois un agréable sens de l'humour; etc. Existet-il un système qui possède ces capacités aujourd'hui ? Nous avons montré dans ce
chapitre que la réponse à cette question réside dans la recherche de l'intelligence dans
l'interaction, par opposition à l'intelligence dans le système individuel. Par conséquent, le
concept de IIHM est essentiel.
La connaissance situationnelle est difficile à acquérir. Cependant, elle est cruciale à la
fois en conception et en évaluation. En effet, les procédures actuelles montrent que la
même action peut avoir divers effets dépendant de la situation et du champ social,
donnant lieu à des interactions ayant différents contenus, structures et formes
syntaxiques. Par exemple, faire un cours donnera lieu à une interaction différente de
fournir une checklist opérationnelle. Une expert et un débutant utiliseront une même
procédure différemment. Le contexte est un concept essentiel dans l'analyse, la
conception et l'évaluation les systèmes "intelligents". En effet, lorsqu'une machine est
capable de mettre en œuvre une interaction "intelligente", il est nécessaire de s'assurer
que son langage de communication est approprié dans le champ social. Il est alors
nécessaire que cette machine soit capable d'adapter ses interactions. Ceci est
particulièrement important lorsqu'il s'agit de systèmes informatiques appelés à
communiquer avec une communauté très variée et dans une frange de situations toujours
plus grande. La prise en compte de la connaissance situationnelle complique énormément
les processus de conception et de certification dans le sens traditionnel. Le chapitre
suivant propose un ensemble d'outils conceptuels visant à aider le concepteur et
l'évaluateur à intégrer ce type de connaissances dans leur tâches respectives.
59
Habilitation - Guy Boy - 1992
60
Habilitation - Guy Boy - 1992
3. Connaissances Contextualisées
"... Lakatos, Kuhn ou Feyerabend cherchent à relativiser l'approche
scientifique en soutenant qu'on ne peut examiner la vérité d'une théorie
scientifique qu'en la situant dans son contexte, et par rapport aux savants
concernés; ainsi, la science devient aussi un phénomène sociologique."
Herbert Simon (1984).
Dans ce chapitre, nous nous appuyerons sur le travail que nous avons effectué à la NASA
au cours du projet Computer Integrated Documentation (CID). Les connaissances
contextualisées19 seront représentées par des blocs de connaissances (section 2.5.2). Elles
incluent à la fois des connaissances analytiques et situationnelles au sens où nous l'avons
défini dans la section 2.4. Les connaissances contextualisées sont analogues aux
connaissances opératives de Falzon (1988). Elle sont spécifiques à un domaine et à une
activité. Elles sont acquises par la pratique.
3.1.
Notion de contexte
La notion de contexte n'est pas facile à définir. La notion de contexte peut être reliée à la
persistance et à la pertinence d'une connaissance dans une situation donnée. Une situation
générique est construite par intégration incrémentale (et généralisation) de diverses
situations spécifiques. Par exemple, les mots sont définis incrémentalement en les
utilisant dans diverses situations spécifiques. Même si vous ne connaissez pas le mot
fixations, les phrases suivantes vont contribuer à sa définition :
Il a utilisé les meilleures fixations disponibles dans la course... Ces fixations très
souples lui ont permis de ne pas être éjecté dans le virage... Un autre raison est que ce
type de fixations est situé très avant sur la planche... En fait, tous les skis équipés de
telles fixations ne devraient être utilisés que par des professionnels...
Après la première phrase, nous savons que des fixations peuvent être utilisées dans une
course. Même si nous ne savons pas de quel type de course il s'agit, cette phrase élimine
la possibilité de fixations psychologiques. Dans la deuxième phrase, nous apprenons que
les fixations sont utilisées sur une sorte de circuit ou trajectoire à cause du mot virage.
Après avoir lu la troisième phrase, nous savons que les fixations sont situées sur une
planche. Finalement, dans la dernière phrase, nous apprenons que les fixations sont des
équipements de ski (nous supposons que nous savons ce qu'est un ski, sinon nous
continuerions à chercher à identifier ce nouveau mot dans les conversations suivantes).
19Nous
avons choisi la terminologie constructiviste connaissances contextualisées parce que nous nous
plaçons du point de vue de la (re)construction de ces connaissances ["on met du contexte" sur les (ou autour
des) connaissances déjà acquisses]. La terminologie réaliste connaissances contextuelles ne permet pas de
distinguer si les connaissances correspondantes sont les connaissances du contexte ou les connaissances en
contexte.
61
Habilitation - Guy Boy - 1992
Donc, en ajoutant des situations (contexte) dans lesquelles un mot est utilisé, celui-ci peut
être défini incrémentallement. Ce type de contexte est appelé contexte verbal. En d'autres
termes, un mot défini dans un contexte verbal est défini par les autres mots qui
l'entourent. En recherche d'information, la notion de mot clé en contexte (verbal)
(keyword in context : KWIC) a été utilisée comme corrélation visuelle pendant la
sélection (Luhn, 1959). Cette technique a été récemment automatisée par Zimmerman
(1988) et est utilisée dans CID.
Il existe une autre forme de contexte, le contexte physique et social. Si on vous présente
une paire de skis par exemple, son propriétaire peut vous expliquer comment les utiliser.
Dans la conversation, il peut dire, "Si tu chausses les fixations de cette façon, il est
possible qu'elles déclenchent rapidement". Vous découvrez soudainement que ces parties
métalliques des skis servant à fixer les chaussures sont appelées des fixations. Vous
apprenez ceci dans un contexte physique. Il peut arriver que vous vous rappeliez ce mot
pour toujours dans le contexte où vous l'avez appris, c'est-à-dire que chaque fois que vous
penser à votre ami vous expliquant comment utiliser des skis, vous vous rappelez
l'anecdote des fixations, et de façon symétrique lorsque vous vous rappelez des fixations.
Ceci montre l'importance du contexte pour la recherche d'informations en mémoire. En
particulier, en recherche d'information, nous pensons que si le contexte est utilisé de
façon appropriée, la recherche en mémoire sera considérablement facilitée et efficace.
Hayakawa (1990) a écrit que :
Les "définitions" données par des enfants à l'école montrent clairement comment ils
associent les mots aux situations. Ils définissent presque toujours ces mots en termes
de contexte physique et social : "La punition c'est lorsque vous n'avez pas été sage et
que vous êtes assis sur les escaliers pour dix minutes." "Les lettres sont ce que le
facteur porte chez nous."
Comme Hayakawa (1990) le fait remarquer, la signification des mots peut être
extensionnelle ou intentionnelle. Si un mot peut être décrit par un objet réel que l'on peut
voir dans l'environnement, sa signification est extensionnelle. Par exemple, si vous
montrez une vache dans un pré, vous dénotez la vache. Si un mot est décrit par plusieurs
mots pour suggérer sa présence, alors sa signification est intentionnelle. Par exemple,
vous pouvez décrire une vache en disant que c'est un animal qui mugit, vit dans une
ferme, etc. Tout objet peut être associé à une description intentionnelle propre à une
personne donnée, lorsque cette description est donnée, etc. Encore une fois, le contexte
est une notion clef lorsque l'on doit décrire des objets. Ce serait un leure d'affirmer que
chaque objet peut être associé à un mot unique. Quiconque essaye de retrouver des
documents dans une bibliothèque en utilisant des équations logiques de mots clefs le sait.
Il est presque impossible de retrouver les informations désirées lorsque la description que
vous donnez comme requête ne s'apparie que très faiblement avec les descriptions
développées par le bibliothécaire. Cependant, si vous parlez avec le bibliothécaire, il peut
mieux vous aider s'il arrive à identifier correctement le contexte de recherche de
l'information désirée. Dans le meilleur des cas, si le bibliothécaire est un bon ami et
connait votre travail ou vos besoins, il vous sera alors une ressource très utile. Si le
bibliothécaire ne vous connait pas, il peut capturer une partie du contexte physique tout
62
Habilitation - Guy Boy - 1992
simplement en vous observant. Il peut prendre en compte des faits comme : vous êtes
jeune; vous portez une blouse blanche; vous avez su où chercher la première fois; etc. Il
va aussi capturer du contexte à partir de ce que vous lui dites (contexte verbal).
Hayakawa dit qu'un "examen du contexte verbal d'une phrase, autant que l'examen de la
phrase elle-même, nous éclaire sur sa signification intentionnelle; un examen du contexte
physique nous éclaire sur les significations extentionnelles."
Il convient de noter un autre type de contexte : le contexte historique. La notion de
contexte inclue un aspect temporel, en d'autres termes, le contexte peut résumer une
période de temps. De plus, la persistance de certains événements renforce le contexte. Par
exemple, un utilisateur a dit au bibliothécaire qu'il cherchait des informations sur la
géométrie, il suit actuellement un cours d'informatique, il a un problème de traçage de
courbes à partir de points, il veut obtenir un tracé continu sur l'écran, enfin, plus tard, il
demande une référence sur les splines. Les bibliothécaires ont l'habitude d'intégrer le
contexte historique, Dans notre exemple, le bibliothécaire ne confondra pas les fonctions
splines mathématiques (ce que l'utilisateur a réellement demandé) et les splines physiques
que les dessinateurs de jadis utilisaient pour lisser leurs courbes. Dans cet exemple, les
mots "informatique" et "écran" aident à décider si les "splines" dont il est question
correspondent à une utilisation du dernier quart du vingtième siècle..
En termes plus formels, le contexte peut être défini par des relations entre objets. Un
objet peut être un mot ou une phrase, une image,une séquence vidéo, un objet physique
(tel qu'une table), une personne, etc. Ces paires d'attributs peuvent être des descriptions
du contexte verbal (ce qui est autour de l'objet et le définit dans certaines situations), le
contexte physique et social (ce qui peut être désigné dans l'environnement de l'objet pour
concrétiser sa définition), ou le contexte historique (ce qui s'est passé avant et est relié
causalement à l'objet décrit). Par exemple, le contexte d'un processus de recherche
d'informations peut être décrit par un profil d'utilisateur (modèle d'utilisateur). Ce profil
peut inclure le type de l'utilisateur, le type de tâche qu'il est en train d'accomplir, le
temps, etc. Le principal problème d'une définition formelle du contexte est qu'elle peut
conduire à un très grand ensemble de paires attribut/valeur. D'un point de vue du calcul,
l'appariement de patterns résultant peut devenir pratiquement impossible. Ceci conduit à
l'idée que le contexte est habituellement la définition par défaut de la structure de paires
attribut/valeur les plus fréquemment utilisées. Cette structure peut avoir des exceptions.
Par exemple, lorsque nous utilisons le mot banc, il dénote une entité physique utilisée
pour s'assoir. Cependant, dans le contexte de la mer, le banc désigne habituellement un
groupe de poissons se déplaçant ensemble.
3.2.
L'indexation
L'indexation peut être considérée comme un processus d'acquisition de connaissances à
partir de texte ou de graphiques. La recherche d'information peut être vue comme le
processus de corrélation des requêtes descriptives avec des documents indexés.
L'indexation et la recherche d'information dépendent toutes deux du contexte. Par
exemple, les bibliothécaires et les utilisateurs peuvent utiliser le même contexte lorsqu'ils
63
Habilitation - Guy Boy - 1992
indexent ou lorsqu'ils essayent de retrouver des documents. Ce n'est malheureusement
pas le cas en général.
Si nous faisons l'hypothèse que chaque document (un livre, un chapitre, un paragraphe ou
même un mot) possède sa propre base de connaissances figurant son contenu sémantique,
le principal problème est d'extraire cette base de connaissances. Les documents et leur
base de connaissances associée sont appelés documents actifs. Les documents actifs sont
considérés comme des systèmes à base de connaissances dans le sens où ils peuvent
"fournir la bonne information, au bon moment et sous le bon format en accord avec le
contexte courant" ou "diriger l'utilisateur vers d'autres documents qui sont plus corrélés à
ses besoins". La corrélation entre documents n'est pas seulement un moyen de savoir si
des documents sont reliés entre eux, mais aussi un moyen de valider les bases de
connaissances qui leur sont attachées (processus de certification par comparaison). C'est
la façon naturelle qu'utilisent les gens pour évaluer leurs connaissances, en les comparant
aux connaissances des autres.
Un thésaurus est une base de connaissances attachée à la documentation toute entière. Il
peut être représenté par un réseau sémantique de descripteurs de la documentation.
Lorsqu'il s'agit de valider un thesaurus, il est d'usage de corréler la connaissance qu'il
renferme à la connaissance d'un ou plusieurs expert(s). Une telle validation dépend des
situations ainsi que des points de vue (c'est-à-dire du contexte). Afin de définir plus
formellement ce que nous appelons la société artificielle de documents actifs, nous avons
d'abord besoin de définir quelques concepts importants : descripteurs, référents, et liens
contextuels.
3.2.1. Descripteurs et référents
L'indexation est le processus de construction des descripteurs {d} (descriptions) à partir
de référents {r} et de liaison de ces référents entre eux dans un contexte donné (r->d).
Nous appelons descripteur n'importe quelle partie de texte (mot, phrase, ou paragraphe)
ou image (zone marquée ou label sur la partie d'une image) qui décrit objectivement ou
subjectivement toute partie d'une documentation. Les descripteurs peuvent être des
termes simples ou multiples.
Nous appelons référent toute partie d'une documentation (mot, ligne d'un texte,
paragraphe, image, film ou séquence animée, programme informatique, librairie) qui est
décrit par au moins un descripteur. Tout référent est caractérisé par un identificateur
unique, mais il peut aussi avoir des identificateurs subjectifs. Soit r un référent et {d1, d2,
..., dn} un ensemble de descripteurs qui décrivent indépendamment r. Il existe au moins
un di qui décrit r, par exemple l'adresse de ce référent. En général, les autres descripteurs
(autres que di) sont ajoutés parce qu'ils sont utiles pour les utilisateurs, même s'il ne
décrivent pas r de façon unique. Par exemple, au début de ce mémoire nous avons mis un
référent appelé "Résumé". Il peut être décrit de façon unique par "di=Résumé", et par
d'autres descripteurs (des descriptions partielles) tels que "système d'assistance à
l'opérateur", "connaissance contextualisée" et "contexte". Les descripteurs ne sont pas
nécessairement inclus de façon explicite dans le contenu d'un référent (texte ou référent).
64
Habilitation - Guy Boy - 1992
Par exemple, "outils pour l'interaction cognitive Homme-machine" est une description
implicite partielle du résumé de ce mémoire. Un référent peut être toute partie de
documentation, table des matières et index compris. Les utilisateurs trouvent la table des
matières et l'index particulièrement utiles parce qu'ils ont une structure bien connue
(hiérarchique et alphabétique).
r6
r2
d3
d7
r1
r3
d2
d1
d4
r5
r4
d6
d5
Figure 14. Exemple de relations sémantiques entre référents via descripteurs.
La recherche d'information est un processus de recherche de référents à partir de
descripteurs dans un contexte donné (d->r). La recherche d'information est un processus
d'abduction utilisant de la connaissance d'indexation, c'est-à-dire connaissant r->d et d, r
devient une hypothèse. En pratique r devient un référent à proposer à l'utilisateur. Nous
diront que l'indexation définit un ensemble de relations sémantiques utilisables en
recherche d'information. La figure 14 donne un exemple de relations sémantiques entre
référents par l'intermédiaire de descripteurs.
3.2.2. Liens contextuels
En général, la connaissance d'indexation et de recherche d'information n'est pas explicite
et est du ressort de l'expertise humaine. Si le but est d'aider l'utilisateur à naviguer et à
retrouver des informations appropriées, cette connaissance doit être rendue explicite et
mise en œuvre au sein d'un système d'assistance à l'opérateur (Boy, 1991a), construit audessus de l'hypertexte. Un avantage majeur de cette architecture est que le méta-niveau
correspondant est facilement programmable et permet d'ajouter de la connaissance sur les
liens de l'hypertexte.
Nous avons montré que les blocs de connaissance s'adaptent bien à la représentation des
procédures utilisées dans la navigation documentaire (Boy, 1990). Ils ont donc été utilisés
pour représenter des liens entre descripteurs et référents. Un bloc de connaissance
65
Habilitation - Guy Boy - 1992
contient des buts, un ensemble de conditions et un ensemble d'actions pour atteindre les
buts. Les conditions peuvent être des conditions de déclenchement, des conditions
anormales ou des conditions contextuelles. Dans CID, les conditions de déclenchement
sont représentées par des descripteurs sélectionnés par l'utilisateur. Les conditions
contextuelles peuvent décrire l'environnement externe (par exemple, le type d'utilisateur,
le type de tâche en cours ayant donné lieu à la consultation de la documentation, la
période de temps), ou l'histoire interne de l'utilisation courante de la documentation (par
exemple, les derniers référents visités, les derniers descripteurs sélectionnés). Les actions
sont représentées par des descriptions uniques de référents que l'utilisateur peut consulter.
Un but est atteint lorsque l'utilisateur sélectionne la post-condition succès correspondant
au référent choisi. D'un manière analogue, une condition anormale correspond à une postcondition échec. Les utilisateurs navigant et formulant leurs descriptions du contenu des
référents contribuent à l'augmentation de la base de connaissances en sélectionnant les
post-conditions succès (ou échec) après une recherche fructueuse (ou non fructueuse).
Dans CID, les blocs de connaissance sont utilisés pour représenter des liens contextuels
entre descripteurs et référents. Cet aspect a été développé dans Boy (1991c). Selon ce
point de vue, la documentation peut être représentée par deux entités : des référents et des
liens contextuels. Comme chaque référent r est décrit par une ensemble de descripteurs
D(r), un lien contextuel entre deux référents r1 et r2 suppose implicitement que r1 et r2
partagent au moins un descripteur commun. Nous pouvons ainsi définir l'ensemble des
descripteurs "sémantiquement" communs. La figure 15 présente l'intégration de référents
(texte ou graphique) avec les liens contextuels correspondants (connaissances). Chaque
descripteur d'un référent est une direction sémantique vers un ensemble de référents. Par
exemple, supposons que le référent r1 a deux directions sémantiques (descripteurs d1 et
d2) correspondant à des liens contextuels :
{d1; (r2 | C12), (r3 | C13)} et
{d2; (r4 | C14), (r5 | C15)},
où {d1; (r2 | C12), (r3 | C13)} peut être lu de la façon suivante : le lien contextuel entre le
descripteur d1 et le référent r2, dans le contexte C12, et le référent r3, dans le contexte C13.
66
Habilitation - Guy Boy - 1992
r2
D(r2)
r3
D(r3)
r4
D(r4)
r5
D(r5)
C12
r1
d1
D(r1)
d2
C13
C14
C15
Donnée
Connaissance
Document actif comme un agent
Figure 15. Directions sémantiques descripteurs-référents.
Si le contexte courant est correctement renseigné et la connaissance du système est
stabilisée (en d'autres termes, suffisamment de liens contextuels ont été construits), alors
des liens contextuels peuvent aider l'utilisateur à décider l'action (direction sémantique) la
plus appropriée à mettre en œuvre. Par exemple, si l'utilisateur est en face d'un référent r1,
le système propose deux directions sémantiques possibles, d1 et d2, si l'utilisateur
sélectionne d1 le système propose r2 ou r3 en accord avec le contexte courant. Dans ce
sens, un référent et sa base de connaissances associée est appelée document actif (ou un
agent) qui a la capacité d'aider l'utilisateur à sélectionner le déplacement suivant dans la
documentation. Cette approche comporte trois problèmes importants : renforcer
incrémentalement les conditions contextuelles, acquérir des conditions contextuelles
générales (Boy, 1990), et aider l'utilisateur à rapidement trouver son chemin dans la
documentation. Nous verrons dans la section 3.5 que la corrélation sémantique entre
référents peut être utilisée comme une aide à la navigation.
3.3.
Renforcement incrémental en contexte
3.3.1. Critères de renforcement
Les liens contextuels peuvent être vus comme des traces générées par l'utilisateur. En
accord avec la théorie ACT (Anderson, 1983), une fois qu'une trace est formée elle n'est
pas perdue, mais sa force peut décroître. Par analogie avec les êtres humains, la rétention
long-terme montre un oubli graduel et continu. Si nous nous basons sur les données
67
Habilitation - Guy Boy - 1992
résumées par Wickelgren (1976), la force de la trace est une fonction d'une puissance du
temps. En utilisant ces résultats psychologiques, nous avons choisi une heuristique simple
[formule (1) ci-dessous] pour l'enregistrement d'un ensemble minimal de paramètres
pendant l'utilisation du système. Nous avons considéré que la pertinence d'un lien
contextuel {di, (r)} entre un descripteur di et un référent r dépend du retour de l'utilisateur
(succès ou échec) sur r, la fréquence des retours sur r, et l'importance que l'utilisateur
donne au référent r. La pertinence sémantique Rel(r | di.C) d'un référent r par rapport à un
descripteur di dans le contexte C a été défini formellement comme suit (Boy, 1991b) :
Rel (r | di . C) =
!
s"Sr | di.C
Is (t-ts )- !s -
!
If (t-tf)- !f
f"Fr | di.C
(1)
où t est le temps courant, ts (tf) est le temps correspondant à la sélection du succès s
(échec f) par l'utilisateur, Sr | di.C (Fr | di.C) est l'ensemble des succès (échecs) jusqu'au
temps t, l'exposant βs (βf) a une valeur comprise entre 0 et 1, et exprime le perte de
pertinence depuis un succès (échec), et Is (If) est l'importance affectée à r par l'utilisateur
par rapport à di dans le contexte C. En pratique, Is, If, τs, et τf peuvent être considérés
comme des constantes pour tous les retours des utilisateurs. Cette heuristique simule le
fait que les liens contextuels peuvent être oubliés s'ils n'ont pas été renforcés après une
longue période de temps, excepté si un grand coefficient d'importance (Is ou If) leur a été
affecté.
3.3.2. Acquisition de liens contextuels par expérimentation
CID permet deux modes d'opération, qui correspondent au deux modes d'activité d'un
utilisateur face à une documentation :
— navigation expérimentale : une exploration libre, souvent rencontrée dans des
activités comme l'apprentissage par l'action, dans lesquelles l'ordinateur peut
prendre un rôle actif en suggérant des informations intéressantes à examiner;
— recherche intentionnelle : une recherche délibérée d'information pour combler un
besoin particulier, par exemple, préparer un rapport ou répondre à une question
spécifique.
La navigation expérimentale permet d'augmenter l'ensemble initial des liens contextuels.
La recherche intentionnelle est plutôt utilisée pour raffiner des liens contextuels existants,
en augmentant (raffinant) les conditions contextuelles. Les algorithmes d'apprentissage
ont déjà fait l'objet de publications dans la littérature ouverte (Boy, 1990). Afin de mieux
cerner l'esprit de l'approche, nous prendrons un exemple.
Supposons que vous vouliez retrouver des informations très spécifiques sur la
climatisation de la cabine principale de la station spatiale. La première chose que vous
pouvez essayer est de naviguer dans la documentation en utilisant le descripteur
"climatisation". Si le contexte de recherche peut être spécifiée, par exemple :
68
Habilitation - Guy Boy - 1992
— "vous êtes un concepteur" (C1),
— "vous êtes intéressé par la connexion du système de climatisation" (C2), et
— "vous avez très peu d'informations sur le circuit électrique dans la cabine" (C3),
alors votre recherche pourra être plus efficace. La recherche ne sera pas la même dans un
autre contexte, par exemple, "vous êtes un astronaute, vous êtes dans la station spatiale, et
vous avez froid".
Un lien contextuel est activé lorsque le descripteur "climatisation" est sélectionné par
l'utilisateur :
(PRECONDITIONS ("climatisation")
(CONTEXT
(C1 C2 C3))
(REFERENTS
(R1 +5 ((AC1 1) (AC2 3)))
(R2 +2 ())
(R3 +3 ((AC2 1) (AC3 1)))
(R4 +2 ())))
Comme ce lien contextuel présente quatre référents possibles :
— "une liste de vendeurs de systèmes de climatisation" (R1),
— "une description du système de climatisation" (R2),
— "une checklist de récupération lorsque la climatisation tombe en panne" (R3), et
— "un diagramme du circuit électrique de la cabine principale" (R4).
Le premier référent n'est pas satisfaisant dans le contexte courant : c'est un échec. Ceci
est indiqué au système par l'utilisateur. Le deuxième et le troisième sont aussi des échecs.
Les cas d'échec seront présentés ultérieurement. Heureusement, le quatrième donne
l'information désirée : c'est un succès. Le système apprend alors que R4 est satisfaisant
dans le contexte courant. Le système enregistre la sélection en ajoutant +1 ou -1 au
coefficient de renforcement attaché au référent correspondant (rote learning). Si cela est
répété fréquemment, R4 sera présenté de façon préférentielle à l'utilisateur lorsqu'il
sélectionnera le descripteur "climatisation" dans le contexte (C1, C2, C3) en mode de
recherche intentionnelle. Ceci se traduit en pratique par une présentation d'une liste
ordonnée de référents.
Supposons maintenant que, en utilisant le lien contextuel, on observe dans une situation
particulière que l'utilisateur indique au système que R1 est un échec. Il serait malvenu et
inefficace de répéter cette expérience trop souvent. Pour résoudre ce problème, CID note
qu'une condition anormale a été rencontrée, et cette connaissance est ajoutée au lien
69
Habilitation - Guy Boy - 1992
contextuel correspondant. Comme pour les référents, des coefficients de renforcement
sont associés aux conditions anormales. Les conditions anormales peuvent être vues
comme des exceptions à l'utilisation "normale" d'un lien contextuel. Lorsqu'un échec est
détecté, le système demande à l'utilisateur d'expliquer la raison de cet échec. Une liste de
conditions anormales déjà acquises est alors présentée à l'utilisateur. L'utilisateur peut
sélectionner l'une des explications fournies ou en générer une nouvelle (qui sera
mémorisée pour des cas futurs d'échec). Cette sélection est alors traitée automatiquement
et conservée au sein du lien contextuel correspondant comme une condition anormale. Si
l'utilisateur fournit aussi une solution de récupération, cette solution est enregistrée. Un
nouveau lien contextuel est créé.
Si une condition anormale est observée plusieurs fois, par définition elle ne peut plus être
considérée comme anormale (une exception trop fréquente n'est plus une exception), sa
négation sera donc automatiquement ajoutée aux conditions contextuelles appropriées.
Un algorithme de rote learning est utilisé pour transformer la connaissance du système
(Boy, 1990).
3.4.
Clustering des conditions contextuelles
Une grande quantité de blocs de connaissance sont créés à partir de l'acquisition
incrémentale des conditions contextuelles. On peut aussi s'attendre à des régularités sur
les patterns situationnels construits pendant le renforcement incrémental. Par exemple, la
même classe d'utilisateur consulte les mêmes référents dans la même situation.
Nous avons choisi de construire incrémentalement des clusters conceptuels de contexte,
c'est-à-dire des nouveau objets assimilés un par un. Dans COBWEB, Fisher (1987)
propose des opérateurs permettant d'incorporer incrémentalement des nouveaux objets
(dans notre cas des nouveaux patterns contextuels) dans un arbre de classification, où
chaque nœud est un concept probabiliste représentant la classe d'un objet. Parmi ces
opérateurs figurent :
— classification de l'objet par rapport à une classe existante;
— création d'une nouvelle classe;
— combinaison de deux classes en une seule classe;
— division d'une classe en plusieurs classes.
Nous prenons la même approche pour le clustering de contexte. Chaque pattern
contextuel est représenté par une conjonction de conditions contextuelles.
70
Habilitation - Guy Boy - 1992
3.4.1. Placement d'un pattern contextuel dans une classe existante
Utilisateurs
Astronautes
Opérationnels
Tâches
Concepteurs
Diagnostics
Monitoring
(Opérationnels ! Diagnostics)
(Jack Ames ! Diagnostic ECLSS)
(Paul Smith ! Diagnostic PGS)
Figure 16. Placement d'un nouveau pattern contextuel dans une classe existante.
Placer un pattern contextuel dans une classe existante est probablement la façon la plus
naturelle d'actualiser un ensemble de classes. Prenons un exemple qui illustre la méthode.
Soit un nouveau pattern contextuel (Paul Smith ∧ Diagnostic PGS). Chaque condition
contextuelle appartient à une classe ou est elle-même une classe. Dans le présent exemple
(Figure 16), "Paul Smith" fait partie des "Opérationnels" et que "Diagnostic PGS" fait
partie des "Diagnostics". Alors la conjonction (Paul Smith ∧ Diagnostic PGS) est une
instance de la classe existante (Opérationnels ∧ Diagnostics). L'arbre de classification
initial est donc transformé comme le montre la figure 16.
3.4.2. Création d'une nouvelle classe
Un nouvelle classe est créée chaque fois qu'un nouveau pattern de contexte ne peut pas
être placé dans une classe existante. Cette nouvelle classe est identique au nouveau
pattern de contexte. Elle peut être liée vers le haut à des classes de certaines conditions
contextuelles qui la compose. Dans le présent exemple (Figure 17), "Barry North" fait
partie de la classe des "Concepteurs", et "Diagnostic FTS" fait partie de la classe des
"Diagnostics". Alors la conjonction (Barry North ∧ Diagnostic FTS) est une instance de
la nouvelle classe (Concepteurs∧ Diagnostics).
71
Habilitation - Guy Boy - 1992
Utilisateurs
Astronautes
Opérationnels
Tâches
Concepteurs
Diagnostics
Monitoring
(Concepteurs ! Diagnostics)
(Opérationnels ! Diagnostics)
(Barry North ! Diagnostic FTS)
(Jack Ames ! Diagnostic ECLSS)
(Paul Smith ! Diagnostic PGS)
Figure 17. Création d'une nouvelle classe.
3.4.3. Combinaison de deux classes en une seule classe
Utilisateurs
Astronautes
Opérationnels
Tâches
Concepteurs
Diagnostics
Monitoring
(Concepteurs ! Diagnostics)
(Opérationnels ! Diagnostics)
Figure 18-a. Classes de contexte initiales avant la combinaison de classes.
Comme nous avons fait l'hypothèse que des classes composées sont des conjonctions de
classes ou d'objets, la combinaison de deux classes engendre la création d'une nouvelle
classe ou le remplacement des conjoncts-instances par les conjoncts-classes
correspondants des classes combinées. Par exemple dans la Figure 18-a, "Opérationnels"
et "Concepteurs" sont tous deux des "Utilisateurs", et ils font tous les deux une tâche de
diagnostic. La figure 18-b présente le réseau de contextes résultants après combinaison :
(Opérationnels ∧ Diagnostics) et (Concepteurs ∧ Diagnostic FTS) combinés en
(Utilisateurs ∧ Diagnostics). La façon dont la combinaison est aussi appelée
généralisation.
72
Habilitation - Guy Boy - 1992
Utilisateurs
Astronautes
Opérationnels
Tâches
Concepteurs
Diagnostics
Monitoring
(Utilisateurs ! Diagnostics)
(Concepteurs ! Diagnostics)
(Opérationnels ! Diagnostics)
Figure 18-b. Classes de contexte après la combinaison de classes.
3.4.4. Division d'une classe en plusieurs classes
La division d'une classe en plusieurs classes est approximativement l'opération inverse de
la combinaison (Fisher, 1987). Une division a lieu lorsqu'une classe composée est surgénéralisée. Par exemple, il est possible de découvrir après coup que (Utilisateurs ∧
Diagnostics) est trop général parce que la classe (Astronautes ∧ Diagnostics) est très
différente des autres classes (Opérationnels ∧ Diagnostics) et (Concepteurs ∧
Diagnostics). Par conséquent, deux classes seront créées (Astronautes ∧ Diagnostics) et
(Ingénieurs ∧ Diagnostics) par exemple (Figure 19). Si la classe "Ingénieurs" n'existe pas
déjà, le processus amène à la création d'une nouvelle classe, sous-classe des "Utilisateurs"
et super-classe des "Opérationnels" et "Concepteurs".
Utilisateurs
Ingénieurs
Astronautes
Opérationnels
(Astronautes ! Diagnostics)
Tâches
Concepteurs
Diagnostics
Monitoring
(Ingénieurs ! Diagnostics)
(Concepteurs ! Diagnostics)
(Opérationnels ! Diagnostics)
Figure 19. Division d'une classe en plusieurs classes.
73
Habilitation - Guy Boy - 1992
3.5.
Corrélation sémantique entre référents
La recherche d'informations est améliorée si les besoins de l'utilisateur sont pris en
compte dans la génération et la maintenance des liens contextuels, c'est-à-dire si chaque
document actif a un modèle approprié de l'utilisateur. En général, les utilisateurs raffinent
(et souvent définissent) leurs besoins par un processus d'essais/erreurs. Ils évaluent les
résultats des différentes recherches d'informations. Un tel comportement nécessite un
environnement interactif qui permet d'acquérir incrémentalement des connaissances
d'indexation.
L'indexation est un processus de prise de décision qui doit être directement accessible à
l'utilisateur. Ce processus de décision met en jeu la construction de relations sémantiques,
c'est-à-dire de relations entre descripteurs, entre référents, et entre descripteurs et
référents. La représentation des connaissances correspondante doit permettre des
transformations incrémentales en cas d'échec.
Dans l'application de la documentation de la station spatiale, les documents (des référents
à un certain niveau de granularité) sont générés par des gens qui ne sont pas
nécessairement en interrelation. Ces documents sont théoriquement connectés par
l'intermédiaire d'une structure hiérarchique descendante (table des matières). Dans le
système de documentation actuel, il n'existe pas de liens transversaux préconstruits. Ceci
est un problème classique dans la construction d'une très grande documentation; parfois
deux référents similaires peuvent être générés par des équipes indépendantes. Le
problème est alors de vérifier si des référents différents décrivent les mêmes concepts. Si
c'est le cas, peuvent-ils être fondus en un seul référent ? Est-il nécessaire de créer deux
points de vue (contextes) ? Afin de résoudre ce problème, il est nécessaire de générer des
descripteurs bien-définis partageables entre les générateurs de documentation. Si ces
descripteurs sont bien-définis, nous pouvons accepter de vérifier le degré
d'interdépendance entre référents en mesurant leur corrélation sémantique.
La corrélation sémantique entre deux référents exprime la ressemblance entre le contenu
de chaque référent. Elle peut être construite en prenant en compte les descripteurs
attachés à chaque référent. Ces descripteurs caractérisent les dimensions selon lesquelles
chaque référent peut être situé dans l'espace des descripteurs. Si les descripteurs
expriment la sémantique de l'espace des référents, alors l'espace des descripteurs peut être
espace sémantique par extension. Le problème principal est que ces dimensions ne sont
pas indépendantes. Comme nous l'avons déjà expliqué, l'espace des descripteurs
représente les relations entre descripteurs, ce sont en général des relations d'héritage et de
propriétés. De plus, il semble raisonnable de laisser les gens indexer leurs référents sans
les contraindre au problème de la dépendance des descripteurs. Le problème est alors de
concevoir une représentation qui rende explicite les dépendances entre descripteurs.
L'idée de base est de construire un réseau sémantique dans lequel les nœuds sont des
descripteurs et les liens sont des relations d'héritage et de propriétés. En adoptant cette
approche, les descripteurs sont organisés en nuages de dépendances (descripteur
dependency clusters). Ces nuages peuvent être faiblement connectés entre eux ou
complètement indépendants.
74
Habilitation - Guy Boy - 1992
Nous considérons que les paramètres suivants affectent la corrélation sémantique en
contexte entre les deux référents r1 and r2:
— le nombre de descripteurs nds(r1, r2) partagés par r1 et r2;
— la pertinence sémantique d'un référent par rapport à un descripteur de l'ensemble
commun dans un contexte donné (dérivé des retours des utilisateurs);
— le niveau hiérarchique des descripteurs communs dans chaque référent;
— le contexte courant.
Supposons que nous voulions comparer deux référents r1 et r2. Salton (1989) définit la
similarité entre deux référents r1 et r2 comme une fonction du nombre de descripteurs
communs aux deux référents. Les référents r1 et r2 ont deux listes de descripteurs D(r1) et
D(r2). Le contexte courant est pris en compte en restreignant D(rj) [avec j=1 ou 2] à la
liste des descripteurs qui ont été "suffisamment" renforcés [Rel(rj | di.C) > Seuil] dans le
contexte courant. L'intersection entre D(r1) et D(r2) est alors calculée en utilisant les
règles suivantes :
If d ! D(r1) and [" d' ! D(r2), " n, such that d' = childOf(n)(d)]
then d ! D(r1) # D(r2)
If d ! D(r1) and [" d' ! D(r2), " n, such that d = childOf(n)(d')]
(3)
then d' ! D(r1) # D(r2)
(4)
où la fonction d'=childOf(n)(d) signifie que d' est un fils de génération n de d. Par
exemple, childOf(0) est la fonction identité, childOf(1) est la fonction fils direct (première
génération), childOf(2) est le petit-fils (deuxième génération), etc. En d'autres termes,
nous conservons les descripteurs les plus généraux dans l'intersection.
Si l'ensemble D(r1) ↔ D(r2) n'est pas vide, il peut être ordonné par rapport aux
pertinences sémantiques correspondantes. Nous utilisons alors la corrélation de rang de
Spearman (Snedecor, 1946) pour calculer la corrélation sémantique ρSem(r1, r2 | C) dans
le contexte C. Le formalisme a été rapporté dans (Boy, 1991, 1992).
Ce type de mesure de similarité sémantique peut être utilisée comme une aide à la
navigation dans une documentation. Deux cas génériques peuvent se présenter en
dérivation des listes ordonnées de référents sémantiquement corrélés à un référent donné,
ou une requête complexe de l'utilisateur.
1. A partir d'un référent r1, ρSem(r1, r2 | C) peut être calculée pour tous les référents r2
qui partagent des descripteurs avec r1.
75
Habilitation - Guy Boy - 1992
2. Une requête complexe mettant en jeu la conjonction de plusieurs descripteurs peut
être représentée par un ensemble D(Q). ρSem(Q,r | C) peut être calculée pour tout
référent r qui partage des descripteurs avec Q.
Dans les deux cas, la liste ordonnée correspondante des référents peut être présentée à
l'utilisateur pour des raisons de validation, ou comme lui suggérer les actions suivantes
possibles.
La corrélation sémantique peut être utilisée pendant l'acquisition des liens contextuels
pour mettre au point les descriptions référents. Par exemple, si deux référents r1 et r2 sont
hautement corrélés mais l'utilisateur n'est pas d'accord avec le résultat, alors les
descriptions des référents D(r1) et/ou D(r2) peuvent être révisées. Dans les consultations
futures, cette révision s'appliquera à l'utilisateur qui l'a faite, excepté si la révision a été
faite par une classe d'utilisateur.
3.6.
Leçons apprises
Nous avons analysé (Boy, 1991b) diverses utilisations des systèmes de documentation
disponibles à la NASA y compris les documents du programme de la station spatiale
Freedom (SSF), et certains manuels de procédures d'opérations de la navette spatiale. Le
premier type de documentation a été appelé documentation de conception et le second
documentation opérationnelle.
La documentation de conception est en général mise en œuvre en utilisant une recherche
par mots clefs. Les gens trouvent cette pratique très difficile parce que les mots clefs sont
utilisés dans un mode de recherche plein-texte. Par conséquent, les gens utilisant de tels
systèmes se retrouvent en face de centaines de références ou rien, selon le critère de
rappel/précision (Salton, 1989). Nous avons trouvé que l'approche CID introduisant le
mode expérimental, permet à l'utilisateur d'indexer des référents avec des concepts qui ne
sont pas nécessairement des mots ou des phrases inclus dans le texte. Un autre aspect est
que les systèmes actuels utilisés à la NASA on des capacités de navigation pauvres
(souvent complètement absentes). Les gens tendent à construire leur propres cartes
cognitives de la documentation même si rien n'est fourni pour rendre explicite la
topographie de la documentation. Nous avons trouvé que les cartes explicites de la
documentation sont très utiles. Ces cartes peuvent être locales ("où aller ?"), ou globales
("où suis-je ?"). Elles peuvent se présenter sous la forme d'une structure hiérarchique de
la documentation (table des matières locale ou globale), ou de relations conceptuelles
entre les référents par l'intermédiaire de descripteurs (index local ou global).
Les systèmes de documentation opérationnelle (habituellement sur papier) sont en
général mise en œuvre en utilisant des tables de matières. De plus, les utilisateurs experts
tendent à développer des stratégies de recherche robustes basées sur l'expérience et le
contexte. Nous avons observé que, à l'inverse des utilisateurs de documentations de
conception, les utilisateurs de documentations opérationnelles disposent de
représentations cognitives très intégrées de la documentation qu'ils utilisent, en d'autres
76
Habilitation - Guy Boy - 1992
termes, ils connaissent sa structure hiérarchique ainsi qu'un ensemble extensif de liens
conceptuels. La raison est que les opérationnels, dans une salle de contrôle de missions
par exemple, sont hautement entraînés à résoudre des problèmes en utilisant des manuels
d'opérations. De plus, ils actualisent cette documentation à partir de leur propre expertise
(pas seulement son indexation mais aussi son contenu). CID facilitera ce processus
pénible et couteux.
Les résultats actuels indiquent que CID est très utile à la fois pour indexer des documents
en contexte, et pour améliorer le processus de révision de la documentation lui-même. La
recherche d'informations sensible au contexte donne des possibilités plus large comme
fournir une expertise de recherche d'informations qui étaient jusqu'alors détenue par
d'autres utilisateurs, par exemple, "que ferait John Smith dans cette situation ?" Nous
testons actuellement CID avec des spécialistes de la SSF et de la navette spatiale afin
d'obtenir plus d'information sur le niveau d'acceptation des capacités d'apprentissage et
les comportements de CID par des concepteurs et des opérationnels. En premier lieu, les
résultats ont montré que, et ce n'est pas surprenant, l'expansion de la base de liens
contextuels doit être contrôlée avec soin. Actuellement, cette expansion est contrôlée par
un seuil portant sur les coefficients de renforcement qui ont été calculés à partir des
retours des utilisateurs (succès et échecs) et le temps cumulé entre les retours des
utilisateurs. Nous avons introduit un coefficient de gravité qui pénalise le coefficient de
renforcement dans le cas de liens critiques, en particulier lorsque le temps entre les
retours est grand.
La première version de CID a été mise en œuvre en Allegro Common LISP, HyperTalk et
C. La version courante utilise HyperCard (version 2.0) et plusieurs fonctions externes en
langage C. HyperCard est un bon outil de prototypage qui est courant à la NASA à cause
de sa disponibilité étendue. C'est pour cette raison que CID peut être testé à une grande
échelle. Même si nous n'avons pas encore de résultats expérimentaux quantitatifs, notre
expérience actuelle sur CID est très encourageante. L'application de la documentation de
la station spatiale Freedom contient actuellement environ 160 descripteurs liés à la
documentation. CID dispose d'un algorithme d'apprentissage IARC (Index Acquisition
and Refinement according to Context) un système qui met en œuvre une technique
d'acquisition de contexte décrite dans (Boy, 1990).
3.6.
Relations avec d'autres travaux
L'indexation sémantique a été étudiée par de nombreux auteurs. Dumais et al. (1988)
proposent une méthode pour organiser les nœuds en une structure sémantique basée sur la
superposition des descripteurs utilisés dans les référents. Stotts et Furuta (1988) ont
proposé un modèle d'hypertexte basé sur des réseaux de Petri. Leur système renforce les
restrictions de navigation, par exemple, désactive certains liens. Comme CID, un précis
de médecine décrit par Frisse et Cousins (1989) sépare l'espace d'indexation de l'espace
documentaire. Ils ont montré comment certaines architectures d'indexation peuvent être
exploitées pour améliorer la recherche d'information, le raffinage de requêtes, et le
raisonnement automatisé. Leur modèle d'espace d'indexation est basé sur l'inférence en
utilisant des réseaux de croyances sur les descripteurs. Le système I3R (Croft, 1989)
77
Habilitation - Guy Boy - 1992
utilise un réseau d'inférence Bayésienne pour acquérir des informations sur les besoins
des utilisateurs et sur le domaine de connaissances. Crouch et al. (1989) ont utilisé des
hiérarchies de clusters pour aider à naviguer dans la structure hypertexte. Toutes ces
contributions à la recherche d'information ont contribué à développer des méthodes pour
raffiner des liens entre des descripteurs et des référents. Cependant, le concept de
contexte n'a pas été présenté explicitement dans aucun d'entre eux.
Weyer (1988) défend le fait que l'information devrait être adaptable aux préférences des
apprenants, et les liens devraient dépendre des actions précédentes de l'utilisateur et des
buts courants. Ce point de vue va dans le sens de notre approche basée sur la
connaissance de l'hypertexte. D'autres approches ont été développées pour acquérir et
raffiner des liens en-ligne. Par exemple, Kibby and Mayes (1989), dans leur système
hypertexte StrathTutor essayent d'éliminer le besoin de création de liens à la main en
générant des liens basés sur des connaissances acquises lorsque l'utilisateur navigue dans
le système. Monk présente aussi une méthode pour construire un outil de navigation
personnel (Monk, 1987). Dans cette approche, le système surveille le comportement de
navigation de l'utilisateur et interrompt l'utilisateur pour lui demander s'il doit ajouter une
nœud à l'outil de navigation en fonction de la fréquence des accès.
CID utilise les concepts de contexte et de conditions anormales pour apprendre à partir
des retours des utilisateurs. Le travail sur les exceptions accompli par Winston (1983) et
Williamson (1986) est similaire au nôtre, en particulier sur l'utilisation de conditions
anormales. Nous avons étendu cette approche avec l'utilisation du renforcement
dynamique, et avons mis en œuvre pratiquement ces considérations théoriques.
Finalement, ce travail est une première étape vers une recherche plus approfondie sur la
modélisation de l'utilisateur, dans laquelle des modèles d'utilisateurs (si possible acquis
automatiquement) sont exploités par le système selon des façons prédéfinies. De tels
systèmes ne peuvent pas actualiser leurs modèles d'utilisateurs en fonction de leur
expérience. Notre système peut accomplir cette actualisation automatiquement. En
d'autres termes, notre système apprend à opérationnaliser des modèles d'utilisateurs
automatiquement, en fonction de l'expérience.
3.7.
Discussion et futures directions
Les résultats courants montrent que l'hypertexte est un bon outil de programmation pour
le développement de tels systèmes. Alors que les systèmes hypertextes accroissent
l'accessibilité, ils ne fournissent pas de mécanismes pré-construits de sélectivité. En
d'autres termes, alors que les systèmes non-linéaires ou hypertextes peuvent accroître
considérablement l'accessibilité à l'information, cette accessibilité accrue peut augmenter
un problème déjà sévère de sélection (Jones, 1987). Pour ces raisons, notre approche
basée sur la connaissance peut être très utile pour résoudre le problème de sélection ainsi
que la surcharge cognitive de l'utilisateur. Nous n'avons pas trouvé d'approche
équivalente à la nôtre en ce sens que la conception de liens contextuels pour retrouver des
informations est basée non seulement sur la façon dont la documentation a été construite,
mais aussi sur les exigences en information et les suggestions des utilisateurs lorsque
78
Habilitation - Guy Boy - 1992
ceux-ci utilisent le système. Donc, l'utilisateur augmente continuellement et raffine
l'intelligence du système de recherche d'information.
En dehors de l'interface intelligente pour naviguer à l'intérieur de grands documents, la
capacité de notre système d'acquérir automatiquement le contexte est significative. En
premier lieu, cette capacité permet au système de s'adapter aux besoins des utilisateurs.
Par ailleurs, nous avons montré qu'il était possible d'incorporer les retours des utilisateurs
dans la connaissance du système, ce qui est de nature à améliorer les performance du
système. Dans ce sens, nous n'avons pas besoin de collecter et d'analyser des grandes
quantités d'informations sur la façon dont les utilisateurs interagissent avec le système,
parce que le système s'en charge lui-même.
En conclusion, notre système apprend automatiquement comment exploiter des modèles
d'utilisateurs et des descriptions de contexte. Ceci fournit plus de flexibilité et permet à
notre système de s'adapter à l'utilisateur. Il est évident qu'il existe beaucoup de questions
encore non résolues. Nous en donnerons quelques unes. Tout d'abord, la formalisation
des conditions contextuelles reste problématique. D'une part, les conditions contextuelles
devraient être minimales afin d'éviter des calculs excessifs. D'autre part, elles doivent
inclure autant d'informations que possible pour caractériser la situation courante. Par
ailleurs, nous n'avons pas de méthodologie adéquate pour définir expérimentalement le
seuil "idéal" de renforcement des conditions anormales (Boy, 1990), pour décider de
créer un nouveau lien contextuel, en supprimer un qui est inutilisé, inclure une action
dans un lien contextuel, ou généraliser deux liens contextuels similaires.
79
Habilitation - Guy Boy - 1992
80
Habilitation - Guy Boy - 1992
Conclusion
"... Descartes... croyait que l'on pouvait déduire une méthode à partir des
principes, alors que je cherche ces principes. Descartes avait formulé la
grande disjonction qui va dominer le monde occidental: entre l'objet et le
sujet, entre la nature et l'homme qui doit la maîtriser... Il est impossible
d'isoler l'être vivant de son écosystème, l'individu de la société, le sujet et
l'objet. Il nous faut travailler et penser non seulement par distinction et
clarté, mais aussi avec le flou et l'obscur." Edgar Morin (1991).
Contribution de la thèse
La société de l'information est aujourd'hui une réalité économique, pas une abstraction
intellectuelle. C'est dans ce contexte que nous avons voulu placer cette thèse. La
télévision, les ordinateurs personnels et la mobilité des gens constituent quelques traits
visibles de la révolution de l'information. En particulier, l'être humain peut acquérir de
l'information dans des lieux où elle était pratiquement inaccessible dans le passé. Une
transformation profonde de nos sociétés est en marche.
Notre expérience dans le domaine de l'interaction cognitive Homme-machine se situe au
carrefour de plusieurs disciplines : l'informatique, l'automatique, et la psychologie
cognitive. Le travail que nous présentons dans le cadre de cette thèse contribue à donner :
un cours sur les méthodes et techniques pour l'élaboration de systèmes d'assistance à
l'opérateur (travail rapporté dans les livres "Assistance à l'Opérateur : Une Approche de
l'Intelligence Artificielle" et "Intelligent Assistant Systems"); un ensemble de réponses
concrètes à des problèmes posés par la réalisation et l'évaluation de systèmes d'assistance
à l'opérateur (réalisation de systèmes tels que MESAGE, HORSES, SAOTS et CID); et
une approche pour la prise en compte du contexte dans la construction de bases de
connaissances.
Un cours
Le cours que nous avons développé depuis 1983 est une introduction aux concepts et aux
techniques nécessaires d'une part pour pouvoir construire facilement des programmes
informatiques auto-explicatifs et adaptés à l'utilisateur final et, d'autre part pour
comprendre les principes d'une interaction cognitive Homme-machine. Il est orienté vers
l'analyse et la conception de systèmes d'assistance à l'opérateur en utilisant les principes
et les techniques de l'IA.
Deux courants se rencontrent : d'un côté, celui des formalisateurs qui soutiennent la
normalisation des représentations, d'un autre coté, celui des défenseurs des aspects
créatifs de l'IA. Le premier courant fait partie de l'évolution naturelle des techniques de
programmation compte tenu des potentialités toujours plus importantes du matériel. Il est
très probable que la logique, les objets, et les règles de production feront partie de la
81
Habilitation - Guy Boy - 1992
panoplie du programmateur de la prochaine décennie. Le second courant pourrait être
défini comme l'évolution des interactions entre l'IA et les sciences cognitives : d'un côté,
le développement de théories qui vont rendre les machines plus "intelligentes", par
exemple, la physique qualitative de Johan de Kleer; d'un autre côté, les recherches
hypothético-déductives de la psychologie cognitive, comme l'explication (par simulation)
du comportement humain en utilisant des modèles de l'IA, et les recherches
expérimentales de la psychologie cognitive.
L'IA peut être vue comme une discipline scientifique ayant deux grandes directions, l'une
technologique, le développement d'une informatique moderne, et l'autre cognitive, une
contribution à part entière au développement des sciences cognitives. Nous pouvons
résumer ceci par le schéma suivant.
IA
techniques de
programmation
informatique
moderne
faciliter la
programmation
langages
objets
sciences et techniques
de l'épistémologie
de la connaissance
introduire
l'utilisateur
final dans la
boucle de
conception
langages
de règles
fournir des
structures
informatiques
pour simuler le
comportement
cognitif humain
......
chercher de
nouvelles
structures
cognitives et
informatiques
......
analyse de
protocoles
La conception de systèmes d'assistance à l'opérateur donne lieu à cinq grandes étapes :
1. discuter de ce qui est connu : il est important de rendre explicite et de clarifier la
connaissance des experts du domaine;
2. décrire des langages pour exprimer "informatiquement" cette connaissance : il est
évident que les langages déclaratifs ont une puissance descriptive du réel nettement
supérieure à celle des langages classiques de programmation;
82
Habilitation - Guy Boy - 1992
3. Déterminer quels processus de traitement vont guider le programme pour aller des
faits initiaux (ou courants) à des conclusions. On peut citer, par exemple, la
déduction logique, l'induction, l'analogie, etc.
4. programmer une première version du système d'assistance : cette version sera
pauvre en connaissance situationnelle et riche en connaissance analytique;
5. évaluer la machine intelligente d'AO d'une manière incrémentale, c'est-à-dire par
utilisation progressive, comparer les résultats produits avec les résultats
"raisonnables" attendus (par un expert par exemple) et modifier itérativement la
connaissance du système. Certaines parties analytiques sont progressivement
"compilées" sous forme de nouvelle connaissance situationnelle.
Dans le cours que nous avons développé, nous nous intéresserons tout d'abord à la
première direction pour aller progressivement vers la seconde, pour les trois raisons
suivantes.
1. Dans le stade actuel des recherches en IA, il est difficile de dissocier les deux
aspects, en particulier au niveau des représentations de connaissances, ou des
processus d'acquisition de connaissances, par exemple.
2. Le futur praticien ou chercheur en IA doit avoir des bases "solides" sur les
processus actuellement programmables et liés à la cognition.
3. Par leur souplesse d'utilisation, la modularité des représentations mises en oeuvre et
les facilités de mise au point, les techniques d'IA permettent aux concepteurs de
systèmes de prendre en compte dès le début, l'utilisateur final dans la boucle de
conception. Dans une première phase, elles permettent de réaliser rapidement un
prototype de simulation qui peut être testé et amélioré au fur et à mesure de
l'avancement du projet.
Une expérience
Même si elle a connu quelques désappointements à la fin des années quatre-vingt,
l'intelligence artificielle fait maintenant partie de l'informatique. Les techniques d'IA sont
actuellement appliquées pour améliorer des produits industriels conventionnels, mais des
nouvelles activités, des nouveaux processus et produits sont en train d'arriver et seront
développés dans le courant de années quatre-vingt dix. Nous nous sommes délibérément
attaqués aux problèmes posés par l'intégration de ces nouvelles technologies dans la
société de travail. Nous avons travaillé sur l'interaction des pilotes avec les systèmes d'un
avion de transport moderne, sur la coopération entre l'opérateur et un système de
diagnostic dit à base de connaissances, sur l'assistance au suivi de procédures d'opérations
dans le cadre de la télémanipulation, et sur l'assistance à la navigation "intelligente" dans
une base d'informations hypertexte.
83
Habilitation - Guy Boy - 1992
L'un des premier buts d'une théorie est de nous aider à trouver des réponses à certaines
questions. Même s'il n'existe pas de théorie de l'analyse, la conception et l'évaluation de
systèmes cognitifs Hommes-machines, nous avons tenté de donner quelques directions
provenant de notre expérience dans le domaine.
L'intelligence humaine se traduit par le fait que les êtres humains adaptent leur perception
et actions au champ social. Cette adaptation se produit à tous les niveaux d'interaction :
les gens disent les "bons" mots au "bon" moment et sous la "bonne" forme20; ils se
rappellent de leurs expériences; ils essayent de se préserver du danger; etc. Existe-t-il
aujourd'hui un système ayant de telles capacités ? Notre travail s'appuie sur l'hypothèse
que l'intelligence est à rechercher dans l'interaction plutôt que dans les systèmes euxmêmes. Par conséquent, le concept d'IIHM est essentiel, i.e., la conception de tout
système ne peut se faire qu'en prenant en compte les utilisateurs finaux dans la boucle de
conception-évaluation. En particulier, l'anticipation de changement de mode de travail est
essentielle dans le développement des machines modernes. En effet, le modèle opératif
interne de l'opérateur peut être différent selon qu'il contrôle ou surveille seulement la
machine augmentée d'un système automatique. Par conséquent, commuter d'une tâche de
surveillance à une tâche de contrôle manuel peut être très difficile pour un opérateur
humain.
D'une manière générale, la prise en compte du facteur humain dans la conception et
l'évaluation des systèmes est essentielle. Les êtres humains sont différents des machines
parce que leur charge de travail peut affecter leur performance. En particulier, la charge
mentale peut être prohibitive en résolution de problème ou en contrôle distribué. Une
étude réalisée par Sears en 1986 sur 93 accidents majeurs d'avion montre que la
responsabilité était allouée pour 65% à l'équipage (rapporté par Nagel, 1986). 33% des
pilotes sont sortis des procédures standards, 26% étaient dûs à une vérification mal
appropriée par le copilote, dans 10% des cas le commandant de bord n'a pas pris en
compte l'information provenant de l'équipage, et finalement dans 9% des cas l'équipage
n'était pas parfaitement entraîné pour traiter des situations critiques. Il est maintenant bien
connu que la plupart des erreurs humaines sont des dérapages (erreurs d'étourderie). Si
les causes des dérapages sont connues, elles peuvent être utilisées dans la conception de
fonctionnalités de systèmes d'assistance à l'opérateur. Il est connu que la compréhension
de comment une machine fonctionne est une fonction de l'instruction et de l'entraînement.
Les êtres humains agissent et décident par rapport à de petits ensembles d'heuristiques.
Cependant, ces heuristiques peuvent être très compliquées. Construire et structurer des
heuristiques repose sur l'entraînement. Généralement, comme nous l'avons vu plus haut,
les premiers stades de l'apprentissage sont analytiques. Cette connaissance est ensuite
compilée par un processus d'accommodation. La connaissance compilée est appelée
connaissance situationnelle.
Les accidents récents en aviation commerciale et dans les centrales nucléaires ont montré
de façon dramatique combien l'automatisation excessive pouvait entraîner une baisse de
20Ce
principe souvent cité en ingénierie cognitive (Boy, 1983; Holnagel, 1988) fait aussi partie la thèse du
raisonnement basé sur les cas (Schank, 1991). Schank défend la thèse que l'intelligence humaine se traduit
par le fait que les gens racontent la bonne histoire au bon moment.
84
Habilitation - Guy Boy - 1992
vigilance chez les opérateurs humains. Par ailleurs, il a été montré que lorsque les
opérateurs humains agissent, ils sont d'excellents surveillants et superviseurs. De tels
résultats indiquent que, pendant les opérations, les ordinateurs doivent être utilisés plus
comme des associés que comme des "béquilles". La technologie des systèmes à base de
connaissances peut être utilisée pour servir ce point de vue. Nous devons encore acquérir
plus de connaissance et de savoir-faire pour construire des processeurs intelligents
interactifs et adaptés au monde réel et au temps-réel. Ce que nous pouvons faire
aujourd'hui c'est : surveiller des sous-systèmes indépendants; présenter des buts et des
explications causales à l'opérateur humain; mettre en œuvre des systèmes à base de
connaissances de diagnostic, d'ordonnancement et parfois de réordonnancement. Il faut
tout de même remarquer que le raisonnement est toujours basé sur des procédures
standards. Enfin, un système d'assistance à l'opérateur (Boy & Rappaport, 1987; Boy,
1988) doit tolérer les erreurs humaines et proposer à l'opérateur un dialogue orienté vers
la tâche.
La prise en compte du contexte
La connaissance situationnelle est difficile à obtenir. Cependant, elle est essentielle dans
la conception et l'évaluation de tout système cognitif. En particulier, certaines procédures
montrent que la même action peut avoir divers effets en fonction de la situation et du
champ social attendu, donnant lieu à des interactions ayant un contenu, des structures et
des formes syntactiques différents. Par exemple, la même procédure sera utilisée de
façons différentes par un expert et un débutant. Notre travail s'est efforcé de montrer qu'il
est nécessaire de s'assurer que le langage de l'interaction est approprié à son champ
social. L'expérience du projet MESSAGE a été déterminante dans ce sens. Il est aussi
important de disposer d'outil d'analyse de ces connaissances situationnelles.
Dans notre travail sur l'assistance intelligente au contrôle de processus, avec Nathalie
Mathé, nous avons tenté de donner une approximation du concept de contexte par le
modèle hiérarchique des blocs. Nous avons mis au point une représentation des
connaissances : la représentation par blocs. Cette représentation dite intermédiaire
(Bradshaw et al., 1992) offre un niveau de transition entre la connaissance brute et des
langages potentiels de mise en œuvre informatique. L'expérience des projets HORSES et
SAOTS nous ont beaucoup aidé à formaliser ce type de représentation. Il est aussi
nécessaire de penser des systèmes ayant certaines capacités d'adaptation aux interactions.
Notre travail sur CID nous a amené à considérer le problème de l'adaptation, en
particulier lorsque la communauté des utilisateurs est variée et lorsque les situations
d'opérations changent fréquemment. La certification de tels systèmes reste l'un des
problèmes les plus difficiles. Des expériences sont en cours à la NASA sur ce sujet dans
le cadre du projet CID.
Nous avons mis en évidence trois modes d'interaction entre agents : la compétition; la
coopération par partage de données communes; et la coopération par communication
directe. Dans chacun de ces modes, la notion de contexte dépasse la prise en compte de la
tâche; elle inclut le champ social dans lequel s'effectue l'interaction. Un contexte
spécifique est très difficile à mettre en évidence parce que c'est un concept dynamique (le
85
Habilitation - Guy Boy - 1992
contexte change à tout instant). "Contextualiser" les connaissances mises en œuvre par
une machine est un processus d'apprentissage essentiellement basé sur l'interaction. Le
but de l'acquisition de connaissances contextualisées est d'augmenter le contexte partagé
entre deux agents. En dynamique, même si deux agents partagent un même ensemble de
connaissances contextualisées, il se peut qu'à un instant donné ces deux agents ne
partagent pas la même focalisation d'attention, c'est-à-dire le sous-ensemble des
connaissances contextualisées mises en jeu dans l'interaction instantanée. Notre approche
d'acquisition des connaissances contextualisées est basée sur l'analyse, la mise en
évidence et la réparation de la différence de focalisation d'attention entre deux agents.
Cette différence peut venir d'une définition inadéquate du contexte courant ou du manque
de connaissances contextualisées de l'un des agents.
Perspectives
L'automatisation va croître dans les années à venir. En aviation par exemple, les
bibliothèques électroniques (ELS) vont apparaître à bord, les checklists électroniques, et
les communications digitales air-sol (Billings, 1991). Les bibliothèques électroniques
vont réduire la quantité de papier à bord. Dans la première phase d'installation, les pilotes
pourront avoir accès aux données stockées dans ces systèmes, mais n'auront
probablement pas la permission d'interagir avec eux pour retarder des problèmes dus aux
critères actuels de certification. Les checklists électroniques vont alléger sensiblement la
charge de travail des pilotes. Les checklists électroniques sont en cours d'investigation
par Palmer et Degani au Centre de Recherches de la NASA Ames (1991). En particulier,
le bon choix du niveau d'automatisation reste une question cruciale. Les communications
digitales air-sol vont accroître la quantité d'information vers le cockpit. Cette nouvelle
possibilité va donner lieu à plus d'études sur le type, la qualité, et l'intégration de
l'information disponible aux pilotes.
A coté de cette automatisation accrue, les ordinateurs restent un mythe pour la plupart des
gens. Une question reste cependant sans réponse : est-ce que les ordinateurs vont
conserver leur statut d'outils pour spécialistes ? Il semble que cette direction a déjà
montré ses limites en termes d'acceptation sociale et industrielle. Il n'est pas rare
d'entendre que des grands décideurs ont dépensé des sommes colossales dans le logiciel
informatique pour des résultats très peu satisfaisants. Ceci est dû au fait que les
utilisateurs finaux n'ont pas été pris en compte dans la boucle de conception (nous avons
déjà discuté de ce point dans la section 1.4), et, même si les systèmes développés sont
très "intelligents", ils sont généralement construits par des ingénieurs pour des
ingénieurs... et pas pour une autre classe de professionnels ou tout simplement pour des
gens "ordinaires". Nous pensons que l'évolution de la technologie informatique va nous
forcer à considérer une perspective plus large sur la nature de l'activité humaine. La
technologie ne peut améliorer nos connaissances et notre plaisir que si nous l'utilisons de
la façon adaptée. De ce point de vue, les ordinateurs vont devenir le nouveau médium
utilisé tous les jours par n'importe qui dans n'importe quel endroit du monde pour
échanger et traiter des informations. Brenda Laurel (1991) partage cette idée lorsqu'elle
86
Habilitation - Guy Boy - 1992
déclare que nous devrions "penser à l'ordinateur non comme un outil, mais comme un
médium".
Construire des systèmes à bases de connaissances aujourd'hui consiste à construire des
bases de connaissances depuis le début. Dans le futur, il semble que la tendance soit
tournée vers la réutilisation de composants réutilisables. Les développeurs de systèmes
n'auraient alors qu'à créer des connaissances spécialisées et des mécanismes de traitement
adaptés à la tâche spécifique de leur système. Ce nouveau système va interagir avec des
systèmes existants, les utilisant, par exemple, pour accomplir certaines tâches. De cette
façon, les connaissances déclaratives, les techniques de résolution de problème, et les
services de raisonnement pourraient tous être partagés par une grande quantité de
systèmes. Cette approche est de nature à faciliter la construction de systèmes plus grands
et meilleurs à moindre frais. Cette infrastructure supportant un tel partage et une telle
réutilisation de connaissances amenerait à une plus grande ubiquité de ces systèmes, ce
qui amènerait vers une industrie de la connaissance. Quelques initiatives ont déjà
commencé, comme le projet Cyc développé par MCC Corporation (Guha and Lenat,
1990) qui a pour but de développer une immense base de connaissances de sens commun
sous laquelle "toutes" les applications pourraient être construites. Robert Neches et al.
(1991) ont récemment lancé une nouvelle initiative portant sur une technologie du
partage de la connaissance. Cette vision est basée sur le point de vue de Mark Stefik que
les bases de connaissances vont être le prochain mécanisme d'échange d'information. Un
médium de connaissances basé sur la technologie de l'IA fait partie d'un continuum. Les
livres et d'autres média passifs ne peuvent que stocker des connaissances. A l'autre bout
du spectre, on trouve les systèmes experts qui peuvent stocker et aussi appliquer les
connaissances. Entre ces deux extrêmes il existe un grand nombre de possibilités
hybrides dans lesquelles le traitement des connaissances est principalement accompli par
des êtres humains. Il existe plusieurs opportunités pour établir des partenariats Hommemachine et pour construire de nouveaux outils automatisant les tâches de façon
incrémentale. Comme Winograd et Flores (1987), nous pensons que les outils sont
fondamentaux pour l'action et que par nos actions nous transformons le monde.
Cependant, les transformations qui nous intéressent ne sont pas seulement
technologiques, elles concernent notre propre évolution individuelle et l'évolution de nos
sociétés.
87
Habilitation - Guy Boy - 1992
Hors Contexte ?
"LPP21—S'il vous plaît... dessine-moi un mouton...
ADSE22—... Et si tu es gentil, je te donnerai aussi une corde pour l'attacher
pendant le jour. Et un piquet.
La proposition parut choquer le petit prince:
LPP—L'attacher? Quelle drôle d'idée!
ADSE—Mais si tu ne l'attaches pas, il ira n'importe où, et il se perdra.
Et mon ami eut un nouvel éclat de rire:
LPP—Mais où veux-tu qu'il aille!
ADSE—N'importe où. Droit devant lui...
Alors le petit prince remarqua gravement:
LPP—Ça ne fait rien. c'est tellement petit, chez moi!
Et, avec un peu de mélancolie, peut-être, il ajouta:
LPP—Droit devant soi on ne peut pas aller bien loin..."
Antoine de Saint-Exupéry.
21Le
Petit Prince.
de Saint-Exupéry.
22Antoine
88
Habilitation - Guy Boy - 1992
Références
Addis, T.R. (1987). A framework for knowledge acquisition. Proceedings of the 1st
European Knowledge Acquisition for Knowledge-Based Systems Workshop (EKAW87), Reading, U.K., September 2-3.
Anderson, J.R. (1983). The Architecture of Cognition. Harvard University Press,
Cambridge, Massachusetts.
Amalberti, R., (1986). Human Errors in Some Aeronautics Accidents and Perspectives of
Intelligent Aiding. Proceedings of the First International Conference on HumanMachine Interaction and Artificial Intelligence in Aeronautics and Space, G. Boy
Ed., October 13-14, Toulouse, France.
Billings, C.E., (1991). Human-Centered Aircraft Automation: A Concept and Guidelines.
NASA Technical Memorandum 103885, August.
Boy, G.A. (1983a). Contribution à l'étude de la charge de travail des fonctions de gravité
- Le passage nécessaire par un modèle d'opérateur humain pour analyser la charge
de travail. Mémoire de Diplôme d'Etudes Approfondies, Université Toulouse Le
Mirail, U.E.R. des Sciences du Comportement et de l'Education.
Boy, G.A. (1983b). Le système MESSAGE: un premier pas vers l'analyse assistée par
ordinateur des interactions homme-machine. Le Travail Humain, 46 (2).
Boy, G.A. (1986). An expert system for fault diagnosis in orbital refueling operations.
AIAA 24th Aerospace Science Meeting, Reno, Nevada, January 1986.
Boy, G.A. (1987a). Analytical representation and situational representation. Seminar on
Human Errors and Automation. ENAC, Toulouse, May (in French).
Boy, G.A. (1987b). Operator assistant systems. International Journal of Man-Machine
Studies, 27, pp. 541-554.
Boy, G.A. (1988). Breakdown in Human Adaptation: Designing the Human-Machine
Loop. CEC Discussion Meeting Report, CERT, Toulouse.
Boy, G.A. (1990). Acquiring and Refining Indices According to Context.Proceedings of
the Fifth AAAI-Sponsored Knowledge Acquisition for Knowledge-Based Systems
Workshop, Banff, Canada, November 4-9.
Boy, G.A. (1991a). Intelligent Assistant Systems. Academic Press, London.
Boy, G.A. (1991b). Some Theoretical Issues on the Computer Integrated Documentation
Project. Proceedings of the Sixth AAAI-Sponsored Knowledge Acquisition for
Knowledge-Based Systems Workshop, Banff, Canada, October 6-11.
Boy, G.A. (1991c). Indexing Hypertext Documents in Context.Proceedings of the
Hypertext'91 Conference, San Antonio, Texas, December.
Boy, G.A. (1992). Semantic Correlation in Context: Application in Document
Comparison and Group knowledge design. Proceedings of the AAAI Spring
Symposium on Cognitive Aspects of Knowledge Acquisition, Stanford University.
Boy, G.A. & Caminel, T. (1989). Situation Patterns Acquisition improves the Control of
Complex Dynamic Systems. Proceedings of the Third European Knowledge
Acquisition Workshop, Paris.
Boy, G.A. & Delail, M. (1988). Knowedge Acquisition by Specialization/Structuring: A
Space Telemanipulation Application. Proceedings of the AAAI-88 Workshop on
89
Habilitation - Guy Boy - 1992
Integration of Knowledge Acquisition and Performance Systems, St Paul, Minnesota,
U.S.A.
Boy, G.A., & Mathé, N., (1989). Operator Assistant Systems: An Experimental Approach
Using A Telerobotics Application. IJCAI Workshop on Integrated Human-Machine
Intelligence in Aerospace Systems, Detroit, Michigan, USA, August 21.
Boy, G.A. & Tessier, C. (1985). Cockpit Analysis and Assessment by the MESSGE
Methodology. Proceedings of the 2nd IFAC/IFIP/IFORS/IEA Conference on
Analysis, Design and Evaluation of Man-Machine Systems, G. Mancini, G. Johannsen
and L. Martensson (Eds.), Varese, Italy, September 10-12.
Bradshaw, J.M., Holm, P., Kipersztok, O. & Nguyen, T. (1992). eQuality: An
Application of DDUCKS to the Process Management. Proceedings of the 6th
European Knowledge Acquisition for Knowledge-Based Systems Workshop (EKAW92), Heidelberg and Kaiserslautern, Germany, May 18-22.
Brown, J.S. (1992). Designing for Leveraging the Social Mind: Tapping into the Invisible
Resources of the Periphery. Closing Plenary Talk, CHI'92, Monterey, Californie.
Cahours, B. & Paris, C. (1991). Role and Use of User Models. Proceedings of the IJCAI
Workshop on Agent Modeling for Intelligent Interaction, Sydney, Australie.
Card, S.K., Moran, T.P. & Newell, A. (1983). The Psychology of Human Computer
Interaction, Lawrence Erlbaum Ass., Pub., Hillsdale.
Changeux, J.P. & Conne, A. (1989) Matière à Pensée. Paris: Editions Odile Jacob.
Chase, W.G. & Simon, H.A. (1973). Perception in chess. Cognitive Psychology, 4, pp.5581.
Clancey, W.J. (1990). The Frame of Reference Problem in the design of Intelligent
Machines. In K. Van Lehn & A. Newell, Architectures for Intelligence: The 22nd
Carnegie Symposium of Cognition. Hillsdale: LEA.
Collins, A. & Smith, E.E. (1988). Readings in Cognitive Science - A Perspective from
Psychology and Artificial Intelligence. Morgan Kaufmann Publishers, Inc., San
Mateo, California.
Conklin, J., (1987). Hypertext: An Introduction and Survey. Computer, September.
Coombs, C.H., Dawes, R.M. & Tversky, A. (1975). Psychologie Mathématique. PUF.
Coutaz, J. (1988). Interface Homme-Ordinateur : Conception et Réalisation. Thèse
d'Etat, Université Joseph Fourier, Grenoble.
Dejong, G. (1981). Generalization based on explanation. Proc. IJCAI, pp. 67-69.
de Saint Exupéry, A. (1943). Le Petit Prince. Harcourt, Brace & World, New York.
Dreyfus, S.E. (1982). Formal models vs. human situational understanding: inherent
limitations on the modeling of business expertise. Office: Technology and People, 1 ,
pp.133-165.
Drummond, M., (1989). Situated Control Rules. Proceedings of the First International
Conference on Principle of Knowledge Representation and Reasoning, Morgan
Kaufmann Pub., Toronto, May.
Dubois, D. & Prade, H. (1985). Théorie des Possibilités. Applications à la
Représentation des Connaissances en Informatique. Masson, Paris.
Engelbart, D.C. (1963). A conceptual framework for the augmentation of man's intellect.
In Vistas in Information Handling, Vol. 1. Spartan Books, London.
90
Habilitation - Guy Boy - 1992
Falkenhainer, B.C. (1990). A unified approach to explanation and theory formation. In J.
Shrager & P, Langley (Eds.), Computational models of scientific discovery and theory
formation. Morgan Kaufmann, San Mateo.
Falzon, P. (1986). La communication Homme-machine : Les stratégies de dialogue et le
langage d'interaction. Colloque sur l'Interaction Homme-Machine et l'Intelligence
Artificielle dans les Domaines de l'Aéronautique et de l'Espace, ENSAE, Toulouse,
13-14 octobre.
Falzon, P. (1988). Ergonomie Cognitive du Dialogue. Presses Universitaires de Grenoble.
Feigenbaum, E.A. & Barr, A. (1982). The Handbook of Artificial Intelligence, Vols 1-2.
Kaufmann, Los Altos, CA.
Fensel, D., Angele, J. & Landes, D. (1991). KARL: A Knowledge Acquisition and
Representation Language. Proceedings Expert Systems and their Applications, 11th
International Workshop, Conference "Tools, Techniques and Methods", Avignon.
Fensel, D., (1992). Knowledge acquisition and the qualitative oriented social science.
Proceedings of the AAAI Spring Symposium on Cognitive Aspects of Knowledge
Acquisition, Stanford University.
Ferber, J. (1989). Objets et Agents: Une Etude de la Représentation et des Structures de
Communication en Intelligence Artificielle. Thèse d'Etat. Université Pierre et Marie
Curie, Paris 6, Juin.
Fisher, D. (1987). Knowledge acquisition via incremental conceptual clustering. Machine
Learning, 2, pp. 139-172.
Ford, K.M. & Agnew, N.M. (1992). Expertise: Socially Situated, Personally Constructed,
and "Reality" Relevant. Proceedings of the AAAI 1992 Spring Symposium on the
Cognitive Aspects of Knowledge Acquisition, March 25-27, Stanford University,
California.
Frisse, M.E. & Cousins, S.E. (1989). Information Retrieval from Hypertext: Update on
the Dynamic Medical Handbook Project. Hypertext'89 Proceedings, pp. 199-212,
ACM press, New York.
Gaines, B.R. (1992). The Species as a Cognitive Agent. Proceedings of the AAAI 1992
Spring Symposium on the Cognitive Aspects of Knowledge Acquisition, March 25-27,
Stanford University, California.
Ganascia, J.G. (1992). Exposé sur les modèles. Journées d'Acquisition de Connaissances
et Journées Françaises d'Apprentissage et d'Explication des Connaissances.
Dourdan.
Ganascia, J.G. (1990). L'âme-machine - Les enjeux de l'intelligence artificielle. Seuil,
Paris.
Geddes, N.D., (1985). Intent inferencing using scripts and plans. Proceedings of the First
Annual Aerospace Applications of Artificial Intelligence Conference, Dayton, Ohio.
Gentner, D. (1989). Mechanisms of analogical learning. In S. Vosniadou & A. Ortony
(Eds.) Similarity and analogical reasoning. Cambridge University Press, London.
Guha, R.V. & Lenat, D.B. (1990). Cyc: A Mid-Term Report. AI Magazine, 11(3), pp. 3259.
Hammond, K. (1989). Chef. In C.K. Riesbeck & R.C. Schank (Eds.), Inside Case-Based
Reasoning. Erlbaum, Hillsdale, NJ.
Hayakawa, S.I. (1990). Language in Thought and Action. Fifth Edition. Harcourt, Brace
& Jovanovich, New York.
91
Habilitation - Guy Boy - 1992
Hayes-Roth, B. & Hayes-Roth, F. (1978). Cognitive Process in Planning, Rep. No. R2366-0NR, Rand Corp., Santa Monica, CA.
Hegel, G.W.F. (1929). Science of Logic. George Allen & Unwin, London. Originally
1812-1816 translated by W.H. Johnson & L.G. Struthers.
Heckel, Paul (1984). The Elements of Friendly Software Design. Warner Books, New
York.
Hewitt, C. (1977). Viewing control structures as patterns of message passing. Artificial
Intelligence, 8 (3).
Hollan, J. & Williams, M. (1991). The Craft of Exploiting AI Techniques in Human
Interface Design. Tutorial AAAI conference, Anaheim, California.
Hollnagel, E. (1989). Man-Machine Interaction and Decision Support Systems: User
Modeling and Dialogue Spécification. Update of a paper presented at the IAEA
Technical Committee Meeting on User Requirements for Decision Support Systems,
Vienna, November 1988.
Hutchins, E. (1991). How a Cockpit Remembers its Speeds. NASA Ames Review
Meeting, and Distributed Cognition Laboratory, Department of Cognitive Science,
UCSD, August 12.
Imbert, M., Bertelson, P., Kempson, R., Osherson, D., Schnelle, H., Streitz, N.,
Thomassen, A. & Viviani, P. (1987) Cognitive Science in Europe. Berlin, New York:
Springer Verlag.
Kodratoff, Y. (1988). Introduction to Machine Learning. Morgan Kaufmann Publishers,
San Mateo, CA.
Kolodner, J. (1983). Reconstructive memory: a computer model. Cognitive Science, 7,
pp. 281-328.
Korf, R.E. (1985). Learning to Solve Problems by Searching for Macro-Operators.
Research Notes in Artificial Intelligence, Pitman, Boston.
Langley, P., Simon, H.A. & Bradshaw, G.L. (1987). Heuristics for empirical discovery.
In L. Bolc (Ed.), Computational models of learning. Springer-Verlag, Berlin.
Laurel, B. (1991). Computer as Theatre. Addison Wesley, Reading, Massachusetts.
Lenat, D.B. (1977). The ubiquity of discovery. Artificial Intelligence, 9, pp. 257-285.
Leplat, J. (1985). The elicitation of expert knowledge. NATO Workshop on Intelligent
Decision Support in Process Environments, Rome, Italy. September.
Lesser, V. & Corkill, D. (1983). The distributed vehicle monitoring testbed: a tool for
investigating distributed solving networks. AI Magazine, 4 (3).
Linster, M. (1992). L'ingénierie de la connaissance : une symbiose de deux perspectives
sur le développement des modèles. Actes des 3èmes Journées d'Acquisition de
Connaissances du PRC-IA, Dourdan, 14-16 avril.
Luhn, H.P. (1959). Keyword-in-Context for Technical Literature (KWIC Index),
American Documentation, 11, pp. 288-295.
Mathé, N. (1990). Assistance Intelligente au Controle de Processus: Application a la
Telemanipulation Spatiale. Ph.D. Dissertation, November, ENSAE, Toulouse,
France.
Mathé, N. (1991). Procedures Management and Maintenance. Second ESA Grant
Progress Report, NASA Ames Research Center, California, August.
92
Habilitation - Guy Boy - 1992
McClelland, J.L., Rumelhart, D.E. & The PDP Research Group (1986). Parallel
Distributed Processing. Exploration in the Microstructure of Cognition. Volume 2 :
Psychological and Biological Models. The MIT Press, Cambridge, Massachusetts.
McCulloch, W. & Pitts, W. (1943). A logical calculus of the ideas imminent in nervous
activity. Bulletin of Mathematical Biophysics, 5.
Minsky, M. (1985). The Society of Minds. Touchtone Book, Simon & Schuster
Publishers, Inc., New York.
Mitchell, T.M. (1982). Generalization as search. Artificial Intelligence, 118, pp. 203-226.
Mitchell, T.M., Keller, R.M. & Kedar-Cabelli, S.T. (1986). Explanation-based
generalization: A Unifying view. Machine Learning, 1, pp. 47-80.
Morin, E. (1981). Edgar Morin l'encyclopédant. Le Monde, 29 novembre.
Munford, L. (1934). Technics and Civilization. Harcourt, Brace and World, Inc., New
York, NY.
Nagel, D.C. (1986). Pilots of the future: humans or computers? Invited Talk at the First
Conference on Human-Machine Interaction and Artificial Intelligence in Aeronautics
and Space. Toulouse, October 13-14 1986.
Neches, R., Fikes, R., Finin, T., Gruber, T., Patil, R., Senator, T. & Swartout, R. (1991).
Enabling Technology for Knowledge Sharing. AI Magazine, 12(3), pp. 36-56.
Newell, A. & Simon, H.A. (1972). Human Problem Solving, Englewood Cliffs, N.J.,
Prentice Hall.
Nii, P. (1986). Blackboard systems. AI Magazine, 7 (2-3).
Norman, D., (1981). Categorization of Action Slips. Psychological Review, 88, p. 1-15.
Norman, D.A. & Draper, S.W. (1986). User Centered System Design: New Perspectives
on Human-Computer Interaction. Lawrence Erlbaum Associates, Hillsdale, N.J.
Norman, D.A. (1992). Turn Signals are the Facial Expressions of Automobiles. Addison
Wesley, Reading, Massachusetts.
Palmer, E., & Degani, A. (1991). Electronic Checklists: an Evaluation of two Levels of
Automation. Proceedings of the Sixth Symposium on Aviation Psychology, Columbus,
OH, April.
Pelegrin, M. (1986). Difficultés et risques du semi-automatique. Journées d'Etudes Effets
de l'Automatisation sur la Performance de l'Opérateur Humain, Proceedings, A.
Coblentz Ed., Paris, 27-28 octobre.
Penzias, A. (1989). Ideas and Information. Simon and Schuster, New York, NY.
Pessis-Pasternak, G. (1991). Faut-il brûler Descartes ? Du chaos à l'intelligence
artificielle: quand les scientifiques s'interrogent. Science et Société, Editions La
Découverte, Paris.
Piatteli-Palmarini, M. (1990) Cognitive Science in Europe. Issues and Trends.
Monograph Series no. 1, GOLEM.
Posner, M.I. (1989). Foundations of Cognitive Science. MIT Press, Cambridge,
Massachusetts.
Rappaport, A. (1986). Multiple sub-spaces of problem solving in knowledge acquisition.
Proceedings of the Conference on Human-Machine Interaction and Artificial
Intelligence in Aeronautics and Space. CERT/ENSAE, Toulouse, France, October
1986.
93
Habilitation - Guy Boy - 1992
Rasmussen, J. (1979). On the Structure of Knowledge. A Morphology of Mental Models
in a Man-Machine Context. Riso National Laboratory, Report no.RISO-M-2192,
Rostilde, Denmark.
Rasmussen, J. (1983). Skills, rules and knowledge; signals, signs, and symbols, and other
distinctions in human performance models. IEEE Transactions on Systems, Man, and
Cybernetics, 3, pp. 257-266.
Rasmussen, J. (1986). Information Processing and Human-Machine Interaction - An
Approach to Cognitive Engineering. North Holland Series in System Science and
Engineering, A.P. Sage, Ed
Reason, J. (1986). Decision aids: prostheses or tools ? pp. 7-14 in Cognitive Engineering
in Complex Worlds, eds E. Hollnagel, G. Mancini & D.D. Woods. Academic Press,
London.
Roscoe, S., (1980). Cockpit Workload, Residual Attention and Pilot Errors. Aviation
Psychology, Iowa University Press.
Rosenblatt, F. (1958). The perceptron: a probabilistic model for information storage and
organization in the Brain. Psychological Review, 65.
Rumelhart, D.E., McClelland, J.L. & The PDP Research Group (1986). Parallel
Distributed Processing. Exploration in the Microstructure of Cognition. Volume 1:
Foundations, The MIT Press, Cambridge, Massachusetts.
Salton, G. (1989). Automatic Text Processing. Addison Wesley, Reading, MA.
Schank, R.C. (1991). Where's the AI? AI Magazine, Volume 12, Number 4, Winter.
Schneider, W. & Shiffrin, R.M. (1977a). Controlled and automatic human information
processing: I. Detection, search, and attention. Psychological Review, 84 (1).
Schneider, W. & Shiffrin, R.M. (1977b). Controlled and automatic human information
processing: II. Perceptual learning, automatic attending, and a general theory.
Psychological Review, 84 (2).
Shneiderman, B. (1987a). Designing the User Interface. Addison Wesley, Pub. Comp.,
Menlo Park, CA.
Shalin, V.L., Perschbacher, D.L., & Jamar, P.G., (1988). Intent Recognition: An
Emerging Concept. Proceedings of the 2nd International Conference on HumanMachine Interaction and Artificial Intelligence in Aeronautics and Space, Toulouse,
France, September 28-30.
Shalin, V.L., & Boy, G.A., (1989). Proceedings of the IJCAI-89 Workshop Report on
Integrated Human-Machine Intelligence in Aerospace Systems. Detroit, Michigan,
U.S.A., August.
Sheridan, T.B., (1984), "Supervisory Control of Remote Manipulator, Vehicles and
Dynamic Processes: Experiment in Command and Display Aiding", Advances in
Man-Machine System Research, J.A.I. Press, Vol. 1, pp. 49-137.
Simon, H.A. (1984). L'ordinateur libéré de ses maîtres. Le Monde, 1er avril.
Suchman, L.A., (1987). Plans and Situated Actions. The Problem of Human-Machine
Communication. Cambridge University Press.
Tessier, C. (1984). MESSAGE: A Human Factors Tool for Flight Management Analysis.
Doctoral Thesis, ENSAE, Toulouse, France (in French).
Turing, A.M. (1950). Computing Machinery and Intelligence. Mind, Oxford University
Press, Oxford, England, 5, pp. 433-460.
94
Habilitation - Guy Boy - 1992
Van der Velde, W. (1986). Learning heuristics in second generation expert systems.
Proceedings of the International Conference - Expert Systems and their Applications,
Avignon, France, 1986.
Weyer, S.A. (1988). As we May Learn. In Aubron, S. & Hooper, K. Interactive
Multimedia: Visions of Multimedia for Developers, Educators, & Information
Providers. pp. 87-103, Microsoft Press.
Wickelgren, W.A. (1976a). Network Strength Theory of Storage and Retrieval
Dynamics. Psychological Review 83, pp. 466-478.
Wickelgren, W.A. (1976b). Memory Storage Dynamics. In W.K. Estes, ed., Handbook of
Learning and Cognitive Processes, vol. 4, Erlbaum Associates, Hillsdale, H.J.
Wielinga, B., Schreiber, G. & Breuker, J. (1992). KADS: A modeling approach to
knowledge engineering. Knowledge Acquisition, Special Issue on KADS.
Wiener, E.L. & Curry, R.E. (1980). Flight-deck automation: promises and problems.
NASA TM 81206, Moffett Field, CA, June.
Winograd, T. & Flores, F. (1987). Understanding Computers and Cognition. Addison
Wesley, Reading, Massachusetts.
von Neumann, J. (1966). The Theory of Self-Reproducing Automata. Urbana, University
of Illinois Press.
Woods D.D. & Hollnagel E., (1986). Mapping cognitive demands and activities in
complex problem solving worlds. Proceedings of the Knowledge Acquisition for
Knowledge-Based Systems AAAI Workshop, Banff, Canada, November 1986.
Zadeh, L.A. (1965). Fuzzy Sets. Information and Control. 8, pp. 338-353.
Zadeh, L.A. (1976). Fuzzy sets as a basis for a theory of possibility. Fuzzy Sets and
Systems. 1 (1), pp. 3-28.
Zimmerman, M. (1988). TEX version 0.5. Technical report, Silver Spring, MD.
95