Réseaux de neurones récurrents à fonctions de base radiales : RRFR

Transcription

Réseaux de neurones récurrents à fonctions de base radiales : RRFR
Réseaux de neurones récurrents à fonctions
de base radiales : RRFR
Application à la surveillance dynamique
Ryad Zemouri – Daniel Racoceanu – Noureddine Zerhouni
Laboratoire d’Automatique de Besançon,
Groupe Maintenance et Sûreté de Fonctionnement,
25, Rue Alain Savary
25000 Besançon
France
[email protected] - [email protected] - [email protected]
RÉSUMÉ.
La surveillance des équipements industriels nécessite le traitement d’un certain
nombre de signaux capteurs. Il s’agit essentiellement de détecter toute déviation par rapport
à un comportement de référence, en générant une alarme. C’est alors que la fonction
diagnostic aura pour rôle de localiser l’organe défaillant et d’identifier les causes de la
défaillance. De part leur flexibilité, leur facilité d’exploitation et leur sûreté de
fonctionnement, les Réseaux de neurones à Fonctions de base Radiales (RFR) sont des outils
tout à fait adaptés à ce genre de traitement. Afin d’intégrer la dimension temporelle
essentielle de la surveillance industrielle, nous proposons une nouvelle architecture de RFR
dynamiques appelés RRFR (Réseaux de neurones Récurrents à Fonctions de base Radiales).
Nous montrons ainsi l’adéquation de ce réseau de neurones dynamique par rapport aux
problèmes spécifiques de la surveillance dynamique, comme la détection précoce des paliers
de dégradation et la reconnaissance de fausses alarmes.
ABSTRACT. Monitoring of industrial equipments requires the processing of a certain number of
signals sensors. The aim is to detect any deviation by generating alarms. The diagnosis
function has to locate then the fail and to identify the cause of the failure. Radial Basis
Function (RBF) neural network seems to be a powerful tool for this kind of processing. In
order to consider the dynamic of a monitoring process, we propose a new architecture of
dynamic radial basis function (RRBF - Recurrent Radial Basis Function) neural network. We
demonstrate also the advantages of the RRBF for dynamic monitoring problems like earlier
detection of degradation and false alarms.
MOTS-CLÉS : Surveillance, Detection, Diagnostic, Réseaux de neurone temporel, RFR Réseaux de neurones à fonctions de base radiales.
KEYWORDS: Monitoring, Detection, Diagnosis, Dynamic Neural Network, RBF - Radial
Basis Function.
Journal Européen des Systèmes Automatisés. Volume X – n°X/2002, pages 1 à 33
2
Journal Européen des Systèmes Automatisés. Volume X – n°X/2002
1.
Introduction
Dans un grand nombre d'applications industrielles, une demande croissante est
apparue en matière de remplacement des politiques de maintenance curative par des
stratégies de maintenance préventive. Basée sur la surveillance en continu de
l'évolution de la machine, le rôle de ce type de maintenance est de prévenir un
dysfonctionnement avant qu'il n'arrive et d'écarter les fausses alarmes qui peuvent
ralentir la production (Basseville, 1996).
De nombreux auteurs ont abordé le domaine de la surveillance industrielle
(Combacau, 1991), (Combastel, 2000), (Cussenot, 1996), (Devauchelle, 1991),
(Evsukoff, 1998), (Lefebvre, 2000), (Poulard, 1996), (Toguyeni, 1992), (Weber,
1999), (Zhang, 1999), (GRP – SPSF, 1998), mettant ainsi en évidence l’intérêt
croissant manifesté par la communauté scientifique et les industriels par rapport à
cette problématique.
Le principe de la surveillance consiste à détecter et classer les défaillances en
observant l'évolution du système, puis à les diagnostiquer en localisant les éléments
défaillants et en identifiant les causes premières (Lefebvre, 2000). Un système de
surveillance comporte deux fonctions de base : la détection et le diagnostic. Les
méthodologies de surveillance sont généralement divisées en deux groupes :
méthodologies de surveillance avec modèle et sans modèle (Dash et al., 2000). Les
premières se basent sur l'existence d'un modèle du système et utilisent généralement
les techniques de l'automatique (Combacau, 1991). La deuxième catégorie de
méthodologies est plus intéressante dès lors qu'un modèle formel du système est
inexistant ou difficile à obtenir. Dans ce cas, on utilise les outils de la statistique et
de l'intelligence artificielle (Dubuisson, 1990).
Quelle que soit la méthode ou l'outil utilisé pour la surveillance des systèmes,
l'expert reste un lien irremplaçable entre les informations données par le système de
surveillance et l’action à mettre en place au niveau de l'équipement surveillé. En
effet, tout système de surveillance ne représente qu'un outil d'aide à la décision pour
l'expert. Ces systèmes sont loin d'égaler les capacités de l'opérateur humain à gérer
tous les problèmes complexes de diagnostic. Celui-ci possède en effet les capacités
de perception, de mémorisation, d'apprentissage, de raisonnement logique et
d'adaptation qui représentent des qualités indispensables à l’efficacité de cette
activité.
C'est dans ce sens que les réseaux de neurones artificiels semblent très
intéressants en surveillance. Leur utilisation ne dépend pas de l'existence d'un
modèle formel du système, souvent difficile à obtenir et à reconfigurer, surtout pour
des systèmes complexes. Les réseaux de neurones sont capables d'apprendre,
d'évoluer et de généraliser. Leur parallélisme, ainsi que leur capacité de traiter des
données hétérogènes (données quantitatives et qualitatives), représentent un atout
considérable par rapport à d’autres outils. Dans le cas de notre étude, ces critères
Réseaux de neurones RFR récurrents
3
constituent un très bon argument du choix des outils de l'intelligence artificielle pour
le développement d'un système de surveillance dynamique.
Le réseau de neurone que nous proposons dans cet article, combine les avantages
des réseaux RFR (Réseaux de neurones à Fonctions de base Radiales) avec ceux des
réseaux dynamiques récurrents. En effet, les réseaux RFR se caractérisent par une
certaine souplesse, tant au niveau de l’utilisation qu’au niveau de l’apprentissage.
Dans ce sens, la 2ème partie de cette étude présente le cadre d’utilisation des réseaux
de neurones en surveillance, afin de nous permettre, dans la 3ème section, de mettre
l’accent sur l’adéquation du RFR pour ce type d’application. Ceci nous permet ainsi
de contourner le problème de la lourdeur de l’apprentissage des réseaux récurrents
qui utilisent généralement l’algorithme de rétro propagation (Rumelhart et al.,
1986). Ce type de réseau est connu pour la lenteur du temps d’apprentissage et la
complexité au niveau de sa mise en forme (Hassoun, 1995). D’un autre coté, leur
avantage est d’intégrer implicitement la dimension temporelle, contrairement aux
réseaux qui se base sur une représentation spatiale du temps, à travers une fenêtre
temporelle (Elman, 1990). La 4ème partie constitue par conséquent, un état de l’art
des architectures les plus connues des réseaux de neurones temporels, pour présenter
par la suite une discussion par rapport aux avantages et aux inconvénients de chaque
architecture. On justifie ainsi, dans cette partie, l’intérêt recherché par une nouvelle
représentation dynamique d’un réseau RFR. Cette nouvelle architecture, appelée
RRFR (Réseaux de neurones Récurrents à Fonctions de base Radiales), est ainsi
présentée dans la section 5. A travers deux exemples distincts, nous montrons le
principe d’exploitation du RRFR pour les applications de surveillance dynamique.
Le premier exemple présente les capacités du modèle à apprendre et à prédire une
série temporelle. Cette expérience peut être vue comme une perspective pour des
applications en pronostic et prédiction d’un système non linéaire. Le deuxième
exemple concerne une application de surveillance d’un système à événements
discrets. Nous montrons ainsi les capacités du RRFR pour l’apprentissage de
séquences temporelles. La 6ème section présente une étude de sensibilité du réseau
RRFR. Cette étude aboutit à un exemple de surveillance d’un moteur. Les capacités
de distinguer un palier de dégradation d’un pic de fausse alarme sont ainsi mises en
évidence. Pour finir, la section 7 traite une application de détection et de diagnostic
d’un bras de robot. La complexité de cette application montre que seules les
techniques de l’intelligence artificielle sont capables de traiter ce genre
d’applications, où un modèle formel est quasi impossible à obtenir. La mémoire
dynamique du réseau RRFR, lui permet d’apprendre l’allure des signaux capteur,
afin de pouvoir reconnaître le mode de fonctionnement du robot.
2. Réseaux de neurones et surveillance
Les techniques de surveillance par reconnaissance des formes sont fondées sur
l'existence des classes de fautes (Bernauer, 1996) et non pas sur l'existence d'un
modèle du système. Ces classes sont établies à partir de l'expérience ou de
4
Journal Européen des Systèmes Automatisés. Volume X – n°X/2002
l'historique du système. Le schéma général d'une application de surveillance est de
trouver une relation calculable entre deux variables, de manière à pouvoir prédire ou
estimer les variables de sortie en ne connaissant que les variables d'entrée
(Dubuisson, 2001). Cette phase est mise en œuvre par le processus d'apprentissage.
Selon le type d'application, on peut avoir deux types de relations entrées-sorties :
- Problème de discrimination ou classification : La relation entrées-sorties
représente directement l'opération de diagnostic (Dubuisson, 2001). Les variables
d'entrée peuvent être constituées par les différents paramètres mesurés sur le
procédé. On cherche à associer un mode de fonctionnement (fonctionnement normal
ou dégradé) à ces variables d'entrée.
- Problème de régression ou de prédiction : La relation entrées-sorties peut
également avoir pour objet, non pas de donner un diagnostic direct, mais de
reconstruire une quantité utile à une décision ultérieure.
Les types de réseaux de neurones les plus utilisés dans les problèmes de
surveillance sont le Perceptron Multicouches (PMC) et les Réseaux de neurones à
Fonctions de base Radiales - RFR (Bernauer et al., 1993)-(Freitas et al., 1999)(Keller et al., 1994)-(Petsche et al., 1996)-(Rengaswamy et al., 1995)-(Poulard,
1996)-(Vemuri et al., 1997)-(Vemuri et al., 1998), (Smyth, 1994), (Koivo, 1994).
Lors de la mise en place d’un système de surveillance, l'expert est censé connaître
les modes de bon fonctionnement et certains des modes de défaillance. Ces
connaissances représentent la base d'apprentissage du réseau de neurone. Une telle
base ne peut jamais être exhaustive. En effet, certaines des situations de
disfonctionnement peuvent ne jamais apparaître lors de la surveillance du système.
C'est pour cette raison que le système de surveillance doit être en mesure d'identifier
ces modes inconnus. Ceci est appelé rejet en distance (Dubuisson, 1990). Un autre
critère, aussi important que le premier, consiste à définir une limite décisionnelle du
système de surveillance. Ce compromis n'est généralement pas évident à résoudre :
− Si on élargit le champ de décision du système de surveillance, on élargit la
capacité de généralisation du réseau de neurone. En contrepartie, le système perd de
sa sensibilité par rapport à la détection des défaillances,
− Rétrécir le champ de décision, rend le système plus vulnérable aux fausses
alarmes.
Quoi qu'il en soit, il existe des situations où le système de surveillance ne peut
donner un diagnostic fiable. Ce sont les situations où la probabilité d'appartenance à
une classe n'est pas prépondérante par rapport aux autres classes, et seul l'expert est
en mesure de prendre une décision. Ces situations sont appelées situations de rejet
d'ambiguïté (Dubuisson, 1990).
Les deux situations de rejets (en distance et d’ambiguïté) sont bien évidemment
des applications de classification où la variable de sortie est une variable catégorielle
(discrimination). Dans ce type d'application, les RFR sont mieux adaptés par rapport
aux PMC, et ceci pour les raisons suivantes :
Réseaux de neurones RFR récurrents
5
− De part leur topologie, les RFR, avec leur généralisation locale, sont
parfaitement capables d'intégrer les notions de rejet d'ambiguïté et de distance. En
d'autres termes, ces réseaux sont capables de dire "je ne sais pas". Les PMC ne sont
pas capables d'interpréter les deux situations de rejets.
− Les RFR peuvent se montrer moins gourmands en terme de temps
d'apprentissage et de traitement des données. Ceci est d'autant plus avantageux pour
des applications en ligne (surveillance temps réel) (Hassoun, 1995),
− Un autre point qui fait la différence entre les RFR et les PMC est le
phénomène du sur-apprentissage ou de l'oubli catastrophique (over-training). En
effet, dans les applications de classification, contrairement aux PMC, les RFR ne
sont pas atteints par ce genre de limites d'apprentissage.
Ces avantages ont incité l'intérêt de la communauté scientifique envers ce type
de réseaux de neurones. Plusieurs travaux sur les RFR (connus aussi sous le nom de
réseaux RBF – Radial Basis Function) tous aussi intéressants, ont été publiés ces dix
dernières années. Sans être exhaustif, nous pouvons citer ces quelques références :
(Mak et al., 2000), (Hutchinson, 1994), (Ghosh et al., 1992), (Ghosh et al., 2000),
(Hwang et al., 1997), (Hernandez, 1999), (Poggio et al., 1989), (Mustawi et al.,
1992), (Zemouri et al., 2002b). Le paragraphe suivant est consacré à un bref état de
l'art sur les RFR, ainsi qu’à leurs domaines d’application.
3.
Réseaux de neurones à fonctions de base radiales RFR
3.1. Généralités
Les réseaux de neurones à fonctions de base radiales sont capables de fournir une
représentation locale de l'espace grâce à des fonctions de base dont l'influence est
restreinte à une certaine zone de l'espace. Les paramètres de cette fonction de base
sont donnés par un vecteur de référence (centre ou prototype) [µ j]j=1,…,n et la
dimension σj du champ d'influence. La réponse de la fonction de base dépend donc
de la distance de l'entrée x au vecteur prototype µ j, et de la taille σj du champ
d'influence :
φ j ( x) = φ ( x − µ j , σ j )
[1]
par l’intermédiaire des fonctions φ j (.) , généralement maximales lorsque x = µ j et
qui tendent vers 0 quand x − µ j → ∞ . La gaussienne est ainsi la fonction la plus
employée. Elle s'exprime, sous la forme la plus générale, par la relation suivante :
1
2
φ j (x) = exp(− (x − µ j )t Σ −j 1 (x − µ j ))
[2]
6
Journal Européen des Systèmes Automatisés. Volume X – n°X/2002
où Σ j désigne la matrice de variance-covariance associée à la cellule.
Différents paramétrages de Σ j sont possibles. Un choix courant reste cependant
2
Σ j = σ j I où l'on suppose que la décroissance de la gaussienne est la même pour
toutes les directions de l'espace (gaussienne isotrope). Les courbes d'isoactivation
des cellules cachées sont alors des hyper-sphères. Un nombre restreint de fonctions
de base participent au calcul de la sortie pour une entrée donnée. Les RFR peuvent
être classés en deux catégories, en fonction du type de neurone de sortie : normalisé
et non-normalisé (Mak et al., 2000), (Moody et al., 1989), (Xu, 1998).
3.2 Régression ou prédiction
Ce problème est souvent rencontré en surveillance industrielle. La variable de
sortie du réseau de neurone représente soit une sortie d’un capteur à estimer à partir
de la connaissance d’autres sorties capteur jugées fiables, soit de prédire l’évolution
d’une sortie capteur (Dubuisson, 2001). La solution à ce problème en utilisant les
RFR, passe par le choix d’un groupe de N fonctions de base, centrées aux xn points
d'entrée (n=1,..,N), en utilisant la définition des fonctions radiales avec wn le poids de
la connexion de la néme fonction de base vers le neurone de sortie (Ghosh et al. 1992)
– (Poggio, 1989) :
N
h(x) = ∑ wnφ ( x − x n )
[3]
n =1
Il a été démontré (Michelli, 1986) qu'il existe une classe de fonctions
(gaussiennes, multiquadratique,.) où la matrice Φ = [φij = φ ( µi − µ j , σ j )] est non
singulière. Par conséquent le vecteur de pondération peut s’écrire sous la forme
suivante w = [ wn ]n =1,..., N :
w=Φ -1 .t
[4]
3.3 Classification
Les RFR sont également utilisés dans des problèmes de classification. Dans le
cas d’une application de surveillance, les classes de sortie représentent des modes de
fonctionnement (normal, dégradé, interdit, défaillant, transitoire, critique, …)
(Dubuisson, 2001). En théorie de la classification probabiliste, la loi du vecteur x,
quand on ne connaît pas sa classe d'appartenance, est donnée par la loi mélange f(x) :
M
f (x) = ∑ Pr(α i ) f (x / α i )
i =0
[5]
Réseaux de neurones RFR récurrents
7
f (x / α i ) , supposée connue, représente la loi conditionnelle d'appartenance du
vecteur x dans la classe α i ; Pr(α i ) représente la probabilité à priori des classes α i ,
supposée aussi connue. Par analogie, la sortie d'un RFR présente l'expression
suivante (Ghosh et al., 2000) :
M
f (x) = ∑ wkiφi (x)
[6]
i =0
avec wki représentant le poids de la connexion entre le iéme neurone radial et le kéme
neurone de sortie.
4.
Représentation du temps dans les réseaux de neurones
La représentation donnée par (Chappellier et al., 1996), (Chappellier, 1996) fait
apparaître deux types de solutions : dans les réseaux de neurones, le temps peut être
représenté soit par un mécanisme externe, soit par un mécanisme interne. Ces deux
termes correspondent respectivement à une représentation spatiale et à une
représentation dynamique du temps (Elman, 1990) (Fig.1).
Réseaux de
neurones temporels
Temps, mécanisme externe:
(NETalk)
(TDNN)
(TDRBF)
Temps mécanisme
interne.
Le temps est représenté
explicitement dans
l'architecture
Le temps au niveau
des connexions
Modèle fonction
du temps
Le temps est implicite
( réseau récurrent)
Le temps au niveau
du neurone
Modèle
biologique
Figure 1. Représentation du temps dans les réseaux de neurones
8
Journal Européen des Systèmes Automatisés. Volume X – n°X/2002
4.1. Représentation spatiale du temps
La façon la plus immédiate de représenter le temps dans les réseaux de neurones
est d’utiliser une représentation spatiale du temps. L’information temporelle
contenue dans les données est alors transformée en une information spatiale, c’est à
dire une forme qu’il s’agit de reconnaître. Des lors, les techniques de classification
par réseaux de neurones habituellement employées deviennent applicables. Cette
transformation du temporel en spatial s’obtient par l’utilisation classique de ligne à
retard. Au lieu de présenter au réseau chaque événement, dès son apparition, il
convient d’attendre un certain temps avant de procéder à la classification de la forme
obtenue. Ce type de représentation du temps fait donc appel à un mécanisme externe
qui est chargé de retarder ou de retenir un certain temps les données, ce qui conduit
à l’appeler également représentation externe du temps.
4.1.1.
NETtalk (Sejnowski et al., 1986)
Dans cette application, il s'agit d'apprendre à prononcer un texte en anglais à
partir des phrases proposées lettre après lettre à l'entrée du réseau. NETtalk utilise
une représentation spatiale du temps sous la forme d'une fenêtre temporelle d'une
longueur de 7 lettres. L'objectif est alors de prononcer correctement le phonème qui
se trouve au centre de la fenêtre. Le réseau de neurones utilisé est constitué d'une
couche d'entrée, d'une couche cachée et d'une couche de sortie. L'apprentissage est
réalisé avec l'algorithme de rétropropagation.
4.1.2.
TDNN (Time Delay Neural Networks) (Waibel et al., 1989)
Le TDNN offre un autre exemple de représentation spatiale du temps appliqué à
la reconnaissance de la parole. Une fenêtre temporelle est utilisée à l'entrée du
réseau mais également pour chaque neurone de la couche cachée et de la couche de
sortie. L'apprentissage est réalisé avec la rétropropagation.
4.1.3.
TDRBF (Time Delay Radial Basis Function)
Introduit par Berthold en 1994 pour la reconnaissance de phonèmes (Berthold,
1994), les réseaux TDRBF combinent les caractéristiques des TDNN et des
RFR(RBF). Ce type de réseau de neurone utilise également une fenêtre temporelle à
l’entrée du réseau (comme les TDNN). Son avantage réside dans la simplicité de son
apprentissage (simplicité des techniques d’apprentissage des RFR).
4.2. Représentation dynamique du temps
Il existe un tout autre type de représentation du temps par l'effet qu'il produit.
Ceci conduit à doter le réseau de propriétés dynamiques, d'où le nom de
représentation dynamique du temps. En d’autres termes, cela revient à donner au
Réseaux de neurones RFR récurrents
9
réseau la capacité de mémoriser des informations. Il existe différents moyens de
réaliser une telle mémoire :
4.2.1.
Réseaux récurrents
La connectivité des unités dans les réseaux de neurones récurrents ne se limite
pas, comme dans le cas des réseaux à propagation avant (feedforward), à des
architectures dans lesquelles l'information se propage de l'entrée vers la sortie
couche après couche. Tout type de connexion est admis, c'est à dire d'un neurone à
n'importe quel autre, y compris lui-même. Ceci donne lieu à des comportements
dynamiques qui peuvent être fort complexes. Parmi les architectures les plus
connues, nous pouvons citer le modèle de Hopfield (Hopfield, 1982) basé sur le
concept de mémoire adressée par son contenu (mémoire associative). Ce type de
réseau est généralement utilisé dans des problèmes d'optimisation, où les vecteurs
mémorisés jouent le rôle d'attracteurs. Le réseau se stabilise dans un de ces points en
minimisant sa fonction d'énergie (apprentissage non-supervisé). D'autres
algorithmes d'apprentissage supervisé ont été proposés pour des types de réseau
récurrent à couches. Ce sont des adaptations de l'algorithme de rétro-propagation du
gradient des réseaux feedforward (Rumelhart et al., 1986) - (Le Cun, 1985)(Werbos, 1974). Une de ces adaptations est l'algorithme appelé rétropropagation
récurrente, qui nécessite une inversion de matrice de taille N x N à chaque itération
(Rohwer et al., 1987). Le principe de cet algorithme est de propager l'erreur de la
couche de sortie vers la couche d'entrée, avec une certaine modification des poids et
des fonctions d'activations des neurones. Les poids des connexions récurrentes sont
ainsi mis à jour avec le même principe que la mise à jour des poids dans l'algorithme
de rétropropagation du gradient. Un autre type d'algorithme d'apprentissage pour les
réseaux récurrents est appelé rétropropagation dans le temps. Le but de cet
algorithme est d'obtenir une certaine réponse désirée pour certains neurones à
certains instants. L'idée est de dupliquer les neurones sur l'horizon temporel (t =
1,2,…,T) de façon à ce qu'une unité Vi t représente l'état Vi (t ) du réseau récurrent
équivalent (Rumelhart et al., 1986). Le réseau ainsi déplié est de type feedforward et
peut faire l'objet d'un apprentissage par une version légèrement modifiée de
l'algorithme de la rétropropagation. Williams et Zipser (Williams et al., 1989) ont
proposé un algorithme pour l'apprentissage dans les réseaux entièrement connectés
qui évite d'avoir à dupliquer les unités. Une version de cet algorithme appelée
RTRL1 s'effectue en temps réel ce qui revient à réaliser l'apprentissage pendant que
les données sont présentées au réseau au lieu d'avoir à attendre que la totalité des
données soient produite.
Afin de ne pas trop compliquer le processus d'apprentissage, il existe des réseaux
dynamiques partiellement récurrents. Les connexions récurrentes utilisées
permettent au réseau de prendre en compte les informations d'un passé récent, et
sont généralement fixes (ne font pas l'objet d'un apprentissage). L'architecture
1
. Real Time Recurrent Learning
10
Journal Européen des Systèmes Automatisés. Volume X – n°X/2002
proposée par (Elman, 1990) utilise une couche, appelée couche de contexte, qui
duplique les états des neurones de la couche cachée à l'instant précédent. Une autre
architecture similaire à celle de Elman est proposée par Jordan (Jordan, 1986). Dans
cette architecture, les unités de la couche de contexte reçoivent une copie des états
des unités de la couche de sortie mais tiennent également compte de leur propre état
à l'instant précédent. L’équipe du laboratoire ESPCI de Paris propose une
architecture plus simple que celle de Jordan (Dreyfus et al., 2002). Le vecteur de sortie
du réseau de neurone est réinjecté à l’entrée de celui-ci avec un retard unitaire.
Dans ces trois types d'architectures (Elman, Jordan, Dreyfus), l'algorithme
d'apprentissage utilisé est celui de la rétropropagation du gradient, où les connexions
récurrentes ne sont pas nécessairement modifiables.
4.2.2.
Les connexions à délais
Pour ce type de réseau, chaque connexion possède à la fois un poids et un délai
et où peut exister plus d'une connexion entre deux unités (notamment avec des délais
différents). La difficulté que pose ce type de modèle à délai sur les connexions,
réside dans l'élaboration d'un algorithme d'apprentissage qui permette non seulement
une adaptation des poids des connexions mais également une adaptation des délais.
4.3. Analyse des représentations temporelles
La représentation spatiale du temps, caractérisée par l'emploi d'une métaphore
spatiale du temps, présente plusieurs désavantages. Tout d'abord, elle suppose
l'existence d'une interface avec le monde extérieur dont le rôle est de retarder ou de
retenir les données jusqu'au moment de leur utilisation dans le réseau : comment
connaître l'instant où les données doivent être traitées ? Le second désavantage est
représenté par le fait d'utiliser une fenêtre temporelle (ou des retards) de longueur
finie et déterminée à priori, soit par la plus longue information à traiter, soit en
supposant la même longueur pour toutes les données. Enfin, c'est dans la nature
même de la représentation spatiale que se pose la difficulté de différencier une
position temporelle relative d'une position temporelle absolue (Elman, 1990).
Les réseaux récurrents peuvent exhiber deux types de comportements temporels :
soit ils se stabilisent dans un certain nombre de points d'équilibre, soit ils sont
capables de décrire une trajectoire particulière dans leur espace d'état. Un
changement infinitésimal des conditions initiales ou de la pente d'un point
intermédiaire sur la trajectoire, peut changer le point d'équilibre vers lequel le
système évolue. Ceci rend la procédure d’initialisation du réseau dynamique très
complexe.
Les algorithmes d'apprentissage dans les réseaux récurrent permettent, lorsque
les modèles classiques de type feedforward ont échoué, d'envisager la résolution des
problèmes dans lesquels le temps occupe une place essentielle. Ils offrent également,
Réseaux de neurones RFR récurrents
11
par le fait qu'ils utilisent une représentation dynamique du temps, des potentialités
que n'offrent pas les modèles qui font appel à une représentation spatiale du temps.
Les temps d'apprentissage et les ressources informatiques nécessaires à leur mise en
œuvre peuvent être relativement importantes. Comme pour la plupart des
architectures neuronales, aucune méthode formelle ne permet de dimensionner les
réseaux récurrents par rapport au problème à traiter.
Le réseau de neurone que nous présentons au paragraphe suivant combine les
avantages des réseaux à fonctions de base radiales RFR et ceux des réseaux
récurrents. En effet, le problème de la lourdeur du processus d'apprentissage des
réseaux récurrents peut être éviter grâce à la souplesse de l'apprentissage des RFR.
5. RFR dynamiques : Réseaux de neurones Récurrents à Fonctions de base
Radiales (RRFR)
Le réseau de neurones que nous proposons, considère le temps comme une
représentation interne au réseau (Chappellier, 1996), (Elman, 1990). Cet aspect
dynamique est obtenu par une récurrence des connexions au niveau des neurones de
la couche d'entrée ( 1 ) (Fig.2). Ces auto-connexions procurent aux neurones
d’entrée une capacité de prise en compte d’un certain passé des données en entrée.
On peut ainsi qualifier ces neurones bouclés par mémoire élémentaire dynamique du
réseau de neurones. Le réseau RRFR est donc doté de deux types de mémoires : une
mémoire dynamique (couche 1 ) pour la prise en compte de la dynamique des
données en entrée, et une mémoire statique (couche 2 ) pour mémoriser les
prototypes. La couche de sortie 3 représente la couche de décision.
w11
Entrée
I1
w22
I2
w33
Neurones de sortie
I3
Fonction Sigmoïde
1
Radial Basis Function
2
3
Figure 2. Réseau RRFR (Réseaux Récurrents à Fonctions de base Radiales )
12
Journal Européen des Systèmes Automatisés. Volume X – n°X/2002
5.1. Neurone bouclé
Chaque neurone de la couche d'entrée effectue une sommation à l'instant t entre
son entrée Ii(t) et sa sortie de l'instant précédent x(t-1) pondérée par le poids de
l'auto-connexion wii . Il donne en sortie le résultat de la fonction d'activation :
ai (t ) = wii xi (t − 1) + I i (t )
[7]
xi (t ) = f (ai (t ))
[8]
avec ai(t) et xi(t) représentant respectivement l'activation du neurone i et sa sortie à
l'instant t. f est la fonction d'activation ayant l'expression de la sigmoïde ci-dessous :
f ( x) =
1 − exp(− kx)
1 + exp(−kx)
[9]
où wii représente le poids de l'auto-connexion du neurone i.
Pour mettre en évidence l'influence de cette auto-connexion sur les capacités de
mémorisation dynamique des neurones bouclés, on prend en considération
uniquement l'entrée Ii(t0) = 0 et xi(t0) = 1, en laissant évoluer le neurone sans
l'influence de l'entrée extérieure (Frasconi et al., 1995) - (Bernauer, 1996). La sortie
du neurone a donc l'expression suivante :
x(t ) =
1 − exp(−kwii x(t − 1))
1 + exp(− kwii x(t − 1))
[10]
La figure 3.a montre l’évolution de la sortie du neurone à chaque instant.
xi
t
∆=
xi
ai
wii
∆=
a+
f(ai)
ai
wii
f(ai)
t+1
t+2
a0
(∆)
-a-
ai
a0
ai
a-
-b-
Figure 3. Points d’équilibre du neurone bouclé : - a - comportement d’oubli
( kwii ≤ 2 ). - b - comportement de mémorisation temporaire ( kwii > 2 ).
Réseaux de neurones RFR récurrents
13
Cette évolution dépend de la pente de la droite ∆ (Fig. 3), c’est à dire du poids
de la connexion (wii) et du paramètre k de la fonction d’activation. Les points
d'équilibre du neurone bouclé satisfont l'équation suivante :
a (t ) = wii f (a (t − 1))
[11]
Le point a = a0 = 0 est une première solution évidente de cette équation. Les
autres solutions à l’équilibre s'obtiennent par l'étude des variations de la fonction :
g (a ) = wii f (a ) − a
[12]
En fonction de kwii, le neurone bouclé possède un ou plusieurs points
d'équilibre (Fig.3) :
− Si kwii ≤ 2 , le neurone possède un seul point d'équilibre, alors a0 = 0
− Si kwii > 2 , le neurone possède trois points d'équilibres : a0 = 0, a + > 0, a − < 0.
Pour étudier la stabilité de ces points, on étudie les variations de la fonction de
Lyapunov (Frasconi et al., 1995) - (Bernauer, 1996) :
Dans le cas où kwii ≤ 2 , cette fonction est définie par V (a) = a 2 . On obtient :
∆V = ( wii f (a )) 2 − a 2 = g (a )( wii f (a) + a)
[13]
Si a>0, alors f(a)>0 et g(a)<0. Vu que le poids wii > 0 , nous obtenons ∆V < 0 .
Inversement, si a<0, alors f(a)<0 et g(a)>0. wii > 0 alors on a bien ∆V < 0 . Le point
a0 = 0 est donc un point d'équilibre stable si kwii ≤ 2 avec wii > 0 .
Dans le cas où kwii > 2 , le neurone bouclé possède trois points d'équilibre
a0 = 0, a + > 0 et a - < 0 . Pour étudier la stabilité du point a+ , on défini la fonction
de Lyapunov par V (a) = (a − a + ) 2 (Frasconi et al., 1995) - (Bernauer, 1996). On
obtient ainsi :
∆V = ( wii f (a) − a + ) 2 − (a − a + ) 2 = g (a )[ g (a) + 2(a − a + )]
[14]
Si a>a+, g(a)<0 et [ g (a) + 2(a − a + )] > 0 . On a donc ∆V < 0 . Le raisonnement est le
même dans le cas où a<a+. Le point a+ est donc un point d'équilibre stable. De façon
similaire, on prouve que le point a- est également un point d'équilibre stable. Ainsi,
lorsqu'on s'écarte de a0 = 0, c'est pour atteindre l'un des deux points d'équilibre
stables a+ ou a-. Le point a0 est donc un point d'équilibre instable.
Le neurone bouclé peut ainsi exhiber deux comportements en fonction de kwii :
comportement d'oubli ( kwii ≤ 2 ), et comportement de mémorisation temporaire
( kwii > 2 ). La figure 4 montre l'influence du produit k wii sur le comportement du
neurone bouclé. Dans tous les cas, l'auto-connexion permet au neurone de
mémoriser un certain passé des données d'entrée. Cette auto-connexion peut être
14
Journal Européen des Systèmes Automatisés. Volume X – n°X/2002
obtenue par apprentissage, mais le plus aisé serait de la fixer a priori. Nous verrons
dans les paragraphes suivants, comment ce neurone bouclé peut permettre au réseau
RRFR de traiter des données dynamiques alors que les RFR classiques ne traitent
que des données statiques.
1
0.9
Sortie du neurone
0.8
0.7
0.6
0.5
0.4
kwii = 2, 05
0.3
0.2
0.1
0
20
40
kwii = 2
kwii = 1, 95
kwii = 1,5
0
60
80
100
120
140
160
180
200
Temps
Figure 4. Influence du produit k wii sur le comportement du neurone bouclé. Le
neurone stimulé à t=0, évolue différemment en fonction des deux paramètres.
5.2 Dimensionnement, initialisation et apprentissage des RRFR
L’application du réseau RRFR en surveillance des systèmes dynamiques passe
par trois étapes essentielles : dimensionnement, initialisation et apprentissage.
Les dimensions de la couche d’entrée et de sortie sont définies en fonction de la
dimension du problème. Le nombre de neurones bouclés est égal à la dimension du
vecteur d’entrée. Le nombre de neurones de sortie est égal au nombre de variables
de sortie, pour des applications en régression ; et varie selon le codage adopté pour
représenter la variable catégorielle, pour des applications de classification. Le
nombre de neurones de la couche cachée est déterminé par le processus
d’apprentissage. Cette étape permet également de déterminer les paramètres des
neurones cachés (centres et rayons d’influence des prototypes), ainsi que les poids
des connexions de sortie (uniquement entre la couche cachée et la couche de sortie).
Les paramètres des neurones bouclés sont initialisés en fonction du but recherché
par l’application et du type de variable en entrée. Pour des applications
d’apprentissage de séquences (simples ou complexes) d’événements discrets, les
variables d’entrée sont de type binaire : 1 dans le cas où l’événement associé à
l’entrée du neurone bouclé se produirait et 0 dans le cas contraire. Dans ce type
d’application, on impose un aspect binaire à la fonction d’activation du neurone
bouclé à travers le paramètre k de la sigmoïde [9] (généralement k ≥ 1). On ajuste
ensuite la valeur de l’auto-connexion en fonction de l’aspect dynamique souhaité
pour le neurone bouclé. Si l’information recherchée est l’instant d’apparition d’un
événement Ei d’une séquence, on impose au neurone un comportement
Réseaux de neurones RFR récurrents
15
d’oubli kwii ≤ 2 . La plus longue mémoire est obtenue pour kwii = 2 . Le neurone
bouclé est capable de garder en mémoire une trace d’une occurrence d’un
événement pendent plus de 200 pas de simulation (Fig. 4). Pour avoir les mêmes
performances avec d’autres architectures neuronales utilisant la représentation
spatiale (le TDRBF par exemple), il faudrait une fenêtre temporelle de plus de 200
éléments, ce qui alourdi énormément l’architecture du réseau de neurone. Dans le
cas où l’information recherchée est uniquement l’occurrence d’un événement Ei,
sans s’intéresser au moment de son apparition, on impose au neurone un
comportement de mémorisation kwii > 2 . Par contre, si la variable d’entrée est de
type réel, on impose un aspect pseudo linéaire à la fonction d’activation du neurone
autour de l’origine (point 0). Cet allure est obtenue avec des valeurs petites de k
( k ≈ 0.05 ). On applique le même raisonnement pour déterminer la valeur de l’autoconnexion des neurones bouclés.
L’algorithme d’apprentissage que nous avons adopté pour notre application de
surveillance est le « Dynamic Decay Adjustment (DDA) algorithm», introduit par
Berthold (Berthold et al., 1995). Cette technique est extraite partiellement de
l'algorithme RCE2 (Hudack, 1992). Son principe est d'introduire deux seuils θ − et
θ + afin de réduire les zones de conflits entre prototypes, problème essentiel
rencontré dans l'algorithme RCE. Pour assurer la convergence de l'algorithme
d'apprentissage, le réseau doit satisfaire les deux inégalités [15] ci-après pour chaque
vecteur x de classe c de la base d'apprentissage (Fig.5) :
∃i : φic (x) ≥ θ +
[15]
∀k ≠ c, ∀j : φ jk (x) < θ −
φ
A
B
θ+
θ−
xA
xn
xB
x
Vecteur d'entrée
(classe B)
Figure 5. Ajustement des rayons d’influence avec deux seuils θ − et θ + (algorithme
DDA). Pas d’ajout de prototype pour le nouveau vecteur d’entrée ( φ B (x n ) > θ + ). Le
seuil θ − permet de réduire les zones de conflits par les relations suivantes :
φ B (x A ) < θ − , φ A (x n ) < θ − , φ A (x B ) < θ − .
2
Restricted Coulomb Energy
16
Journal Européen des Systèmes Automatisés. Volume X – n°X/2002
5.3 Test du RRFR sur la reconnaissance de séries temporelles
Le test de l’aspect dynamique du RRFR passe par un test sur des exemples
classiques d’apprentissage et de prédiction de séries temporelles. Ceci peut être vu
comme une première validation pour des applications de pronostic. En effet, la
prédiction de l’évolution d’un système dynamique non linéaire nécessite la prise en
compte et l’apprentissage de la dynamique du système. Nous avons testé le RRFR
sur la série temporelle LogisticMap. Les résultats de la prédiction ont été comparés
avec ceux du TDRBF. La série temporelle est définie par l’expression ci-dessous :
x(t + 1) = 4 x(t ).(1 − x(t ))
[16]
Cette série est considérée comme chaotique dans l’intervalle [0,1], avec comme
valeur initiale x(0)=0.2. Le but de cette application est de prédire la valeur de x(t+1)
à partir des connaissances de x(t) et x(t-1). Nous avons pris les 100 premier points de
la série pour la phase d’apprentissage. Nous avons initialisé les neurones bouclés du
RRFR de telle sorte à avoir un comportement pseudo-linéaire avec la plus longue
mémoire possible ( k ≈ 0.05 et wii = 2 ). Les paramètres des neurones cachés ont été
déterminés par l’algorithme DDA. Les figures 6.(a, b, c, d) présentent les résultats
de prédiction du RRFR ainsi que ceux du TDRBF sur cette série temporelle. Les
performances du RRFR sont nettement supérieures par rapport à celles du TDRBF.
L’erreur de prédiction du RRFR est relativement négligeable, comparée à celle du
TDRBF qui atteint un pic de 0.8 (80% de l’amplitude de la série). Le temps
d’apprentissage est quasi nul pour les deux types de réseaux de neurones3. La
rapidité du processus d’apprentissage est en grande partie due à la souplesse des
RFR qui constitue la base statique des deux modèles.
1
Sortie réelle
Sortie prédite
x 10
-11
0
20
9
0.9
8
0.8
7
0.7
6
0.6
5
0.5
4
0.4
0.3
3
0.2
2
1
0.1
0
20
0
40
60
80
100
120 140 160
180 200
0
40
60
-a0.8
1
0.7
0.8
0.6
0.6
0.5
0.4
0.4
0.2
0.3
0
0.2
-0.2
0
100 120 140 160
180 200
-b-
1.2
-0.4
80
0.1
20
40
60
80
100 120 140 160
180 200
0
0
20
40
60
80
100 120 140 160
180 200
-c-dFigure 6. Comparaison des résultats de prédiction entre le RRFR et le TDRBF (a et
respectivement c). Erreurs de prédiction correspondantes (b respectivement d).
3
≈ 0.5 secondes sur un PC ayant un processeur de 700 Mhz
Réseaux de neurones RFR récurrents
17
5.4 Test du RRFR sur l’apprentissage de séquences d’événements discrets
Dans (Zemouri et al., 2001), nous avons testé le RFR récurent sur un problème
d'apprentissage de séquences simples. Dans le but d’élargir le champ d’application
du RRFR au cadre d’apprentissage des séquences d’événements discrets, nous
considérons le système à événements discrets de la figure 7.a. Le système de
production étudié comporte deux machines M1, M2 avec un temps de traitement
nominal TM1 respectivement TM2. Après traitement sur la machine M1, les pièces
sont mises sur le convoyeur pour être acheminées vers M2 pendant un temps
nominal Ttr. Les informations concernant le fonctionnement du système sont
collectées via quatre capteurs (C1, C2, C3 et C4).
Nous avons utilisé le réseau RRFR pour la détection du mode nominal et
quelques modes dégradés. Ces modes dégradés représentent des séquences où
surviennent des perturbations, soit au niveau des deux machines soit au niveau du
convoyeur. Nous pouvons représenter ce système de production à événements
discrets avec ses perturbations, par un réseau de Petri temporisé (Daniel, 1995),
(Racoceanu et al., 2002) (Fig. 7.b). Les trois places PM1, PM2, Ptr représentent les trois
situations de fonctionnement normal (opération sur la machine M1 ou la machine
M2, ou respectivement convoyage des pièces). Les places P’M1, P’M2 et P’tr
représentent respectivement les trois catégories de perturbations pouvant survenir
sur le système, avec différentes durées possibles (tM1, tM2, ttr). L’impulsion transmise
par les capteurs Ci représente l’entrée externe des neurones bouclés (Fig. 7.c). A
chaque excitation, le neurone bouclé garde en mémoire une trace sur l’instant
d’occurrence de l’événement correspondant pendant au moins 200 pas de
simulations (voir figure 4). A la fin d’une séquence, chaque neurone i exhibe une
sortie xi(t) qui dépend de l’instant d’occurrence de l’événement Ci. Les sorties des
quatre neurones bouclés représentent donc un vecteur caractéristique (prototype) de
chaque type de séquence différent et sera mémorisé par les neurones gaussiens.
Nous avons appris au réseau un mode nominal et trois modes dégradés (pour
trois types de perturbations). Nous avons testé les capacités de généralisation du
réseau RRFR sur la reconnaissance de situations proches de celles qui ont été
apprises. Nous avons aussi testé les capacités du RRFR à détecter de nouveaux
modes dégradés. Le tableau 1 montre les résultats de cette application. La partie
apprentissage présente les données de l’apprentissage avec les sorties du réseau pour
chaque mode (nominal : MN, mode dégradé 1, 2 et 3 : M.D1, M.D2 et M.D3). La
partie test présente les résultats des capacités de généralisation du RRFR. Les
résultats de détection de nouveaux modes sont présentés sur la dernière partie du
tableau. Ces résultats expérimentaux montrent que la mémoire dynamique du réseau
RRFR permet d’apprendre des séquences d’événements discrets avec une certaine
souplesse de l’algorithme d’apprentissage. Grâce à sa généralisation locale, le réseau
est capable d’identifier des modes proches de ceux déjà appris, et de détecter de
nouvelles situations qui n’ont pas encore été rencontrées.
18
Journal Européen des Systèmes Automatisés. Volume X – n°X/2002
Per1
C1
C1
tM1
TM1
PM1
P’M1
Mode Nominal
C2
Per2
C2
Ptr
C4
C3
Machine M2
TM1
Ttr
C3
P’tr
Per3
C3
C1
C2
Machine M1
Mode dégradé 1
ttr
Ttr
PM2
Mode dégradé n
C4
tM2
TM2
P’M2
1
C4
TM2
-a-
-b-
2
3
-c-
Figure 7. a - Système à événements discrets étudié, b - Modélisation du système par
un réseau de Petri temporisé à synchronisations internes, c - Réseau RRFR utilisé
pour l’apprentissage des séquences d’événements discrets du système.
Paramètres du système
Perturbations
Réponse du Réseau de
TM2
Ttr
tM1
tM2
ttr
Apprentis
-sage
10
20
15
0
0
0
1
0
0
10
20
15
5
0
0
0
1
0
0
10
20
15
0
10
0
0
0
1
0
10
20
15
0
0
10
20
15
10
20
15
4
10
20
15
6
10
20
15
0
8
0
10
20
15
0
12
0
10
20
15
0
0
6
10
20
15
0
0
10
20
15
5
2
10
20
15
-5
+5
10
20
15
-5
10
20
15
0
Détection
de
nouveaux
modes
TM1
Validation des modes
connus
neurones
M.N M.D1 M.D2 M.D3
0
7
0
0
0
1
0
0.92
0.4
0
0
0
0
0.58
0.97
0
0
0
0
0.31
0.97
0
0
0
0
0.78
0
0
0
0.8
0
0
0
0
0.7
8
0
0
0
0.7
-7
0
0
0
0
0
0,21
0.09
0.02
0
0
+5
0
0
0
0.05
+5
-5
0
0
0
0
+0,5 -0,5
Tableau 1. résultats de l’application du réseau RRFR sur l’apprentissage des
séquences du système de la figure 7.a. Les Ti représentent les temps nominaux, et les
ti sont des perturbations pouvant agir sur le système. Les colonnes M.N, M.D1,
M.D2, M.D3 sont les réponses des classes de sortie (mode nominal et les trois
modes dégradés). La partie apprentissage représente les données utilisées pour
l’apprentissage des quatre modes. Les deux autres parties donnent les résultats du
réseau RRFR pour la reconnaissance des modes connus et pour la détection des
nouveaux modes (jusqu’alors inconnus par le réseau).
Réseaux de neurones RFR récurrents
6.
19
Application du RRFR en surveillance dynamique
Comme on l'a vu précédemment, pour des applications de surveillance par
classification, les RFR sont les outils qui semblent être les plus appropriés. Le
principe d'une telle utilisation se base sur l'existence d'une base de donnée. Dans la
pratique industrielle, aussi riche soit-elles, les informations concernant les
défaillances ne peuvent jamais être exhaustives. Cette caractéristique essentielle des
problèmes de surveillance est très bien prise en compte par la topologie du RRFR.
Sa propriété de généralisation locale lui permet de reconnaître des situations
nouvelles, offrant ainsi la possibilité à l'opérateur de mettre à jour sa base de
connaissance.
Pour montrer l'intérêt de l’auto-connexion des neurones d’entrée du RRFR sur le
traitement dynamique d'un signal capteur dans une application de surveillance
(Zemouri et al., 2002a), nous considérons, pour commencer, un exemple simple avec
un seul signal d'entrée S (t ) et deux modes connus (Fig. 8) :
− Mode 1 : Un mode de fonctionnement nominal,
− Mode 2 : Un mode de défaillance connu.
Mode 1
wii
Rbf(t)
X(t)
Signal d’entrée
Mode 2
X(t)
S(t)
Rdef(t)
Neurone bouclé
Radial Basis
Function
Neurone de
sortie
Figure 8. Modèle neuronal de surveillance
Les deux modes sont représentés par les deux neurones de la couche cachée,
centrés sur le prototype xi (t ) . Ce prototype représente le régime permanent de la
sortie du neurone bouclé correspondant aux deux modes connus (Fig.9) :
x(∞) = lim
t →∞
1 − exp(− k ( wii x(t − 1) + s (t )))
1 + exp(− k ( wii x(t − 1) + s (t )))
[17]
Notre modèle de surveillance neuronal aura donc deux fonctions à assurer :
détection et diagnostic des défaillances. La fonction détection est assurée par le
neurone correspondant au mode de fonctionnement nominal. La sortie de ce neurone
est au maximum quand le système est à son fonctionnement nominal et diminue
d'une manière uniforme si le système s'écarte du mode nominal. La fonction
diagnostic est assurée par le neurone correspondant au mode de défaillance connu.
Ce neurone réagit dans le cas où le système se trouverait dans ce mode de
défaillance. Dans le cas contraire, aucun neurone ne donne de réponse. Cette
situation n'est rien d'autre qu’un rejet en ambiguïté (Dubuisson, 1990).
20
Journal Européen des Systèmes Automatisés. Volume X – n°X/2002
S(t)
x(t)
défaillance
Fausse alarme
xdef
sdef
Mode de défaillance
Zone d’ambiguïté
sbf
xbf
Mode nominal
t
R(t)
Figure 9. Correspondance entre la valeur d’entrée du signal capteur et le prototype
mémorisé
6.1. Détection d’un palier de dégradation. Sensibilité du neurone bouclé
Nous allons étudier la sensibilité du neurone bouclé par rapport aux variations du
signal d’entrée. Cette étude correspond à l’analyse de la sensibilité du RRFR
(neurone d’entrée bouclé) face au RFR (neurone d’entrée linéaire). Nous verrons
que cette sensibilité dépend essentiellement du produit kw. Pour des raisons de
simplicités de calcul, nous avons étudié le rapport inverse dS/dx. Toutefois, nous
revenons à l’expression classique de la sensibilité dx/dS lors de l’interprétation de
nos résultats.
Définition du palier de dégradation
~
On associe l’apparition d’un palier de dégradation entre S et S * d’un signal
capteur S (t ) à l'existence d'au moins une valeur intermédiaire S ε telle que :
~
S < Sε < S*
[18]
En d’autres termes :
~
S* − S
∃η > 0 /
=η
∆t
[19]
Propriété 1
Pour un réseau de neurones dynamique de type RRFR :
2
• si − wii > 1 , alors le neurone bouclé est plus robuste qu’un neurone linéaire
k
donc le RRFR est plus robuste que le RFR (statique) ;
Réseaux de neurones RFR récurrents
•
si
21
2
+
− wii ≤ 1 alors , ∃ S1 ∈ ℜ tel que :
k
- ∀S ∈ ]−∞, − S1 ] ∪ [ + S1 , +∞[ , le neurone bouclé est plus robuste qu’un neurone
linéaire,
- ∀S ∈ [ − S1 , + S1 ] , le neurone bouclé est plus sensible qu’un neurone linéaire.
avec k le paramètre de la sigmoïde, wii le poids le l’auto-connexion du neurone
bouclé et S le signal d’entrée du réseau de neurones.
Démonstration
Pour étudier la sensibilité du neurone bouclé, on considère l’expression du
régime permanent x de sa sortie :
x=
1 − exp(−k ( wii x + S ))
1 + exp(−k ( wii x + S ))
[20]
En écrivant l’expression de S en fonction de x, nous avons par conséquent :
1 1− x
S = − ln(
) − wii x
k 1+ x
[21]
Pour avoir un rapport entre les variations de S et celle de x, on calcule la dérivée
de S par rapport à x :
dS 2
1
= ×
− wii
dx k 1 − x 2
On étudie la sensibilité du neurone bouclé en évaluant
[22]
dS
par rapport à 1 :
dx
dS
2
1
1
k (1 + wii )
2
=1 ⇒ ×
− wii = 1 ⇒
=
⇒ x 2 − (1 −
)=0
2
2
dx
k 1− x
1− x
2
k (1 + wii )
Si
1−
2
2
< 0 ⇒ − wii > 1
k (1 + wii )
k
[23]
[24]
l’équation [23] n’admet pas de solution,
Si
1−
2
2
≥ 0 ⇒ − wii ≤ 1
k (1 + wii )
k
[25]
22
Journal Européen des Systèmes Automatisés. Volume X – n°X/2002
l’équation [23] admet deux solutions :
x11 = + 1 −
2
k (1 + wii )
, x12 = − 1 −
2
k (1 + wii )
[26]
Le tableau des variations de [23] est défini en fonction de k et wii :
x
-1
0
+1
+∞
dS
dx
x
x11
+1
dS
dx
+∞
+1
2
− wii
k
+1
∀x ∈ ]−1, +1[ /
0
+∞
+∞
2
− wii
k
x12
-1
dS
>1
dx
dS
>1
dx
dS
<1
dx
dS
>1
dx
Tableau 2. Sensibilité du neurone bouclé en fonction du paramètre k de la sigmoïde
et du poids de l’auto-connexion wii
Nous obtenons les résultats suivants :
•
•
2
dS
dx
− wii > 1 alors ∀x ∈ ]−1, +1[ /
>1 ⇒
< 1 , le neurone bouclé est plus
k
dx
dS
robuste qu’un neurone linéaire
2
si − wii ≤ 1 alors ;
k
dS
dx
∀x ∈  −1, x12  ∪  x11 , +1 /
≥1 ⇒
≤ 1 le neurone bouclé est plus
dx
dS
robuste qu’un neurone linéaire
dS
dx
∀x ∈  x12 , x11  /
≤1 ⇒
≥ 1 le neurone bouclé est plus sensible qu’un
dx
dS
neurone linéaire
si
La valeur de S1 de la propriété 1 se déduit de l’expression [26] en utilisant la
relation [21].
6.2. Détection d’une fausse alarme
Soit x le régime permanent de la sortie du neurone bouclé correspondant au
régime permanent du signal d'entrée S . On définit un changement brusque du signal
d'entrée par un passage de S à S * en un laps de temps relativement nul. On peut
formaliser ce changement par l'expression suivante :
Réseaux de neurones RFR récurrents
S * − S
≈ +∞
∆t
23
[27]
Propriété 2
Le réseau RRFR présente une structure insensible aux fausses alarmes.
Démonstration
Soit la réponse du neurone bouclé pour un pic de changement brusque S * ([27]) :
x* =
1 − exp(−k ( wii x + S * ))
1 + exp(−k ( w x + S * ))
[28]
ii
Pour étudier la sortie du neurone bouclé face à un pic de fausse alarme [27] et un
palier de dégradation [19], on compare l’expression [28] et la sortie x** pour S * de
la relation [18] (Fig. 10).
S
wii
Signal
d’entrée
x(t)
x
<
Sε
xε
S(t)
<
S*
x**
x
*
(Palier de dégradation)
( Fausse alarme)
Figure 10. Principe de calcul des sorties du neurone bouclé face à un pic de fausse
alarme et un palier de dégradation
Pour la valeur intermédiaire S ε du signal d’entrée, la sortie du neurone bouclé
présente la forme suivante :
xε =
1 − exp(−k ( wii x + S ε ))
1 + exp(−k ( w x + S ε ))
[29]
ii
Comme la fonction sigmoïde est strictement croissante et que wii > 0 , on obtient
la relation suivante :
xε > x
[30]
La sortie du neurone bouclé pour la valeur S * devient par conséquent :
x** =
1 − exp(−k ( wii xε + S * ))
1 + exp(−k ( wii xε + S * ))
[31]
24
Journal Européen des Systèmes Automatisés. Volume X – n°X/2002
Si l'on considère que wii > 0 , on obtient par la suite :
wii xε + S * > wii x + S *
[32]
x** > x*
[33]
donc :
La sortie du neurone bouclé, de fonction d’activation sigmoïde, est donc
différente dans le cas où on aurait un changement brusque du signal d'entrée et dans
le cas où il s’agirait d’un palier de dégradation. La réponse du neurone bouclé est
plus importante dans le deuxième cas. La sortie du neurone radial, correspondant au
mode de bon fonctionnement, sera donc différente pour les deux situations :
Φ bf ( x − x* ) > Φ bf ( x − x** )
[34]
La figure 11 résume les deux cas étudiés précédemment. La sortie x(t) du
neurone bouclé et bien différente pour le cas d’un palier de dégradation et le cas
d’une fausse alarme. Les neurones de fonction d’activation radiale auront par
conséquent des réponses déférentes.
S(t)
x(t)
100
90
Palier de
dégradation
80
70
Fausse
alarme
60
50
x(t)
x(t)
40
30
20
S(t)
10
S(t)
0
0
temps
t
Figure 11. Réponse du réseau de neurone pour une fausse alarme et un palier de
dégradation
6.3 Exemple d’application : surveillance d’un moteur électrique
Nous présentons les résultats d’un test du réseau RRFR pour la surveillance d’un
moteur électrique dont le but est de valider les résultats concernant la détection
d’une vraie dégradation et l’élimination des fausses alarmes. Le traitement effectué
concerne la surveillance de la vitesse de rotation du moteur. Cette donnée est
récupérée grâce à un tachymètre monté sur l’arbre du moteur et ensuite numérisée.
Réseaux de neurones RFR récurrents
25
La programmation du réseau de neurone a été effectuée sous Matlab/Simulink. La
figure 12 montre le schéma de l’application.
Mesure de vitesse
moteur
Numérisation
Mode 1
wii
Programmation
Mode 2
S(t)
Neurone bouclé
Neurone de sortie
Radial Basis Function
Réseaux de neurone
RFR dynamique
Figure 12. Schéma d’application de la surveillance d’un moteur.
Pour mettre en évidence le traitement dynamique du réseau de neurones, nous
avons volontairement appliqué au moteur deux types de perturbations externes. Des
frottements au niveau de l’arbre de rotation qui peuvent être assimilé à une
dégradation (roulement défaillant, arbre défaillant,…) et des perturbations au niveau
du capteur de vitesse pouvant représenter des bruits de mesure (fausse alarme). Ces
bruits de mesures provoquent une chute de tension dont l’amplitude est supérieure à
celle causée par les frottements. La figure 13.a montre les mesures de vitesse
effectuées sur l’arbre du moteur avec les deux types de perturbations.
0.5
20
18
0.48
16
0.46
14
12
0.44
10
bruits
0.42
Frottements
8
6
0.4
4
0.38
2
0
0
500
1000
1500
2000
- a - mesure de vitesse
2500
0.36
0
500
1000
1500
2000
2500
- b - réponse du neurone bouclé
Figure 13. Mesure de la vitesse de rotation et réponse du neurone bouclé avec les
deux types de perturbations : frottements et bruits de mesures.
La sortie du neurone bouclé excité par la vitesse de rotation du moteur est
schématisée par la figure 13.b. Les paramètres de ce neurone sont obtenus de telle
sorte à avoir une mémoire dynamique la plus grande possible ( kwii = 2 ). Le
neurone bouclé est bien capable de dissocier une fausse alarme (un bruit
d’acquisition) d’une vraie dégradation des performances.
26
Journal Européen des Systèmes Automatisés. Volume X – n°X/2002
7.
Application
Nous présentons les résultats de l’application du réseau RRFR sur un problème
de surveillance d’un bras de robot d’une cellule d’assemblage. Cette application a
été construite à partir des données réelles du benchmark « Robot Execution
Failures4 ». Le problème consiste à établir un système de supervision intelligent
aidant l’expert dans ces prises de décisions par rapport aux défaillances. Ces
défaillances sont classées en trois catégories (Camarinha-Matos et al., 1996) :
- Défaillances d’exécution : essentiellement des erreurs au niveau du bras de
robot rencontrées lors de l’exécution d’une tache (collisions, obstruction, etc.) ;
- Evénements externes qui peuvent perturber le bon fonctionnement du robot ;
- Erreurs système (hardware ou software), qui perturbent tout le système
d’assemblage.
Dans notre application, nous nous intéressons qu’aux défaillances d’exécution,
en l’occurrence, la détection d’une collision et l’identification du type de collision.
Le bras du robot est muni de trois capteurs de force (Fx, Fy, Fz) (Fig. 14). Les
réponses données par ces trois capteurs nous renseignerons sur l’état de
fonctionnement du bras. Quatre types de défaillances sont susceptibles de se
produire (Fig. 15) : collision frontale, collision par derrière, collision à gauche et
collision à droite. Le réseau RRFR aura pour rôle d’apprendre l’allure des trois
signaux, en fonction de chaque défaillance, et de pouvoir classer ensuite chaque
défaillance à partir de la connaissance des trois signaux capteurs.
Fx
Mode Normal
Capteurs de
forces (Fx, Fy, Fz)
Fy
Fz
Collision Devant
Collision Derrière
Collision Droite
Collision Gauche
Figure 14. Application du réseau RRFR pour la surveillance d’un bras de robot.
Les sorties des trois capteurs de forces constituent les entrées du réseau RRFR.
L’apprentissage permet de définir le nombre, ainsi que les paramètres des neurones
gaussiens.
4
Données disponibles sur le serveur de The UCI KDD Archive [http://kdd.ics.uci.edu].
Irvine, CA: University of California, Department of Information and Computer Science.
Réseaux de neurones RFR récurrents
gauche
droite
Vue de face
Derrière
27
devant
Vue de profile
Figure 15. Différents types de collisions possibles du robot lors de l’exécution d’une
tache : collision frontale, par derrière, à gauche ou par la droite.
La réponse des trois capteurs dépend du type de défaillance (Fig. 16). Dans
(Camarinha-Matos et al., 1996), les auteurs ont procédé en premier à un traitement
des données capteur pour extraire des informations pertinentes de chaque classe
(essentiellement un calcul de moyenne des signaux capteurs), puis à une phase
d’élaboration de règles d’inférences pour classer les défaillances. Cette phase
représente toute la difficulté de leur approche, car il faut d’un coté fournir un effort
pour identifier les tendances de chaque signal pour chaque classe, et également
établir des bornes de décision pour chaque paramètre (si Fz ∈ [a, b[ et F x ∈ [c, d[ ,
alors situation = collision frontale). La simplicité de notre méthode réside dans la
souplesse de la phase d’apprentissage qui intègre implicitement les tendances de
chaque signal, en fonction du mode de fonctionnement. La mémoire dynamique
permet donc au RRFR d’apprendre les allures des signaux pour chaque mode.
La base de données de cette application contient 47 échantillons avec la
distribution suivante : 43% mode normal, 13% mode collision frontale, 15% mode
collision par derrière, 11% mode collision à droite et 19% collision à gauche. Nous
considérons un échantillon par mode pour l’apprentissage du réseau RRFR. La
dynamique de chaque signal est prise en compte par un neurone bouclé (Fig. 14).
Nous configurons ainsi les paramètres de ce neurone bouclé, de telle sorte à avoir la
plus longue mémoire possible, avec un aspect quasi-linéaire de sa fonction
d’activation autour du point d’origine (zéro) (voir paragraphe 5.2). La taille de la
mémoire statique (neurones gaussiens) est déterminée par l’algorithme
d’apprentissage DDA5. Les paramètres des 12 neurones gaussiens sont déterminés
avec les valeurs de θ+ = 0,4 et θ - = 0,1. Chaque échantillon est composé de 15
mesures (Fig. 16). A chaque échantillonnage du signal d’acquisition, nous
présentons au réseau les valeurs des trois mesures de forces (Fx, Fy, Fz) de chaque
classe. Le réseau converge au bout d’un temps d’apprentissage relativement court
(0.3 secondes sur un PC de 700 Mhz de fréquence d’horloge). La réponse du réseau
est donnée par la couche de décision (la couche de sortie), composée par un neurone
pour chaque classe (Fig. 14).
5
Dynamic Decay Adjustment
28
Journal Européen des Systèmes Automatisés. Volume X – n°X/2002
150
200
100
150
Fz
150
100
100
80
Fz
Fz
50
50
100
0
60
Fx
Fz
0
40
-50
20
Fx
50
Fy
Fx
Fy
Fy
-50
0
-100
0
5
10
15
20
-100
Fy
Fx
25
-acollision frontale
30
-50
0
5
10
15
20
25
-150
0
30
-bcollision par derrière
0
5
10
15
20
25
30
-20
0
-ccollision à droite
5
10
15
20
25
30
-dcollision à gauche
Figure 16. Réponses des capteurs de force (Fx, Fy et Fz) pour chaque type de
collision.
Les résultats obtenus par le réseau RRFR sont donnés par le tableau ci-dessous :
mode
détection Diagnostic
Collision Frontale
100%
60%
Collision par derrière
100%
16,5%
Collision à droite
100%
75%
Collision à gauche
100%
25%
Tableau 3. Résultats du RRFR sur la détection et le diagnostic de chaque
défaillance.
On remarque que le réseau de neurone détecte automatiquement (à 100 %) toutes
les défaillances du système. Ceci s’explique par le faite que les signaux d’entrée du
réseau s’écartent de la zone de couverture du mode normale (zone couverte par le
prototype du mode normal). Le diagnostic est assuré par les prototypes
correspondant à chaque mode de défaillance. Le taux de réussite du diagnostic pour
les deux cas de collision (frontale et à droite) est relativement intéressant
(respectivement 60 et 75 %). Les trois mesures de force évoluent pratiquement selon
la même tendance pour chacune de ces deux types de collisions. Par contre, la
réponse des forces pour les types de collisions par derrière et par la gauche est très
atypique (Camarinha-Matos et al., 1996). Ceci induit des précisions réduites du
diagnostic et reflète toute la complexité d’une telle application. D’un autre coté, la
solution neuronale dynamique RRFR semble la seule à pouvoir exprimer une telle
relation de cause à effet (entrée – sortie) pour le diagnostic. Un modèle formel de
défaillances est dans ce cas quasi impossible à obtenir.
Réseaux de neurones RFR récurrents
8.
29
Conclusion
Dans cet article, nous avons présenté une application des réseaux de neurones à
fonctions de base radiales (RFR) en surveillance des systèmes de production. Ces
réseaux semblent être les plus appropriés pour ce type d’application et ce pour leur
capacité d’interprétation des rejets d’ambiguïté et de distance. Ces deux situations de
rejets sont très importantes en surveillance, car elles permettent au réseau de
reconnaître de nouvelles situations, tout en laissant une marge décisionnelle
importante à l’expert humain. Ce dernier reste tout de même le seul organe de
décision avant d’agir sur le système.
L’aspect temporel joue souvent un rôle déterminant dans la surveillance des
systèmes dynamiques. La détection d’une fausse alarme où la détection précoce de
dégradation ne peut se faire qu’avec une prise en compte de l’aspect dynamique des
données. Le RFR dynamique présenté dans cet article intègre le temps via une autoconnexion des neurones d’entrée. Nous avons montré que ce RFR dynamique
(appelé RRFR - Réseaux de neurones Récurrents à Fonctions de base Radiales ) est
capable de dissocier un palier de dégradation d'une fausse alarme. Cette
caractéristique peut s'avérer très importante pour un système de surveillance, car
subir l'arrêt d'une machine pour cause de fausse alarme peut engendrer des pertes
économiques très importantes pour l'entreprise. D’un autre coté, cette situation est
souvent mal vécue dans l'atelier de production et par l'équipe de maintenance.
Pour illustrer l’efficacité de l’outil RRFR, nous avons appliqué notre modèle sur
un problème de surveillance d’un bras de robot. La mémoire dynamique du réseau
RFR permet au réseau de neurone d’apprendre l’allure des signaux capteur en
fonction des modes de défaillance. Nous avons montré que notre modèle est capable
de traiter des situations complexes. D’autres méthodes qui se basent sur l’existence
de modèle formel du système sont incapables de fournir une relation de cause à effet
pour le diagnostic. Le domaine du pronostic se situe donc à la frontière de nos
recherches et constituera par la suite une de nos préoccupations majeures.
9.
Références
Basseville M., Cordier M.O., Surveillance et diagnostic des systèmes dynamiques : approche
complémentaire du traitement du signal et de l'intelligence artificielle, rapport de
recherche n° 2861, 1996, INRIA.
Bernauer E., Demmou H., « Temporal sequence learning with neural networks for process
fault détection », IEEE International Conference on Systems, Man, and Cybernetics,
IEEE-SMC 93, vol. 2, Le Touquet France 1993, p. 375-380.
Bernauer E., Les réseaux de neurones et l'aide au diagnostic : un modèle de neurones bouclés
pour l'apprentissage de séquences temporelles, thèse de doctorat, LAAS 1996.
Berthold M. R., « A Time Delay Radial Basis Function Network for Phoneme Recognition »,
Proceedings of International Conference on Neural Networks, Orlando 1994
30
Journal Européen des Systèmes Automatisés. Volume X – n°X/2002
Berthold M. R., Diamond J., « Boosting the Performance of RBF Networks with Dynamic
Decay Adjustment » Advances in Neural Information Processing Systems, Gerald
Tesauro, David S. Touretzky, and Todd K. Leen editors, vol. 7, p. 521-528, MIT Press,
Cambridge, MA, 1995
Camarinha-Matos, L.M., L. Seabra Lopes, and J. Barata «Integration and Learning in
Supervision of Flexible Assembly Systems», IEEE Transactions on Robotics and
Automation, vol. 12, n°2, 1996, p. 202-219.
Chappelier J.C., RST : une architecture connexionniste pour la prise en compte de relations
spatiales et temporelles. Thèse de doctorat, Ecole Nationale Supérieure des
Télécommunications, janvier 1996.
Chappelier J.C., Grumbach A., « A Kohonen Map for Temporal Sequences », Proceeding of
neural Networks and Their Application, NEURAP'96, IUSPIM, Marseille, mars 1996, p.
104-110.
Combacau M., Commande et surveillance des systèmes à événements discrets complexes :
application aux ateliers flexibles, thèse de Doctorat, Université P.Sabatier de Toulouse
1991.
Combastel C., Méthodes d'aide à la décision pour la détection et la localisation de défauts
dans les entraînements électriques Thèse de Doctorat INPG, 2000.
Cussenot C., Surveillance et diagnostic de la chaîne de dépollution d'une automobile, Thèse
de doctorat, Université de Rennes 1, 1996.
Daniel O., Les réseaux de Pétri stochastiques pour l'évaluation des attributs de la sûreté de
fonctionnement des systèmes manufacturiers, Thèse de doctorat, Laboratoire
d'Automatique de Grenoble, Institut National Polytechnique de Grenoble, janvier 1995.
Dash S., Venkatasubramanian V., « Challenges in the industrial applications of fault
diagnostic systems », Proceedings of the conference on Process Systems Engineering
Comput. & Chem. Engng24 (2-7), Keystone, Colorado, July 2000, p. 785-791.
Demmou H., Bernauer E., « Using Self-Recurrent Neurons For Fault Detection and
Diagnosis », 3ème IFAC en WIMS, Romania 1995
Devauchelle G., Diagnostic mécanique des fatigues sur les structures soumises à des
vibrations en ambiance de travail, Thèse de Doctorat, Université de Paris IX Dauphine,
1991
Dreyfus G., Martinez J-M., Samuelides M., Gordon M.B., Badran F., Thiria S., Hérault L.,
Réseaux de neurone, Méthodologies et Application, Paris, Edition Eyrolles, 2002
Dubuisson B., Diagnostic et reconnaissance des formes, Paris, Edition Hermès, 1990.
Dubuisson B., Diagnostic, intelligence artificielle et reconnaissance des formes, Paris,
Edition Hermès, 2001.
Duda R. O., Hart P.E., Pattern classification and scene analysis, John Wiley & Sons, 1973.
Elman J.L., « Finding Structure in Time », Cognitive Science, vol. 14, juin 1990, p. 179-211.
Evsukoff A., Raisonnement approché pour la surveillance des procédés, Thèse de Doctorat,
INPGrenoble, 1998
Réseaux de neurones RFR récurrents
31
Frasconi P., Gori M., Maggini M., Soda G., « Unified Integration of Explicit Knowledge and
Learning by Example in Recurrent Networks », IEEE Transactions on Knowledge and
Data Engineering, vol. 7, n° 2, 1995, p. 340-346.
Freitas N., I.M. Macleod and J.S. Maltz,, « Neural networks for pneumatic actuator fault
détection », Transactions of the SAIEE, vol. 90, n° 1, 1999, p. 28-34.
Fukunaga K., statistical pattern recognition, Academic Press, 2e édition, 1990.
Ghosh J., Beck S., Deuser L., « A Neural Network Based Hybrid System for Detection,
Characterization and Classification of Short-Duration Oceanic Signals », IEEE Jl. of
Ocean Engineering, vol. 17, n° 4, October 1992, p. 351-363.
Ghosh J., Nag A., Radial Basis Function Neural Network Theory and Applications, Edition R.
J. Howlett and L. C. Jain, Physica-Verlag., 2000.
GRP-SPSF, Rapport du Groupement pour la Recherche en Productique, journée d’étude de
l’atelier de Systèmes de Production Sûr de Fonctionnement, 19 et 20 novembre 1998,
Besançon/ France.
Hassoun M. H., Fundamentals of Artificial Neural Networks. Cambridge, MA : MIT Press,
1995.
Hernandez N.G., Système de diagnostic par Réseaux de Neurones et Statistiques : Application
à la détection d'hypovigilance d'un conducteur automobile, thèse de doctorat,
LAAS/Toulouse, 1999.
Hopfield J.J., « Neural networks and physical Sytems with emergent collective computational
abilities », Proceeding Nat. Acad. Sci. USA, Biophysics, vol. 79, 1982, p. 2554-2558.
Hudak M.J., « RCE Classifiers : Theory and Practice » in Cybernetics and systems, vol. 23 ,
1992, p.483-515.
Hutchinson J.M., A Radial Basis Function Approach to Financial Time Series Analysis,
Thèse de doctorat, Massachusetts Institute of Technology (MIT), 1994.
Hwang Y.S., Bang S.Y., « An efficient method to construct a Radial Basis Function Neural
Network classifier », Neural Networks, vol. 10, n° 08, 1997, p. 1495-1503.
Jordan M.I., « Serial order: a parallel distributed processing approach », University of
California, Institute for cognitive science, 1986.
Keller P., Kouzes R.T., Kangas L.J., « Three Neural Network Based Sensor System for
Environemental Monitoring », Proceedings IEEE Electro94 Conference, Boston, MA,
USA, May 1994
Koivo H.N, « artificial neural networks in fault diagnosis and control », control in
engineering practice, vol.2, n°1, 1994, p. 89-101.
Lefebvre D., Contribution à la modélisation des systèmes dynamiques à événements discrets
pour la commande et la surveillance, Habilitation à Diriger des Recherches, Université de
Franche Comté/ IUT Belfort – Montbéliard, 2000.
Mak M.W., Kung S.Y., « Estimation of Elliptical Basis Function Parameters by the EM
Algorithms with Application to Speaker Verification », IEEE Trans. on Neural Networks,
vol. 11, n° 4, July 2000, p. 961-969.
32
Journal Européen des Systèmes Automatisés. Volume X – n°X/2002
Michelli C.A., Interpolation of scattered data: distance matrices and conditionally positive
definite functions. Contsructive Approximation, 1986.
Moody J., Darken J., « Fast Learning in networks of locally tuned processing units », Neural
Computation, 1989, p. 281-194.
Mustawi M.T., Ahmed W., Chan K.H., Faris K.B., Hummels D.M., « on the training of
Radial Basis Function Classifiers », Neural Networks, vol. 5, 1992, p. 595-603.
Petsche T.A., Marcontonio A., Darken C., Hanson S.J., M.kuh G., Santoso I., A Neural
Network autoassociator for induction motor failure prediction, Cambridge: MIT Press,
Edition D.S. Touretzky, M.C. Mozer, and M.E. Hasselmo, Advances in Neural
Information Prodessing Systems 8, 1996, p. 924-930.
Poulard H., statistiques et réseaux de neurones pour un système de diagnostic. Application au
diagnostic de pannes automobiles, Thèse de Doctorat, LAAS/France, 1996.
Poggio T., Girosi F., A Theory of Networks for Approximation and Learning, AI Memo
1140, July 1989
Racoceanu D., Zerhouni N., Addouche N., « Modular Modeling and Analysis of a Distributed
Production System with Distant Specialised Maintenance », IEEE ICRA 2002,
Washington, USA, 11-15 mai 2002.
Rengaswamy R., Venkatasubramanian V., « A Syntactic Pattern Recognition Approach for
Process Monitoring and Fault Diagnosis », Engineering Applications of Artificial
Intelligence Journal, 8(1), 1995, p. 35-51.
Rohwer R., Forrest B., « Training Time-Dependence in Neural Network », in IEEE First
International Conference on Neural Networks, M. Caudill et C.Butler, vol. 2, San Diego,
California, juin 1987, p. 701-708.
Rumelhart D.E, Hinton G.E., Williams R.J., « Learning Internal Representation by Error
Propagation », in Parallel Distributed Processing Explorations in the Microstructure of
Cognition, vol. 1, The MIT Press/Bradford Books, D.E. Rumelhart and J.L.McClelland,
1986, p. 318-362.
Sejnowski T.J., Rosenberg C.R., NetTalk: a parallel network that learns to read aloud,
electrical engineering and computer science technical report, the johns hopkins university,
1986.
Smyth P., « detecting novel fault conditions with hidden Markov models and neural
netwoks », Pattern Recognition in Practice IV, 1994, p. 525-536.
Toguyeni A.K.A., Surveillance et diagnostic en ligne dans les ateliers flexibles de l'industrie
manufacturière, Thèse de doctorat, Université de Lille, 1992.
Vemuri A., Polycarpou M., « Neural Network Based Robust Fault Diagnosis in Robotic
Systems », IEEE Transactions on Neural Networks, vol. 8, n°. 6, novembre 1997, p.
1410-1420,.
Vemuri A., Polycarpou M., Diakourtis S., « Neural Network Based Fault Detection and
Accommodation in Robotic Manipulators », IEEE Transactions on Robotics and
Automation, vol. 14, n° 2, avril 1998, p. 342-348.
Réseaux de neurones RFR récurrents
33
Waibel A., Hanazawa T., Hinton G., Shikano K., Lang K., « Phoneme recognition using time
delay neural network » IEEE Trans. in Acoustics, Speech and Signal Processing, vol. 37,
n° 3, 1989.
Weber P., diagnostic de procédés par l'analyse des estimations paramétriques de modèles de
représentation à temps discret, Thèse de Doctorat, INPG, 1999
Werbos P.J., Beyond regression: New tools for prediction and analisys in the behavioral
science, Thèse de doctorat, Harvard University, 1974.
Williams R.J., Zipser D., « A Learning Algorithm for Continually Running Fully Recurrent
Neural Networks », Neural Computation, vol.1, juin 1989, p. 270-280.
Xu L., « RBF nets, mixture experts, and Bayesian Ying-Yang learning », Neurocomputing,
1998, p. 223-257.
Zemouri M.R., Racoceanu D., Zerhouni N., « The RRBF - Dynamic Representation of time
in Radial Basis Function Network », IEEE International Conference on Emerging
Technologies and Factory Automation, ETFA' 01, Juan-Les-Pins, France, 15-18 octobre
2001.
Zemouri R., Racoceanu D., Zerhouni N.,( – a – ) « application of the dynamic RBF network
in a monitoring problem of the production systems » , 15e IFAC World Congress on
Automatic Control, Barcelone, Espagne, 21-26 juillet 2002.
Zemouri R., Racoceanu D., Zerhouni N.,( – b – ) « From the spherical to an elliptic form of
the dynamic RBF neural network influence field » World Congress on Computational
Intelligence, International Joint Conference on Neural Networks (IJCNN), Honolulu,
Hawaii, USA, 12-17 mai 2002
Zhang Q., identification et surveillance de systèmes dynamiques, Habilitation à Diriger des
Recherches, Université de Rennes, 1999.