systemes neuronaux et strategies nlp partie ii

Transcription

systemes neuronaux et strategies nlp partie ii
SYSTEMES NEURONAUX ET STRATEGIES NLP
PARTIE II
E
Eccrriitt ppaarr B
Brriiaann V
Vaann D
Deerr H
HO
OR
RSST
T eett JJoosseepphh
O
O’’C
CO
ON
NN
NO
OR
R
PPaarruu ddaannss M
Mééttaapphhoorree N
N°° 2200 eenn D
Déécceem
mbbrree11999966
Brian Van der Horst est Enseignant certifié en PNL (Institut REPERE). Il a débuté sa
carrière professionnelle comme biologiste de la mer. Il écrit pour Intelligence - The Future of
Computer, une revue internationale de neurocomputing, d'intelligence artificielle et de
réseaux électroniques.
Joseph O'Connor est auteur, enseignant et musicien. Il vit à Londres. Il a conçu des logiciels
pour le monde des affaires et a écrit quatre livres sur la PNL.
Ceci est le second d'une série de trois articles destinés à remettre jour le modèle
classique des stratégies NLP, ou la manière dont nous pensons que les humains
pourraient penser. Dans notre dernier article nous avons mis en évidence que nos
modèles actuels des processus cognitifs internes sont basés sur la métaphore de
l'ordinateur digital, qui traite l'information d'une manière séquentielle et digitale.
Les avancées modernes en neurobiologie, neurocomputing et sciences cognitives ont
démontré que le cerveau est comme un réseau de distribution d'ondes simultanées de
schémas résonances interactives, interconnectés, décentralisés et procédant
parallèlement.
Relax!! Nous allons faire en sorte de rendre cette définition claire travers des exemples
et une revue de quelques développements majeurs dans les sciences cognitives.
Les sciences cognitives sont l'étude interdisciplinaire de l'esprit et qui comprennent les
neurosciences, la linguistique, l'intelligence artificielle, la psychologie, l'anthropologie, la
cybernétique et la philosophie de l'esprit.
En tant que telles, elles partagent beaucoup avec le PNL, et nous pouvons beaucoup
apprendre de leurs modèles et de leurs découvertes.
La période cybernétique des sciences cognitives
Nous avons conclu la dernière fois sur l'histoire passionnante de la cybernétique moderne :
John Von Neumann avait démontré en 1946 comment coupler la logique digitale de George
Boole avec la machine à calculer syntactique de Alan Turing, l'ENIAC multifonctionnel,
premier gros ordinateur qui a démarrer l'âge informatique.
En fait, Von Neumann était convaincu qu'il modélisait le cerveau. Sa fameuse présentation
"First Draft" pour ENIAC parlait de neurones et de métaphores biologiques.
Même s'il est reconnu de nos jours comme le père de l'informatique moderne, il ressentait que
les ordinateurs ne constituaient qu'une étape vers la création "d'automates à notre image" qui
reproduiraient des phénomènes biologiques. Il est intéressant de noter à quel point nos vies
ont été transformées par une technologie qui était, à l'origine, destinée à une utilisation
différente.
Alexander Graham Bell pensait que le téléphone serait utile pour transmettre de la musique
aux personnes.
L'illustration de "l'architecture Von Neumann" est le standard actuel pour tous les ordinateurs
digitaux, comme elle a été la base pour le modèle TOTE conçu par Miller, Pribram et
Galanter et adopté en PNL en tant que structure pour l'étude des schémas de pensée ou
stratégies.
Von Neumann Architecture
Central Processing Unit
(CPU)
Memory Manager
Arithmetic/Logic Unit
Common Memory for
Instructions and Data
Miller/Gallanter/Pribram TOTE
Test
(Congruity)
(Incongruity)
Operate
Les résultats des travaux de Miller, Galanter et Pribram dans les années 50, se sont concrétisés
dans l'ouvrage Plans and the structure of behaviour. (L'ADN ne fut découverte qu'en 1960,
année de parution de l'ouvrage).
Ce travail a également été fortement marqué par les recherches de Norbert Wiener (auteur de
l'ouvrage remarqué Cybernetics) de Warren McCulloch et Walter Pitts (qui proposèrent la
théorie de la communication neuronale en tant que schéma de seuil d'inactivité ou d'activité),
et des travaux de Claude Shannon (créateur de la science de l'information).
Ce qui est intéressant pour la PNL, c'est que George Miller date la reconnaissance officielle
des sciences cognitives au 11 septembre 1956.
Ce jour là, un symposium consacré à la théorie de l'information organisé au MIT, vit les
scientifiques Allen Newell et Herbert Simon faire la première démonstration complète d'un
théorème exécuté par un ordinateur. A leur suite, un jeune linguiste s'appelant Noam
Chomsky présentait "Trois modèles de langage" qui allaient devenir le fondement du MétaModèle en PNL. Le symposium fut suivi par la proprepublication de Miller, Le nombre
magique sept plus ou moins deux .Cette période, dans les sciences cognitives est souvent
évoquée comme l'époque cognitiviste, ou la "phase cybernétique des sciences cognitives".
Elle était caractérisée par l'utilisation de la logique mathématique pour comprendre le
fonctionnement du système nerveux en termes de représentations mentales symboliques. Elle
a aussi fortement influencé l'établissement de la méta-discipline de la théorie des systèmes,
l'utilisation de la théorie statistique de l'information signal/communications, et les premiers
exemples des systèmes auto-organisés.
La pensée, à cette époque, était définie comme un processus informationnel : la manipulation
de symboles étaient soumise à des règles. On pensait que les processus mentaux seraient non
reconnaissables, des processus inconscients en quelque sorte.
L
Laa ppéérriiooddee ccoonnnneexxiioonniissttee
Durant les années 40 et 50, une autre époque des sciences cognitives vit le jour : l'étude des
propriétés émergentes des systèmes et le connexionisme.
L'émergence est une idée importante.
Cela signifie qu'après un point de seuil, un système acquiert subitement une propriété qui
n'avait pu être prédite à partir de la somme de ses parties.
La propriété émerge.
Par exemple, chacun de vos yeux n'est capable de voir qu'en deux dimensions. Mettez les
deux yeux ensemble, et voila une vision tridimensionnelle.
Qui pourrait prédire qu'une telle complexité de cellules nerveuses puisse donner naissance à
cette catégorie de conscience?
Gregory Bateson disait que dés lors que vous aviez du feed-back et suffisamment de
complexité, vous trouveriez des propriétés mentales.
Les chercheurs en neurosciences connaissaient l'existence d'interconnections entre les
neurones et le cerveau depuis des dizaines d'années.
Au lieu de représenter la communication neuronale comme un processus linéaire de stimulusréponse d'une cellule à l'autre, le modèle commun s'est développé vers une forme ressemblant
à une toile interconnectée.
Single Neuron
}
Neural Network
{
Lorsque les personnes étaient encore orientées vers le modèle du "neurone simple", l'idée
qu'on se faisait du cerveau produisait des modèles que vous pouvez encore trouver de nos
jours dans beaucoup de textes de physiologie.
Par exemple : "ici l'oeil reçoit un faisceau lumineux et envoie un signal dans une région du
thalamus appelée nucléus geniculate latéral (NGL) et ensuite au cortex visuel pour opérer au
processus".
eye
LGN
visual cortex
Lorsque des personnes comme Karl Pribram (qui consigna au moins un article avec
Chomsky) commencèrent à étudier le processus de la vision dans le cerveau primaire, ils ont
découvert une toute autre histoire.
Les fonctions cérébrales de la vision sont massivement interconnectées avec une constellation
de régions qui procèdent sur tout un patchwork de modalités visuelles telles que la forme, la
taille, la couleur, la réflexion spectrale, l'orientation tridimensionnelle dans l'espace, la
distance, la trajectoire et la rotation dans des sous-réseaux concurrents.
L
Lee cceerrvveeaauu vvuu ccoom
mm
mee uunn bbiioo--oorrddiinnaatteeuurr
Les chercheurs en neurosciences ont également découvert que le NGL, intégré dans le réseau,
envoie également au cortex visuel une grande variété de probabilités et de mémoires
cognitives qui sont stockées dans l'hypothalamus et le système limbique.
En PNL nous appelons cela des sous modalités et des croyances. La carte qui révise les
itinéraires visuels dans le cerveau n'accepte pas la conception traditionnelle d'un processus
séquentiel.
eye
LGN
visual cortex
20%
80%
PGN
Sup.coll.
hypothalmus
Mid reticular formation
Le chercheur en sciences cognitives et en anatomie, Francisco Varela indique dans ses
recherches récentes : "il est évident que 80% des informations que capte le NGL ne provient
pas de la rétine mais de l'interconnexion dense d'autres régions du cerveau. Même si le
comportement de l'ensemble du système ressemble plus une conversation lors d'un cocktail
qu'une cha”ne de commande".
Ainsi, quoique le cerveau regarde, la représentation des signaux du monde extérieur constitue
environ 20% des informations, et 80% sont des filtres préexistants de mémoire et de
croyances.
Le mécanisme de base de reconnaissance d'un objet ou d'un attribut visuel "pourrait être
défini en tant qu'émergence d'un état global parmi les résonances neuronales d'ensemble".
Comment les chercheurs en sciences cognitives ont-ils pu commencer a dégager une
signification à partir de cette symphonie de signaux neuronaux? Dans son ouvrage publié en
1971, "les langages du cerveau", Karl Pribram proposa une théorie holographique du
fonctionnement cérébral.
Tout comme un hologramme prend forme à partir de la résonance d'ondes de lumière
interagissantes, la cognition pourrait êre décrite comme l'émergence d'une confluence d'ondes
cérébrales en interaction.
L'étape suivante des sciences cognitives et du neurocomputing est généralement appelée
l'époque "connexionniste".
L'un des théoriciens fondamentaux de cette période était John Hopfield, un physicien de
l'Institut de Technologie de Californie, qui commença à étudier les similitudes et les
différences entre les processus biologiques et les calculs électroniques.
Hopfield utilisa l'analogie de deux molécules de gaz dans une boite. "Elles se déplacent dans
la boite et se colisionnent de temps à autre.
Si nous rajoutons dix ou même mille molécules supplémentaires dans la boite, tout ce que
nous obtenons sont plus de collisions. Mais si nous mettons un billion de billions de molécules
dans la boite, il y a subitement un nouveau phénomène, des ondes sonores.
Rien dans le comportement des deux, dix ou mille molécules ne vous laisse supposer qu'un
billion de billions seraient capable de produire des ondes sonores. Les ondes sonores sont un
phénomène collectif d'un système complexe".
C'était une évidence pour ce théoricien physicien tourné vers les neurosciences, le cerveau
était un bio-ordinateur qui produit des estimations collectives.
Hopfield fit pour les réseaux informatiques ce que fit Von Neumann pour les ordinateurs
digitaux : il démontra par un modèle mathématique que des substituts de neurones pouvaient
opérer comme dans un système physique.
Il rendit également acceptable quelques différences majeures entre les "ordinateurs
biologiques" et les "ordinateurs électroniques", que la nouvelle génération des chercheurs en
sciences cognitives avaient soulevé depuis de nombreuses années face à une communauté
scientifique indifférente :
1) Les cerveaux peuvent tolérer des erreurs.
2) Les cerveaux ont une manière de se réparer ou de se corriger eux-mêmes, ou comme nous
le disons souvent, ils apprennent à apprendre.
3) Les cerveaux peuvent gaspiller gratuitement de l'énergie, ralentir, et s'installer dans un état
de relaxation énergétique, d'ajuster des seuils pour les informations plus ou moins
importantes, au lieu de surchauffer et d'exploser comme certains ordinateurs avec lesquels j'ai
travaillé.
4) Les cerveaux sont fortement interconnectés et peuvent faire plusieurs choses
simultanément.
5) Les cerveaux peuvent rêver. Les mémoires peuvent être retravaillées pour donner des
leviers de poids ou d'importance.
6) Les cerveaux peuvent oublier. Les êtres humains ont des mémoires à court terme et des
mémoires à long terme, s'ils n'utilisent pas une information de manière suffisamment récente
ou fréquente, ils repoussent la donnée inutilisée dans leur inconscient. Autrement nous
devrions repenser tout notre passé pour retrouver notre couleur favorite.
Hopfield continua et produisit des micro-chips (avec AT&T) pour commencer à mettre en
application ce qui précède.
La prochaine contribution au neurocomputing que nous aimerions mentionner maintenant est
la Théorie de la résonance adaptative proposée par Stephen Grossberg, de l'Université de
Boston.
L
Laa rrééssoonnaannccee aaddaappttaattiivvee
Grossberg publia initialement une série d'équations différentielles qui décrivaient les
mathématiques des réseaux en 1961 et 1964. Dans les années 70 il proposa un modèle unifié
contreversal de la théorie de l'apprentissage, de la neurologie et des mathématiques.
Son modèle est basé sur l'habilité neurologique de réseaux associatifs à chercher et fixer des
niveaux de seuils de perception d'activité.
Les seuils sont ajustés en permanence pour permettre au cerveau de porter son attention aux
contrastes et aux comparaisons qui sont importants dans le monde pour un objectif donné.
Par exemple, le "contrôle" du volume par l'oreille nous permet d'entendre des sons moins forts
la nuit, ou d'éliminer des bruits inutiles dans la rue lors d'une conversation; de même la vision
nocturne humaine s'ajuste pour voir mieux avec moins de lumière.
En termes PNL, beaucoup de changements qui sont rendus possibles par des modifications
des sous modalités, sont une fonction du passage d'un seuil de représentation à un autre.
Grossberg s'intéressait à la manière dont le cerveau apprenait.
Comment des sensations dans la mémoire à court terme peuvent-elles devenir des perceptions
dans la mémoire à long terme ?
Comment des sensations et de la mémoire emmagasinées peuvent-elles mener à une
conscience stable?
Selon la théorie de Grossberg, l'attention ou la conscience, est un mélange entre des
sensations brutes dans la mémoire à court terme, combinées à une myriade d'associations de
la mémoire à long terme.
L'attention est une fonction de filtres harmonisables pour rendre les réseaux neuronaux
sensibles à des catégories ou des codes d'expériences, par l'ajustement des poids et des seuils
de signaux arrivant dans un réseau donné.
Grossberg prédit que les yeux ont tendance à chercher des objets et des expériences dans le
monde externe, en comparant d'anciens schémas des mémoires avec ce qui est vu.
Pour expliquer ce processus il a crée un modèle d'une hiérarchie coopérative/compétitive de
fonctions qui relient les perceptions sensorielles et le cerveau.
Dans son Outstar learning theorem , Grossberg suggère que le cerveau envoie un schéma à
l’œil -un signal représentatif- ou tout autre organe de perception, qui résonne avec l'activité
neuronale entrante dans un réseau, de manière à créer un schéma de mémoire à court terme.
Celui-ci a tendance à s'effacer chez les humains en l'espace de 15 secondes environ s'il n'est
pas relayé dans la mémoire à long terme.
Grossberg propose un Instar category developpement theorem complémentaire qui explique
comment, des schémas répétés, persistants ou intenses de l'expérience sont installés dans la
mémoire à long terme par le réajustement des poids synoptiques des réseaux neuronaux, et
effectuent un apprentissage durable.
Un autre paramètre clé de la théorie de la résonance adaptative est la vigilance, qui fixe le
niveau de comparaison ou de différence entre un schéma particulier de la mémoire à long
terme et une sensation à court terme du monde extérieur.
Voici un diagramme de la Théorie de la résonance adaptative de Grossberg
Orienting
Subsystem
Attentional Subsystem
Gain
Control
Long-Term Memory
Mismatch
[meta-programs,beliefs,
emotions, criteria]
Reset
Instar Bottom-Up
Learning
Outstar Top-Down
Templates from
Long-Term Memory
Vigilance
Gain
Control
Short-term Memory
from Outside World
Bottom-Up Input,
Raw sensations from
Outside world
Nous voyons ici quelques opportunités pour réviser le modèle des stratégies NLP.
La composante "vigilance" dans ce modèle pourrait correspondre au point de choix dans le
modèle TOTE, et la création d'un système de notation pour les sous modalités pourrait refléter
les fonctions Instar/Outstar de l'apprentissage, ce que nous avons tendance à présenter comme
le premier test de la stratégie (outstar) et le test final (instar).
Si nous tenons compte du fait que les distinctions du métaprogramme créent les interactions
de la gamme mismatch, nous aurons même plus d'habilité dans un modèle stratégique.
Nous n'essayons pas d'expliquer ces distinctions PNL à un niveau
neurologique, mais de distinguer le schéma isomorphique.
Un exemple simple : un homme a la croyance que les gens ne méritent fondamentalement pas
qu'on leur fasse confiance, même si de nombreuses occasions pourraient le lui montrer le
contraire.
Ces exemples ne rentrent pas dans sa mémoire à long terme pour installer un schéma
différent. Il y aura par contre un seuil, peut-être fixé par un méta-programme.
Quand il aura vécu suffisamment d'occasions, il se pourrait qu'il adhère à la croyance inverse,
que les gens sont fondamentalement dignes de confiance. Un exemple très intense pourrait
aussi changer sa croyance.
Mais avant de suggérer des applications spécifiques du neurocomputing à la PNL, jetons un
coup d’œil sur les travaux de plusieurs scientifiques qui appartiennent plus à des domaines
des sciences cognitives telles que l'intelligence artificielle, la linguistique qu'aux réseaux
neuronaux.
L
Lee ddoom
maaiinnee eennaaccttiiff ddeess sscciieenncceess ccooggnniittiivveess
Ici la cognition est définie non comme la représentation du monde pré-existant par des
schémas pré-existants dans l'esprit, mais plutôt comme une prise en compte du monde et d'un
esprit sur la base d'une histoire et d'une variété d'actions qu'un individu opère dans le Monde.
Dans le domaine de l'énaction, la pensée est maintenant définie comme des séries
d'expériences accumulées d'une personne. Ces expériences forment un accouplement
structurel entre un réseau de sous-réseaux sensitomoteurs interconnectés à de multiples
niveaux. Varela, Thompson et Rosch donnent un exemple élégant : "dans une
expérimentation classique, Held et Hein élevaient des chatons dans l'obscurité et ne les
exposaient la lumière que dans des conditions bien contrôlées.
Un premier groupe d'animaux pouvait bouger normalement, mais chacun d'entre eux fut
attaché un petit attelage contenant une corbeille dans laquelle était un membre de l'autre
groupe d'animaux.
Les deux groupes partageaient donc la même expérience visuelle, mais le second groupe était
entièrement passif.
Lorsque les animaux furent relâchés après plusieurs semaines d'expérience, le premier
groupe de chatons se comportait normalement, mais ceux qui avaient été promenés se
comportaient
comme s'ils étaient aveugles, se cognaient partout et tombaient par dessus bord.
Cette belle étude démontre le point de vue enactif comme quoi les objets ne sont pas vus par
l'extraction visuelle des formes, mais plutôt par le guidage visuel de l'action."
Parallèlement, les linguistes George Lakoff et Mark Johnson suggèrent "une approche
expérientaliste de la cognition" qui complète le paradigme enactif.
Dans leurs travaux ils sentent que "des structures conceptuelles signifiantes" jaillissent de
deux sources :
1) de la nature structurée de l'expérience physique et sociale,
2) de l'aspect bien structuré de l'expérience physique et interactionnelle qui permet d'abstraire
des structures conceptuelles. La pensée rationnelle est l'application de sources cognitives très
générales de telles structures - la focalisation, le scanning, la super imposition, le
renversement d'image etc.Les Etres humains ont tendance à penser en termes de structures cognitives générales et en
termes de métaphores comme "les schémas d'images kinesthésiques comme des containers,
partie ou entier, ou des schémas source-voie-destination qui trouvent leurs origines dans
l'expérience corporelle" dit Johnson.
Lorsque des centaines de palettes multicolores furent montrées à différentes cultures autour
du monde, presque toutes les personnes de tous pays choisirent la même comme le "meilleur"
exemple d'une couleur de base donnée.
Lorsque vous regardez le "meilleur" exemple de bleu, dit Lakoff, les neurones se conforment
dans une schéma optimum particulier et commun aux cerveaux de tous.
"La couleur rouge n'est pas une propriété du monde externe" dit Lakoff," c'est une proprité
de l'esprit".
Une autre personne qui suggère que l'esprit possède des propriétés structurelles spécifiques est
le chercheur en intelligence artificielle Marvin Minsky du MIT, qui, avec Seymour Papert,
critique la théorie émergente de la cognition mise en avant par les connexionistes.
Minsky préfère l'idée que l'esprit consiste par de multiples "agents" qui morcellent le
problème de la pensée en un micro monde d'agents de cognition pour former "la Société de
l'Esprit".
Il y a ensuite l'école de psychanalyse appelée la théorie des relations à l'objet, qui a tendance
traiter les Etres humains comme des constellations de sous identités.
Pour Méllanie Klein, le processus de base du développement mental est décrit comme
l'intériorisation d'un riche étalage de personnes signifiantes dans sa vie.
L'un dans l'autre, ces approches pourraient être considérées comme isomorphiques au
"Modèle des parties" en PNL, ce qui nous permet de délimiter un domaine conceptuel dans
lequel le recadrage en 6 points, la dissociation V/K, et la négociation entre parties peuvent
trouver leur place.
A quel point les ordinateurs à réseaux neuronaux fonctionnent-ils bien? Le neurocomputing
est maintenant utilisé partout, de la reconnaissance de l'écriture manuelle, à la détection
sonore, la gestion des stocks et la protection des fraudes pour les compagnies de cartes de
crédit.
L'un de nos exemples favoris est le NETtalk de Terrence Sejnowski, un système de simulation
neuronal à l'université John Hopkins et qui utilise seulement 300 neurones avec 18 000
connexions électroniques pour lire des textes et résumer des discours.
Ceci est un exemple à partir duquel nous pourrions commencer à penser aux stratégies en
PNL.
Q
Quu''eesstt ccee qquu''uunnee aaccttiivviittéé??
De nos jours, l'élément clé en neurocomputing ne consiste pas à juste interconnecter deux
tiers de neurones. Mais en utilisant les unités cachées pour un tiers (des niveaux de neurones
intermédiaires), les unités cachées utilisent moins de connexions entre les couches
d'information.
Input
Output
Input
Hidden Units
Output
Dans les ordinateurs, ce type d'architecture tend à créer des pistes signifiantes
représentationnelles émergentes.
Les choix importants sont encodés sous forme de tests et points de choix dans ces unités,
comme des feux de signalisation aux carrefours encombrés.
Sejnowski utilisait 203 neurones pour scanner un échantillon de texte en Anglais à la sortie,
alors que 26 neurones comparent le texte à des phonèmes pour la prononciation, et 80 unités
sont cachées au milieu du processus pour ce qui concerne les relations entre les différents
phénomènes.
Le résultat est effroyablement efficace.
Le système commence par un jeu de valeurs prises au hasard qui ressemble à un gémissement
continuel et inintelligible.
Après une séance d'entraînement, le système ajusté regroupe les mots.
Même si le système continue à mal prononcer, ses balbutiements commencent subitement à
sembler plus humains, comme des bébés, avec des rythmes familiers, et ensuite, des sons
signifiants commencent émerger.
En 1986, NETtalk, concouru sur un DEC VAX, apprit à lire un exemple de texte de 100 mots
avec 98% de réussite - à peu prés un troisième niveau de lecture - en 16 heures.
Même plus remarquable, il pouvait lire d'autres textes similaires avec pratiquement autant de
réussite.
Aujourd'hui, NETtalk qui concourt sur un modem CNAPS (station de travail base sur réseau
neuronal) prend moins d'une seconde pour réaliser cette même procédure.
U
Unn ddeerrnniieerr eexxeem
mppllee
Rodney Brooks au MIT construit des robots qui s'approchent de l'intelligence des insectes.
Son approche consiste à trouver un échappatoire à ce qu'il appelle la "déception de l'AI", c'est
à dire la tendance d'aller vers l'abstraction au lieu de fabriquer des compétences perceptuelles
et motrices.
Son but : "construire des robots entièrement autonomes, des agents mobiles qui coexistent
dans le monde avec les humains, et considérés par ceux-ci comme des êtres très intelligents
avec leurs propres droits".
Son objectif ne consiste pas dans la décomposition usuelle d'un système par sa fonction, mais
plutôt d'une décomposition innovante par l'activité.
"Chaque activité, ou système producteur de comportements se connecte individuellement
d'une manière sensée avec l'action"... Une activité est un schéma d'interactions avec le
monde. Un autre nom pour nos activités pourrait bien être des compétences faisant ressortir
que chaque activité peut être, au moins post facto, rationalisée comme poursuivant un but.
Voici une charte représentant la façon dont Brooks sépare chaque activité
reason about behavior of objects
plan changes to the world
identify objects
Sensors ------->
monitor changes
build maps
explore
--------> Actuators
wander
avoid objects
L'approche de Brooks produit des résultats fascinants. Elle est un exemple du domaine enactif
en neurocomputing, dans lequel un système bien défini parvient à l'exploration du monde et
se créer de nouvelles habilités, de nouvelles compétences et de l'intelligence.
N'est ce pas ce que nous avons essayé de faire avec les stratégies en PNL ?
Le modèle de Brooks pour construire des robots supporte une ressemblance incontestable
avec le "format opératif", modèle d'acquisiton de compétence de Leslie Cameron Bandler,
David Gordon et Michael Lebeau, qui est décrit élégamment dans leur ouvrage
insuffisamment connu "The Emprint Method" publié en 1984. Ici les auteurs décomposent les
compétences en termes de contextes - temps, organisés en résultats, activités et tests
d'évaluation.
Depuis prés de 10 ans la PNL dispose déjà d'un modèle qui peut être utilisé pour créer des
stratégies interconnectées et opérant parallèlement!
Mais peu nombreux furent ceux qui prirent leur temps pour appliquer leur travail à la
détection et au design de stratégies.
Si nous pouvons, nous en PNL, commencer à utiliser l'Emprint Method avec des formats
opératifs interagissant de manière parallèle et simultanée, et en intégrant les sous modalités et
les distinctions du méta programme qui indique comment les gens passent d'un point de seuil
à un autre. Alors nous aurons un modèle pour les stratégies qui sera plus proche de ce que la
science sait maintenant à propos du cerveau et de l'esprit.
Cela peut même être facile, mais pas simple.
Beaucoup des stratégies proposées aujourd'hui sont des simplifications de processus mentaux,
des "fictions utiles". Les stratégies de la mémoire, de l'épellation, de la décision, de la
motivation, et d'apprentissage et la manière dont nous les enseignons de nos jours pourraient
être assemblées en des réseaux pour représenter des processus simultanés.
Les méta-stratégies comme le générateur de comportement, les noyaux du recadrage et
d'autres protocoles, la célèbre stratégie de Walt Disney, et les projets de modélisation de
nombreux praticiens produisent des résultats, mais nécessitent souvent de prendre en compte
beaucoup d'hallucination pour suivre les points essentiels. Si vous souhaitez avoir une
approche hypnotique de la PNL, ceci vous sera utile, mais produira parfois des résultats
inattendus.
Nous croyons que la PNL peut tirer profit d'une approche plus rigoureuse de la modélisation
de la cognition.
Beaucoup d'outils existent déjà.
Nous avons une notation pour les stratégies et un système de distinctions élégantes en matière
de méta-programme et de sous modalités qui pourrait être marié avec l'Emprint Method et les
sciences cognitives récentes.
Dans le prochain article, nous allons revoir comment les stratégies sont actuellement
présentées en PNL, et exposer nos suggestions sur la manière dont nous pouvons commencer
à pratiquer et mettre concrètement en application les principes et les méthodes que nous avons
présentés ici.
Mais, dès maintenant, vous pouvez commencer à examiner pour vous même quelles sont les
stratégies que vous utilisez qui vous interconnectent avec d'autres.
Quelles sont les boucles de feed-back et feed-forward entre les séquences de mémoire, de
décision, de motivation et d'apprentissage?
Jetez un coup d’œil à l'Emprint Method - comment pourrions-nous l'utiliser pour représenter
des processus simultanés et parallèles? Quelles sont les qualités émergentes des stratégies
bien formulées ?
Telles sont quelques unes des questions que nous allons essayer de vous poser dans notre
prochain article.
"La vérité est que, la science de la nature a depuis trop longtemps fourni uniquement un
travail sur le cerveau et la fantaisie. Il est maintenant grand temps de retourner la plénitude
et au silence d'observations sur du matériel et des choses évidentes". Robert Hooke,
Micrographia (1665).
Brian VAN DER HORST et Joseph O'CONNOR.
Traduction de Marie Rose KORO.
Paru dans Anchor Point en juin 1994.