systemes neuronaux et strategies nlp partie ii
Transcription
systemes neuronaux et strategies nlp partie ii
SYSTEMES NEURONAUX ET STRATEGIES NLP PARTIE II E Eccrriitt ppaarr B Brriiaann V Vaann D Deerr H HO OR RSST T eett JJoosseepphh O O’’C CO ON NN NO OR R PPaarruu ddaannss M Mééttaapphhoorree N N°° 2200 eenn D Déécceem mbbrree11999966 Brian Van der Horst est Enseignant certifié en PNL (Institut REPERE). Il a débuté sa carrière professionnelle comme biologiste de la mer. Il écrit pour Intelligence - The Future of Computer, une revue internationale de neurocomputing, d'intelligence artificielle et de réseaux électroniques. Joseph O'Connor est auteur, enseignant et musicien. Il vit à Londres. Il a conçu des logiciels pour le monde des affaires et a écrit quatre livres sur la PNL. Ceci est le second d'une série de trois articles destinés à remettre jour le modèle classique des stratégies NLP, ou la manière dont nous pensons que les humains pourraient penser. Dans notre dernier article nous avons mis en évidence que nos modèles actuels des processus cognitifs internes sont basés sur la métaphore de l'ordinateur digital, qui traite l'information d'une manière séquentielle et digitale. Les avancées modernes en neurobiologie, neurocomputing et sciences cognitives ont démontré que le cerveau est comme un réseau de distribution d'ondes simultanées de schémas résonances interactives, interconnectés, décentralisés et procédant parallèlement. Relax!! Nous allons faire en sorte de rendre cette définition claire travers des exemples et une revue de quelques développements majeurs dans les sciences cognitives. Les sciences cognitives sont l'étude interdisciplinaire de l'esprit et qui comprennent les neurosciences, la linguistique, l'intelligence artificielle, la psychologie, l'anthropologie, la cybernétique et la philosophie de l'esprit. En tant que telles, elles partagent beaucoup avec le PNL, et nous pouvons beaucoup apprendre de leurs modèles et de leurs découvertes. La période cybernétique des sciences cognitives Nous avons conclu la dernière fois sur l'histoire passionnante de la cybernétique moderne : John Von Neumann avait démontré en 1946 comment coupler la logique digitale de George Boole avec la machine à calculer syntactique de Alan Turing, l'ENIAC multifonctionnel, premier gros ordinateur qui a démarrer l'âge informatique. En fait, Von Neumann était convaincu qu'il modélisait le cerveau. Sa fameuse présentation "First Draft" pour ENIAC parlait de neurones et de métaphores biologiques. Même s'il est reconnu de nos jours comme le père de l'informatique moderne, il ressentait que les ordinateurs ne constituaient qu'une étape vers la création "d'automates à notre image" qui reproduiraient des phénomènes biologiques. Il est intéressant de noter à quel point nos vies ont été transformées par une technologie qui était, à l'origine, destinée à une utilisation différente. Alexander Graham Bell pensait que le téléphone serait utile pour transmettre de la musique aux personnes. L'illustration de "l'architecture Von Neumann" est le standard actuel pour tous les ordinateurs digitaux, comme elle a été la base pour le modèle TOTE conçu par Miller, Pribram et Galanter et adopté en PNL en tant que structure pour l'étude des schémas de pensée ou stratégies. Von Neumann Architecture Central Processing Unit (CPU) Memory Manager Arithmetic/Logic Unit Common Memory for Instructions and Data Miller/Gallanter/Pribram TOTE Test (Congruity) (Incongruity) Operate Les résultats des travaux de Miller, Galanter et Pribram dans les années 50, se sont concrétisés dans l'ouvrage Plans and the structure of behaviour. (L'ADN ne fut découverte qu'en 1960, année de parution de l'ouvrage). Ce travail a également été fortement marqué par les recherches de Norbert Wiener (auteur de l'ouvrage remarqué Cybernetics) de Warren McCulloch et Walter Pitts (qui proposèrent la théorie de la communication neuronale en tant que schéma de seuil d'inactivité ou d'activité), et des travaux de Claude Shannon (créateur de la science de l'information). Ce qui est intéressant pour la PNL, c'est que George Miller date la reconnaissance officielle des sciences cognitives au 11 septembre 1956. Ce jour là, un symposium consacré à la théorie de l'information organisé au MIT, vit les scientifiques Allen Newell et Herbert Simon faire la première démonstration complète d'un théorème exécuté par un ordinateur. A leur suite, un jeune linguiste s'appelant Noam Chomsky présentait "Trois modèles de langage" qui allaient devenir le fondement du MétaModèle en PNL. Le symposium fut suivi par la proprepublication de Miller, Le nombre magique sept plus ou moins deux .Cette période, dans les sciences cognitives est souvent évoquée comme l'époque cognitiviste, ou la "phase cybernétique des sciences cognitives". Elle était caractérisée par l'utilisation de la logique mathématique pour comprendre le fonctionnement du système nerveux en termes de représentations mentales symboliques. Elle a aussi fortement influencé l'établissement de la méta-discipline de la théorie des systèmes, l'utilisation de la théorie statistique de l'information signal/communications, et les premiers exemples des systèmes auto-organisés. La pensée, à cette époque, était définie comme un processus informationnel : la manipulation de symboles étaient soumise à des règles. On pensait que les processus mentaux seraient non reconnaissables, des processus inconscients en quelque sorte. L Laa ppéérriiooddee ccoonnnneexxiioonniissttee Durant les années 40 et 50, une autre époque des sciences cognitives vit le jour : l'étude des propriétés émergentes des systèmes et le connexionisme. L'émergence est une idée importante. Cela signifie qu'après un point de seuil, un système acquiert subitement une propriété qui n'avait pu être prédite à partir de la somme de ses parties. La propriété émerge. Par exemple, chacun de vos yeux n'est capable de voir qu'en deux dimensions. Mettez les deux yeux ensemble, et voila une vision tridimensionnelle. Qui pourrait prédire qu'une telle complexité de cellules nerveuses puisse donner naissance à cette catégorie de conscience? Gregory Bateson disait que dés lors que vous aviez du feed-back et suffisamment de complexité, vous trouveriez des propriétés mentales. Les chercheurs en neurosciences connaissaient l'existence d'interconnections entre les neurones et le cerveau depuis des dizaines d'années. Au lieu de représenter la communication neuronale comme un processus linéaire de stimulusréponse d'une cellule à l'autre, le modèle commun s'est développé vers une forme ressemblant à une toile interconnectée. Single Neuron } Neural Network { Lorsque les personnes étaient encore orientées vers le modèle du "neurone simple", l'idée qu'on se faisait du cerveau produisait des modèles que vous pouvez encore trouver de nos jours dans beaucoup de textes de physiologie. Par exemple : "ici l'oeil reçoit un faisceau lumineux et envoie un signal dans une région du thalamus appelée nucléus geniculate latéral (NGL) et ensuite au cortex visuel pour opérer au processus". eye LGN visual cortex Lorsque des personnes comme Karl Pribram (qui consigna au moins un article avec Chomsky) commencèrent à étudier le processus de la vision dans le cerveau primaire, ils ont découvert une toute autre histoire. Les fonctions cérébrales de la vision sont massivement interconnectées avec une constellation de régions qui procèdent sur tout un patchwork de modalités visuelles telles que la forme, la taille, la couleur, la réflexion spectrale, l'orientation tridimensionnelle dans l'espace, la distance, la trajectoire et la rotation dans des sous-réseaux concurrents. L Lee cceerrvveeaauu vvuu ccoom mm mee uunn bbiioo--oorrddiinnaatteeuurr Les chercheurs en neurosciences ont également découvert que le NGL, intégré dans le réseau, envoie également au cortex visuel une grande variété de probabilités et de mémoires cognitives qui sont stockées dans l'hypothalamus et le système limbique. En PNL nous appelons cela des sous modalités et des croyances. La carte qui révise les itinéraires visuels dans le cerveau n'accepte pas la conception traditionnelle d'un processus séquentiel. eye LGN visual cortex 20% 80% PGN Sup.coll. hypothalmus Mid reticular formation Le chercheur en sciences cognitives et en anatomie, Francisco Varela indique dans ses recherches récentes : "il est évident que 80% des informations que capte le NGL ne provient pas de la rétine mais de l'interconnexion dense d'autres régions du cerveau. Même si le comportement de l'ensemble du système ressemble plus une conversation lors d'un cocktail qu'une cha”ne de commande". Ainsi, quoique le cerveau regarde, la représentation des signaux du monde extérieur constitue environ 20% des informations, et 80% sont des filtres préexistants de mémoire et de croyances. Le mécanisme de base de reconnaissance d'un objet ou d'un attribut visuel "pourrait être défini en tant qu'émergence d'un état global parmi les résonances neuronales d'ensemble". Comment les chercheurs en sciences cognitives ont-ils pu commencer a dégager une signification à partir de cette symphonie de signaux neuronaux? Dans son ouvrage publié en 1971, "les langages du cerveau", Karl Pribram proposa une théorie holographique du fonctionnement cérébral. Tout comme un hologramme prend forme à partir de la résonance d'ondes de lumière interagissantes, la cognition pourrait êre décrite comme l'émergence d'une confluence d'ondes cérébrales en interaction. L'étape suivante des sciences cognitives et du neurocomputing est généralement appelée l'époque "connexionniste". L'un des théoriciens fondamentaux de cette période était John Hopfield, un physicien de l'Institut de Technologie de Californie, qui commença à étudier les similitudes et les différences entre les processus biologiques et les calculs électroniques. Hopfield utilisa l'analogie de deux molécules de gaz dans une boite. "Elles se déplacent dans la boite et se colisionnent de temps à autre. Si nous rajoutons dix ou même mille molécules supplémentaires dans la boite, tout ce que nous obtenons sont plus de collisions. Mais si nous mettons un billion de billions de molécules dans la boite, il y a subitement un nouveau phénomène, des ondes sonores. Rien dans le comportement des deux, dix ou mille molécules ne vous laisse supposer qu'un billion de billions seraient capable de produire des ondes sonores. Les ondes sonores sont un phénomène collectif d'un système complexe". C'était une évidence pour ce théoricien physicien tourné vers les neurosciences, le cerveau était un bio-ordinateur qui produit des estimations collectives. Hopfield fit pour les réseaux informatiques ce que fit Von Neumann pour les ordinateurs digitaux : il démontra par un modèle mathématique que des substituts de neurones pouvaient opérer comme dans un système physique. Il rendit également acceptable quelques différences majeures entre les "ordinateurs biologiques" et les "ordinateurs électroniques", que la nouvelle génération des chercheurs en sciences cognitives avaient soulevé depuis de nombreuses années face à une communauté scientifique indifférente : 1) Les cerveaux peuvent tolérer des erreurs. 2) Les cerveaux ont une manière de se réparer ou de se corriger eux-mêmes, ou comme nous le disons souvent, ils apprennent à apprendre. 3) Les cerveaux peuvent gaspiller gratuitement de l'énergie, ralentir, et s'installer dans un état de relaxation énergétique, d'ajuster des seuils pour les informations plus ou moins importantes, au lieu de surchauffer et d'exploser comme certains ordinateurs avec lesquels j'ai travaillé. 4) Les cerveaux sont fortement interconnectés et peuvent faire plusieurs choses simultanément. 5) Les cerveaux peuvent rêver. Les mémoires peuvent être retravaillées pour donner des leviers de poids ou d'importance. 6) Les cerveaux peuvent oublier. Les êtres humains ont des mémoires à court terme et des mémoires à long terme, s'ils n'utilisent pas une information de manière suffisamment récente ou fréquente, ils repoussent la donnée inutilisée dans leur inconscient. Autrement nous devrions repenser tout notre passé pour retrouver notre couleur favorite. Hopfield continua et produisit des micro-chips (avec AT&T) pour commencer à mettre en application ce qui précède. La prochaine contribution au neurocomputing que nous aimerions mentionner maintenant est la Théorie de la résonance adaptative proposée par Stephen Grossberg, de l'Université de Boston. L Laa rrééssoonnaannccee aaddaappttaattiivvee Grossberg publia initialement une série d'équations différentielles qui décrivaient les mathématiques des réseaux en 1961 et 1964. Dans les années 70 il proposa un modèle unifié contreversal de la théorie de l'apprentissage, de la neurologie et des mathématiques. Son modèle est basé sur l'habilité neurologique de réseaux associatifs à chercher et fixer des niveaux de seuils de perception d'activité. Les seuils sont ajustés en permanence pour permettre au cerveau de porter son attention aux contrastes et aux comparaisons qui sont importants dans le monde pour un objectif donné. Par exemple, le "contrôle" du volume par l'oreille nous permet d'entendre des sons moins forts la nuit, ou d'éliminer des bruits inutiles dans la rue lors d'une conversation; de même la vision nocturne humaine s'ajuste pour voir mieux avec moins de lumière. En termes PNL, beaucoup de changements qui sont rendus possibles par des modifications des sous modalités, sont une fonction du passage d'un seuil de représentation à un autre. Grossberg s'intéressait à la manière dont le cerveau apprenait. Comment des sensations dans la mémoire à court terme peuvent-elles devenir des perceptions dans la mémoire à long terme ? Comment des sensations et de la mémoire emmagasinées peuvent-elles mener à une conscience stable? Selon la théorie de Grossberg, l'attention ou la conscience, est un mélange entre des sensations brutes dans la mémoire à court terme, combinées à une myriade d'associations de la mémoire à long terme. L'attention est une fonction de filtres harmonisables pour rendre les réseaux neuronaux sensibles à des catégories ou des codes d'expériences, par l'ajustement des poids et des seuils de signaux arrivant dans un réseau donné. Grossberg prédit que les yeux ont tendance à chercher des objets et des expériences dans le monde externe, en comparant d'anciens schémas des mémoires avec ce qui est vu. Pour expliquer ce processus il a crée un modèle d'une hiérarchie coopérative/compétitive de fonctions qui relient les perceptions sensorielles et le cerveau. Dans son Outstar learning theorem , Grossberg suggère que le cerveau envoie un schéma à l’œil -un signal représentatif- ou tout autre organe de perception, qui résonne avec l'activité neuronale entrante dans un réseau, de manière à créer un schéma de mémoire à court terme. Celui-ci a tendance à s'effacer chez les humains en l'espace de 15 secondes environ s'il n'est pas relayé dans la mémoire à long terme. Grossberg propose un Instar category developpement theorem complémentaire qui explique comment, des schémas répétés, persistants ou intenses de l'expérience sont installés dans la mémoire à long terme par le réajustement des poids synoptiques des réseaux neuronaux, et effectuent un apprentissage durable. Un autre paramètre clé de la théorie de la résonance adaptative est la vigilance, qui fixe le niveau de comparaison ou de différence entre un schéma particulier de la mémoire à long terme et une sensation à court terme du monde extérieur. Voici un diagramme de la Théorie de la résonance adaptative de Grossberg Orienting Subsystem Attentional Subsystem Gain Control Long-Term Memory Mismatch [meta-programs,beliefs, emotions, criteria] Reset Instar Bottom-Up Learning Outstar Top-Down Templates from Long-Term Memory Vigilance Gain Control Short-term Memory from Outside World Bottom-Up Input, Raw sensations from Outside world Nous voyons ici quelques opportunités pour réviser le modèle des stratégies NLP. La composante "vigilance" dans ce modèle pourrait correspondre au point de choix dans le modèle TOTE, et la création d'un système de notation pour les sous modalités pourrait refléter les fonctions Instar/Outstar de l'apprentissage, ce que nous avons tendance à présenter comme le premier test de la stratégie (outstar) et le test final (instar). Si nous tenons compte du fait que les distinctions du métaprogramme créent les interactions de la gamme mismatch, nous aurons même plus d'habilité dans un modèle stratégique. Nous n'essayons pas d'expliquer ces distinctions PNL à un niveau neurologique, mais de distinguer le schéma isomorphique. Un exemple simple : un homme a la croyance que les gens ne méritent fondamentalement pas qu'on leur fasse confiance, même si de nombreuses occasions pourraient le lui montrer le contraire. Ces exemples ne rentrent pas dans sa mémoire à long terme pour installer un schéma différent. Il y aura par contre un seuil, peut-être fixé par un méta-programme. Quand il aura vécu suffisamment d'occasions, il se pourrait qu'il adhère à la croyance inverse, que les gens sont fondamentalement dignes de confiance. Un exemple très intense pourrait aussi changer sa croyance. Mais avant de suggérer des applications spécifiques du neurocomputing à la PNL, jetons un coup d’œil sur les travaux de plusieurs scientifiques qui appartiennent plus à des domaines des sciences cognitives telles que l'intelligence artificielle, la linguistique qu'aux réseaux neuronaux. L Lee ddoom maaiinnee eennaaccttiiff ddeess sscciieenncceess ccooggnniittiivveess Ici la cognition est définie non comme la représentation du monde pré-existant par des schémas pré-existants dans l'esprit, mais plutôt comme une prise en compte du monde et d'un esprit sur la base d'une histoire et d'une variété d'actions qu'un individu opère dans le Monde. Dans le domaine de l'énaction, la pensée est maintenant définie comme des séries d'expériences accumulées d'une personne. Ces expériences forment un accouplement structurel entre un réseau de sous-réseaux sensitomoteurs interconnectés à de multiples niveaux. Varela, Thompson et Rosch donnent un exemple élégant : "dans une expérimentation classique, Held et Hein élevaient des chatons dans l'obscurité et ne les exposaient la lumière que dans des conditions bien contrôlées. Un premier groupe d'animaux pouvait bouger normalement, mais chacun d'entre eux fut attaché un petit attelage contenant une corbeille dans laquelle était un membre de l'autre groupe d'animaux. Les deux groupes partageaient donc la même expérience visuelle, mais le second groupe était entièrement passif. Lorsque les animaux furent relâchés après plusieurs semaines d'expérience, le premier groupe de chatons se comportait normalement, mais ceux qui avaient été promenés se comportaient comme s'ils étaient aveugles, se cognaient partout et tombaient par dessus bord. Cette belle étude démontre le point de vue enactif comme quoi les objets ne sont pas vus par l'extraction visuelle des formes, mais plutôt par le guidage visuel de l'action." Parallèlement, les linguistes George Lakoff et Mark Johnson suggèrent "une approche expérientaliste de la cognition" qui complète le paradigme enactif. Dans leurs travaux ils sentent que "des structures conceptuelles signifiantes" jaillissent de deux sources : 1) de la nature structurée de l'expérience physique et sociale, 2) de l'aspect bien structuré de l'expérience physique et interactionnelle qui permet d'abstraire des structures conceptuelles. La pensée rationnelle est l'application de sources cognitives très générales de telles structures - la focalisation, le scanning, la super imposition, le renversement d'image etc.Les Etres humains ont tendance à penser en termes de structures cognitives générales et en termes de métaphores comme "les schémas d'images kinesthésiques comme des containers, partie ou entier, ou des schémas source-voie-destination qui trouvent leurs origines dans l'expérience corporelle" dit Johnson. Lorsque des centaines de palettes multicolores furent montrées à différentes cultures autour du monde, presque toutes les personnes de tous pays choisirent la même comme le "meilleur" exemple d'une couleur de base donnée. Lorsque vous regardez le "meilleur" exemple de bleu, dit Lakoff, les neurones se conforment dans une schéma optimum particulier et commun aux cerveaux de tous. "La couleur rouge n'est pas une propriété du monde externe" dit Lakoff," c'est une proprité de l'esprit". Une autre personne qui suggère que l'esprit possède des propriétés structurelles spécifiques est le chercheur en intelligence artificielle Marvin Minsky du MIT, qui, avec Seymour Papert, critique la théorie émergente de la cognition mise en avant par les connexionistes. Minsky préfère l'idée que l'esprit consiste par de multiples "agents" qui morcellent le problème de la pensée en un micro monde d'agents de cognition pour former "la Société de l'Esprit". Il y a ensuite l'école de psychanalyse appelée la théorie des relations à l'objet, qui a tendance traiter les Etres humains comme des constellations de sous identités. Pour Méllanie Klein, le processus de base du développement mental est décrit comme l'intériorisation d'un riche étalage de personnes signifiantes dans sa vie. L'un dans l'autre, ces approches pourraient être considérées comme isomorphiques au "Modèle des parties" en PNL, ce qui nous permet de délimiter un domaine conceptuel dans lequel le recadrage en 6 points, la dissociation V/K, et la négociation entre parties peuvent trouver leur place. A quel point les ordinateurs à réseaux neuronaux fonctionnent-ils bien? Le neurocomputing est maintenant utilisé partout, de la reconnaissance de l'écriture manuelle, à la détection sonore, la gestion des stocks et la protection des fraudes pour les compagnies de cartes de crédit. L'un de nos exemples favoris est le NETtalk de Terrence Sejnowski, un système de simulation neuronal à l'université John Hopkins et qui utilise seulement 300 neurones avec 18 000 connexions électroniques pour lire des textes et résumer des discours. Ceci est un exemple à partir duquel nous pourrions commencer à penser aux stratégies en PNL. Q Quu''eesstt ccee qquu''uunnee aaccttiivviittéé?? De nos jours, l'élément clé en neurocomputing ne consiste pas à juste interconnecter deux tiers de neurones. Mais en utilisant les unités cachées pour un tiers (des niveaux de neurones intermédiaires), les unités cachées utilisent moins de connexions entre les couches d'information. Input Output Input Hidden Units Output Dans les ordinateurs, ce type d'architecture tend à créer des pistes signifiantes représentationnelles émergentes. Les choix importants sont encodés sous forme de tests et points de choix dans ces unités, comme des feux de signalisation aux carrefours encombrés. Sejnowski utilisait 203 neurones pour scanner un échantillon de texte en Anglais à la sortie, alors que 26 neurones comparent le texte à des phonèmes pour la prononciation, et 80 unités sont cachées au milieu du processus pour ce qui concerne les relations entre les différents phénomènes. Le résultat est effroyablement efficace. Le système commence par un jeu de valeurs prises au hasard qui ressemble à un gémissement continuel et inintelligible. Après une séance d'entraînement, le système ajusté regroupe les mots. Même si le système continue à mal prononcer, ses balbutiements commencent subitement à sembler plus humains, comme des bébés, avec des rythmes familiers, et ensuite, des sons signifiants commencent émerger. En 1986, NETtalk, concouru sur un DEC VAX, apprit à lire un exemple de texte de 100 mots avec 98% de réussite - à peu prés un troisième niveau de lecture - en 16 heures. Même plus remarquable, il pouvait lire d'autres textes similaires avec pratiquement autant de réussite. Aujourd'hui, NETtalk qui concourt sur un modem CNAPS (station de travail base sur réseau neuronal) prend moins d'une seconde pour réaliser cette même procédure. U Unn ddeerrnniieerr eexxeem mppllee Rodney Brooks au MIT construit des robots qui s'approchent de l'intelligence des insectes. Son approche consiste à trouver un échappatoire à ce qu'il appelle la "déception de l'AI", c'est à dire la tendance d'aller vers l'abstraction au lieu de fabriquer des compétences perceptuelles et motrices. Son but : "construire des robots entièrement autonomes, des agents mobiles qui coexistent dans le monde avec les humains, et considérés par ceux-ci comme des êtres très intelligents avec leurs propres droits". Son objectif ne consiste pas dans la décomposition usuelle d'un système par sa fonction, mais plutôt d'une décomposition innovante par l'activité. "Chaque activité, ou système producteur de comportements se connecte individuellement d'une manière sensée avec l'action"... Une activité est un schéma d'interactions avec le monde. Un autre nom pour nos activités pourrait bien être des compétences faisant ressortir que chaque activité peut être, au moins post facto, rationalisée comme poursuivant un but. Voici une charte représentant la façon dont Brooks sépare chaque activité reason about behavior of objects plan changes to the world identify objects Sensors -------> monitor changes build maps explore --------> Actuators wander avoid objects L'approche de Brooks produit des résultats fascinants. Elle est un exemple du domaine enactif en neurocomputing, dans lequel un système bien défini parvient à l'exploration du monde et se créer de nouvelles habilités, de nouvelles compétences et de l'intelligence. N'est ce pas ce que nous avons essayé de faire avec les stratégies en PNL ? Le modèle de Brooks pour construire des robots supporte une ressemblance incontestable avec le "format opératif", modèle d'acquisiton de compétence de Leslie Cameron Bandler, David Gordon et Michael Lebeau, qui est décrit élégamment dans leur ouvrage insuffisamment connu "The Emprint Method" publié en 1984. Ici les auteurs décomposent les compétences en termes de contextes - temps, organisés en résultats, activités et tests d'évaluation. Depuis prés de 10 ans la PNL dispose déjà d'un modèle qui peut être utilisé pour créer des stratégies interconnectées et opérant parallèlement! Mais peu nombreux furent ceux qui prirent leur temps pour appliquer leur travail à la détection et au design de stratégies. Si nous pouvons, nous en PNL, commencer à utiliser l'Emprint Method avec des formats opératifs interagissant de manière parallèle et simultanée, et en intégrant les sous modalités et les distinctions du méta programme qui indique comment les gens passent d'un point de seuil à un autre. Alors nous aurons un modèle pour les stratégies qui sera plus proche de ce que la science sait maintenant à propos du cerveau et de l'esprit. Cela peut même être facile, mais pas simple. Beaucoup des stratégies proposées aujourd'hui sont des simplifications de processus mentaux, des "fictions utiles". Les stratégies de la mémoire, de l'épellation, de la décision, de la motivation, et d'apprentissage et la manière dont nous les enseignons de nos jours pourraient être assemblées en des réseaux pour représenter des processus simultanés. Les méta-stratégies comme le générateur de comportement, les noyaux du recadrage et d'autres protocoles, la célèbre stratégie de Walt Disney, et les projets de modélisation de nombreux praticiens produisent des résultats, mais nécessitent souvent de prendre en compte beaucoup d'hallucination pour suivre les points essentiels. Si vous souhaitez avoir une approche hypnotique de la PNL, ceci vous sera utile, mais produira parfois des résultats inattendus. Nous croyons que la PNL peut tirer profit d'une approche plus rigoureuse de la modélisation de la cognition. Beaucoup d'outils existent déjà. Nous avons une notation pour les stratégies et un système de distinctions élégantes en matière de méta-programme et de sous modalités qui pourrait être marié avec l'Emprint Method et les sciences cognitives récentes. Dans le prochain article, nous allons revoir comment les stratégies sont actuellement présentées en PNL, et exposer nos suggestions sur la manière dont nous pouvons commencer à pratiquer et mettre concrètement en application les principes et les méthodes que nous avons présentés ici. Mais, dès maintenant, vous pouvez commencer à examiner pour vous même quelles sont les stratégies que vous utilisez qui vous interconnectent avec d'autres. Quelles sont les boucles de feed-back et feed-forward entre les séquences de mémoire, de décision, de motivation et d'apprentissage? Jetez un coup d’œil à l'Emprint Method - comment pourrions-nous l'utiliser pour représenter des processus simultanés et parallèles? Quelles sont les qualités émergentes des stratégies bien formulées ? Telles sont quelques unes des questions que nous allons essayer de vous poser dans notre prochain article. "La vérité est que, la science de la nature a depuis trop longtemps fourni uniquement un travail sur le cerveau et la fantaisie. Il est maintenant grand temps de retourner la plénitude et au silence d'observations sur du matériel et des choses évidentes". Robert Hooke, Micrographia (1665). Brian VAN DER HORST et Joseph O'CONNOR. Traduction de Marie Rose KORO. Paru dans Anchor Point en juin 1994.