Le concept d`hyperinformation
Transcription
Le concept d`hyperinformation
Le concept d’hyperinformation Entrée en matière Le positionnement général 1 - Les bouleversements mondiaux, la nouvelle donne 1.1 - L’accroissement des connaissances 1.1.1 - Les connaissances 1.1.2 - Vocabulaire et terminologie 1.1.3- Les Veilles 1.1.4 - Intelligence Economique 1.2 - Vieillissement et démographie 1.2.1- Généralités 1.2.2 - Les mutants 1.2.3 - La croissance démographique 1.2.4 - La croissance économique 1.3 - Eléments de géopolitique 1.3.1 - La méthode des classements 1.3.2 - La situation géographique 1.3.3- Les indicateurs et les matrices de risques 1.3.4 - Les données bibliographiques 2 - Adieu Adam Smith 2.1 - Exemple de l’évolution des structures de management 2.2 - La structure de gestion et de management modélisent-elle les hommes? 2.2.1 - Pour qui butinent les abeilles? 2.2.2 - Les contraintes conduisent toujours les hommes à évoluer, et pas nécessairement dans le sens prévu. 2.3 - Les barycentres, les changements de référentiels 2.3.1 - Le Comité National du CNRS 2.3.2 - Analyse d'une communauté scientifique 2.3.3 - Le changement de référentiel 3 - Le concept d’Intelligence Compétitive ou d’Intelligence Economique 3.1 - Le déroulement des Veilles 3.1.1 - La création d’un produit et son passage dans le domaine commercial 3.1.2 - Le bench-marking 3.2 - Les décalages 4 - L’hypercompétititon 4.1 - Où nous battons nous? 4.1.1 - Il existe quatre domaines dans lesquels la compétition va s’exercer 4.1.2 - Prix et qualité perçue, l'un des domaines les plus important 4.2. - Les changements de règles 4.2.2 - Prenons comme exemple les voitures 4.2.3 - Le passage du produit au service 4.2.4 - Autres façons de faire 4.3 - Les maîtres mots 4.3.1 - Une nécessité 4.3.2 - Un avantage 4.3.3 - La pensée inductive et la pensée déductive 4.3.4 - La technosphère et le technoglobalisme 4.3.4.1 - La technospère 4.3.4.2 - Le technoglobalisme 4.3.4.3 - Anticiper 4.4 - Les changements technologiques, le passage dans le second plan 4.4.1 Intégrer plus de technologie dans les produits et les services 4.4.2 - Le produit ou la fonction ? 4.4.2.1 - Le produit 4.4.2.2 - La fonction 5 - Eléments de base pour une information pour action 5.1 - Récapitulons quelques données de base 5.2 - Le temps 5.2.1 - Les différentes constantes de temps dans le domaine de l’information 5.2.1.1- La publication scientifique 5.2.1.2 - L’utilisation des citations. 5.2.1.3 - L’utilisation de l’Internet 5.2.1.3.1 - La démocratisation de l’accès à l’information. 5.2.1.3.2 - L’évolution des systèmes de diffusion et d’accès à l’information 5.2.1.3.3 - Quelques règles simples dans l'utilisation de l'Internet 5.2.1.4 - Les agents intelligents 5.2.1.5 - Etre présents sur l'Internet 5.3 - Les brevets 5.3.1 - Exemples de recherche 5.4 - La relation entre le temps et les autres types d’informations 5.4.1 - Les lettres d’information 5.4.1.1 - Généralités sur les lettres d'information 5.4.1.2 - Une utilisation offensive des lettres 5.4.1.2.1 - Extraits de la lettre sur les matériaux (lettre Internet) 5.4.1.2.2 - Des données formelles à l'Internet 5.4.1.2.3 - Profils de sociétés et Internet 6 - Le triptyque stratégique dans le système d’information 6.1 - Les étapes principales 6.2 - La mise en perspective 7 - La collecte des informations 7.1. - La collecte des informations formelles 7.2 - Stratégie d’accès aux informations issues de bases et de banques de données 7.3 - Quelles sources rechercher 7.4 - Quels sont les vecteurs d’informations formelles dans le champ de mes préoccupations 8 - La collecte des informations informelles 8.1 - Les capteurs d'information externes 8.2 - Que collecter, comment fixer les cibles 8.3 - Se mettre à la place de l'autre 8.4 - Que pouvons nous divulguer 9 - Les informations d'influence, le lobbying 9.1 - La Technosphère du lobbying 9.2 - L'information d'influence 9.3 - Le lobbying 10 - Systématiser le rapport d'étonnement 10.1 - L'intérêt de cette méthode 10.1 - L'intérêt de cette méthode 11 - La validation des informations informelles 11.1 - Une méthode simple 11.2 - Des méthodes plus complexes 12 - Une observation intermédiaire: la Veille Sociale 12.1 - Une méthode simple 12.2 - Les valeurs de la Veille Sociale 13 - Gestion et diffusion des informations 13.1 - La gestion des informations 13.1.1 - La saisie des informations 13.1.2 - La présentation des résultats 13.2 - La diffusion des informations 13.2.1 - Principes de base, l'unicité de saisie, le choix de supports multiples. 13.2.2 - Pour qui, comment, avec quels moyens 13.3 - La feuille d'impact stratégique 13.4 - Les produits "papier" 13.5 - Les produits informatiques 14 - L'analyse des informations 14.1 - Principes généraux 14.2 - Quelques exemples 14.2.1 - Exemple de corrélations matricielles 14.2.2 - Exemple de réseau 14.2.3 - Exemples de comparaisons de listes, et de bench-marking automatique 14.2.4 - Exemple d'une sériation par blocs 14.3 - L'Infographie et les représentations 14.3.1 - Exemple de représentation 14.3.2 - Représentations de diverses productions scientifiques 14.3.3 - Représentations des domaines structurants 15 - Prévision 16 - Quelle structure pour le service d'hyperinformation 16.1 - La nécessité d'une structure en réseau 16.2 - Changer les mentalités 16.3 - Utiliser les nouvelles technologies 16.3.1 Au delà des nouvelles technologies de l'information, les normes des produits d'information 16.3.2 - L'EDI 16.4 - La norme HTML 16.5 - La norme ACROBAT d'ADOBE 17 - La protection des informations 17.1 - Les comportements 17.2 - La protection informatique 17.2.1 - Le site ou les sites centraux 17.2.2 - La micro-informatique 17.2.3 - Exemple d'utilisation d'un logiciel de cryptage: CONDOM 17.2.4 - Les TTP 17.2.5 - Le fax 17.3 - L'Internet 17.4 - Les systèmes physiques 17.5 - Brevets ou divulgation 18 - Etudes de cas 18.1 - L'agilité, le commerce électronique 18.1.1 - Agilité 18.1.2 - Le commerce électronique 18.2 - L'Observatoire de la Production Scientifique en Provence Alpes Côte d'Azur 18.3 - Une diffusion systématique des informations en média multiples. Le Colloque sur l'Information Elaborée d'Ile Rousse 18.4 - Un service dans une entreprise: un intranet 18.4.1- Les fonctions de base d'un Intranet 18.4.2 - L'Intranet multisites 18.5 - Exemples d'utilisation de "check-lists" 18.6 - Les technologies stratégiques françaises 18.6.1 - Méthode utilisée pour les choix 18.6.2 - Représentation synthétique 18.7 - Une revue électronique internationale: ISDM 18.8 - Une simple question de bon sens 18.9 - Accès aux Informations par combinaisons de CD-ROM et de textes 18.9.1 - Les techniques de l'ingénieur 18.9.1.1 - Le lexique des termes techniques 18.9.1.2 - Index de la collection 18.9.1.2.1- Recherche par thèmes 18.9.1.2.2- Recherche par mot clé: 18.10.1 - L'Encyclopaedia Universalis 18.10.1.1 - La méthode de recherche à partir d'une question indexée 18.10.1.2 - L'exemplarité de la méthode 19 - Enseignement 19.1 - Les révélateurs, les catalyseurs 19.1.2 - Les technologies nouvelles 19.1.3 - L'Internet 19.2 - Quelques éléments pour agir vite 19.2.1 - L'inventaire de l'existant 19.2.2 - Introduire ces éléments nouveaux dans les cursus de formation 19.2.2.1 - L'enseignement primaire et secondaire 19.2.2.2 - Dans le cadre de l'enseignement supérieur 19.3 - Le renouvellement Conclusion Le concept d’hyperinformation Henri Dou Entrée en matière La maîtrise d’une compétition de plus en plus large, la globalisation de la concurrence, des technologies, des connaissances interpellent les entreprises. Le développement des Veilles (Technologiques, Concurrentielles, Financières, Environnementales...), l’Intélligence Economique, la ou les prises de risques géopolitiques... sont autant de sollicitations, de comportements indispensables aux entreprises d'aujourd'hui et de demain. Dans cette présentation, nous allons replacer ces éléments dans un ensemble cohérent, en mettant en avant plusieurs directions fondamentales sur lesquelles doivent s’appuyer les domaines précédents: l’hypercompétition, l’hyperinformation et une vision macroscopique du développement. En effet, c’est le recueil, le traitement et la compréhension des informations nécessaires au maintien de l’hypercompétitivité d’une société commerciale, industrielle, de service, voire d’un service public ou d’une collectivité qui est au coeur de ces systèmes. La rédaction de ce livre s’inscrit dans une suite logique d'événements, appuyé sur les progrès méthodologiques, les réflexions et les outils développés par une équipe enseignante, des consultants, et des chercheurs. Cet ensemble de personnes réunis au sein du CRRM, du DEA Veille Technologique et Intelligence Compétitive et surtout d’un programme doctoral international extrêmement structuré a développé depuis plusieurs années une réflexion commune étayée par des cours, des recherches, des études de cas, des demandes d’étudiants en stages industriels, des thèses avec des bourses dédiées ou des conventions CIFRE, etc. Nous ne soulignerons jamais assez l’importance dans ce domaine d’un ensemble cohérent d’enseignement et de recherche. Mais, nous soulignerons aussi, en toile de fond de cet ouvrage, combien en France, les disciplines modernes qui apportent des richesses par création de biens immatériels sont difficiles à défendre, témoin en a été la tentative de déstabilisation et de destruction dont le DEA Veille Technologique a été l'objet. Heureusement, grâce à l’aide de nombreux amis, enseignants, industriels et politiques, cet axe de recherche et de formation a pu être maintenu. Je les remercie tous vivement pour la confiance qu’ils nous ont témoignés en ces moments difficiles. Dans le cadre de l’Intelligence Economique, nous aborderons plus loin la Veille Technologique, de nombreux documents ont déjà été publiés et en fonction de l’évolution du domaine, d’autres le seront certainement. Intélligence Economique et Stratégies des Entreprises, Henri Martre, La Documentation française 1994, -. Les sorties de crise et la reconstruction, Xavier Guilhou, Défense, n°77, Septembre 1997, pp, -, Dossier: L'Intelligence Economique, un faux débat institutionnel, de vrais enjeux de société, Xavier Guilhou, Défense, 74, Décembre 1996 - Approches Françaises du Renseignement, direction Pierre Lacoste, pp.89 - Approches françaises de l'Intelligence Economique, C. Harbulot - Stratégies Economiques en Bosnie-Herzégovine, Les cahiers de la Fondation des Etudes de Défense, cahier n°9, 1996, Marc Défourneaux - Economic Intelligence, Business Week du 28 Octobre 1996, p.73-76 - Du Renseignement à l'Intelligence Economique, B.Besson et J.C. Possin, Dunod, 1996 consulter aussi les sites: http://www.scip.com,http://web.1-888.com/iwmag/01-0006.htm, http://www.adminet.com/min/pm/cgp/levt.html, http://ids.crrm.u-3mrs.fr). Mais, dans le cadre de l’information, surtout en tenant compte de ses facettes multiples et du rôle de pilier central qu’elle tient dans les diverses approches des Veilles et de l’Intelligence, j’ai voulu apporter une contribution, qui est une somme de réflexions qui ont été faites tout au long des diverses formations auxquelles j'ai participé. Ce livre n’est pas exhaustif, tant sans faut, et ce serait sans doute impossible. Il est fait seulement avec l’intention de donner aux lecteurs une série d’éclairages pouvant les aider a mieux situer leurs travaux et leurs réflexions, dans un ensemble complexe, souvent mal perçu par les entreprises et par les institutions. Le CRRM a déjà publié trois ouvrages dans le domaine (La Veille Technologique H. Desvals, Henri Dou Dunod 1992, Veille Technologique et Compétitivité, H. Dou, Dunod 1996 La Bibliométrie et ses Techniques, H. Rostaing co-édition Sciences de la Société-CRRM, Marseille 1996), nous supposons qu’une partie des méthodes, exemples et outils décrits dans ces ouvrages sont connus des lecteurs. De ce fait nous ne les reprendrons que dans les grandes lignes, en focalisant l’ensemble de la présentation sur des aspects méthodologiques et pratiques qui doivent être appliqués du mieux possible afin de transposer avec pragmatisme les travaux, méthodes et outils fruits de la réflexion, du travail de recherche et des expérimentations. Dans le cadre de cet ouvrage, nous reprendrons aussi certaines idées issues des réflexions menées par un groupe de personnes, rassemblées dans le CERE, Chaire Européenne de Recherche et d’Enseignement en Intelligence Economique (CERE IDS, Europôle de l'Arbois, Aix en Provence et CERAM, Sophia Antipolis). Cet ensemble d’industriels, d’universitaires, agissant librement hors des structures classiques a permis de réelles avancées dans le domaine et mérite d’être largement connu. Le prolongement de cette réflexion a été réalisé sur l’Europôle de l’Arbois, grâce au centre de formation IDS et avec le CERAM à Sophia Antipolis. Cette forte communauté de pensée et d’action nous aide considérablement, que tous ces acteurs du changement et de développement trouvent ici mes plus vifs remerciements. A l'étranger, les relations constantes entretenues depuis des années avec le Brésil (le DEA a un Centre d'Enseignement à Rio de Janeiro à l'Instituto Nacional de Technologia), l'Indonésie (de nombreux séminaires ont été réalisés à Bandung à l'Institut de Technologie de Bandung et à l'Université de Padjadjaran) et le Luxembourg (Centre de Recherche Public Henri Tudor) nous ont permis de développer des méthodes applicables non pas seulement dans le contexte français ou Européen, mais aussi dans un contexte international. Citons à ce propos un extrait de la Rubrique O Pais/Economia, Journal de Commercia, 19 Septembre 1996: "Petrobras importa estratégia francesa. A Petrobras está preparando plano estratégico para o próximo ano baseado na competição com o capital privado e que se terá como instrumento importante O Sistema de Inteligencia Competitive e Technica (Sict), método de tratamento da informação desenvolvido pela Universidade d'Aix-Marseille III ..." (Petrobras est la plus importante companie pétrolière du Brésil) Ces multiples relations internationales que nous entretenons sont d’une utilité permanente pour situer sans cesse les réflexions menées par le groupe dans un contexte global de large ouverture et polyculturel. La Communauté Economique Européenne, par l’intermédiaire des programmes ADAPT et Innovation auxquels nous participons contribue à une avancée méthodologique et pragmatique significative, surtout dans le secteur des PMI et des PME. VIRTUE, l’Université Virtuelle Européenne (EVICI Université Virtuelle Européenne) nous permet aussi d’approfondir et de mettre en place des modalités d’enseignement plus vastes, plus internationales, faisant appel à la volonté des enseignés et à une très forte délocalisation en réseau. Enfin, si on considère l'information comme un des vecteurs de la compétitivité, il est nécessaire d'aborder rapidement, sans vouloir être exhaustif, un certain nombre de notions touchant à l'économie, mais au sens macro du terme. Une sorte de base de compétences dans ce domaine, que toute personne se lançant dans le domaine des Veilles, de l'intelligence Economique, du Business Development devrait posséder au départ, et cultiver par la suite. Actuellement, ce ne sont pas une juxtaposition de faits microscopiques qui peuvent reconstituer le tout. La somme est parfois fort différente, d'où la nécessité d'une approche macro. En fait, on ne peut plus dire que la somme de diverses études de cas va reconstituer l'ensemble de la méthode. Elles ne feront qu'étayer celle-ci, pour autant qu'on l'ai abordé au départ. Enfin, tout au long de cet ouvrage, nous commenterons certains aspects de situations courantes rencontrées dans la vie sociale, pour montrer comment une information tout à fait publique et banale, si elle est analysée non pas en tant que tel, mais en fonction des conséquences qui seront induites par les fait relatés, peu prendre une importance toute particulière. Peut donnerons nous aux lecteurs l'envie, dans leur travail, dans leurs observations de devenir "curieux au deuxième degré". Le positionnement général La France est un pays de langage, ou le verbe, les mots nouveaux, les discours permettent souvent à certains de changer leur positionnement sans pour cela avancer ou réaliser. Alain Peyrefitte, dans le Mal Français décrit bien cette orientation perverse: on doit le faire, on en a parlé, donc on l’a fait (Le Mal Français, Alain Peyrefitte, Plon, 1976) Il en va de même, a mon avis, pour l’information. Dans toutes les approches projetées à l’avant scène par le Xième plan (Veille Technologique), puis par le XIiéme plan (l’Intelligence Economique) le technoglobalisme, la maîtrise et l’appréciation des risques, la détermination des technologies stratégiques,.... reposent avant tout sur la maîtrise des systèmes d’information. Or, nous retrouvons là un penchant très français, on n’en parle pas. On considère comme implicite, acquis, un domaine où sur le plan de l’effort (intellectuel, au plan des universités, économique au plan des entreprises et des organismes d’état) la France ne se situe que dans l’arrière plan des Pays développés. Il est commun de dire que la France est bien placée au plan de la production d’informations (Bases de données), mais qu’elle est très mal placée au niveau de leurs utilisations. Produisons nous pour les autres ou pour une compilation plus ou moins large à destination de nos concurrents? Nous allons essayer, dans cette présentation, de clarifier ce problème, en replaçant comme cela est nécessaire, voire fondamental, l’information au coeur des problèmes de développement et d’hypercompétition des entreprises. Nous nous appuierons entre autre sur le concept d’hypercompétition tel que le définit dans son livre l’hypercompétititon, Richard d’Aveni (Hypercompetititoin, Richard d’Aveni The Free press, Simon & Schuster Inc. 1994, ISBN 0-02906938-6) puis nous proposerons ensuite les bases de l’hyperinformation en spécifiant bien en quoi celle-ci est différente de l’information classique. Nous essayerons aussi de présenter globalement ce concept, en le replaçant dans une chaîne plus large, celle de l’information formelle et informelle pour action, pour se renseigner, pour gagner. Nous considérons aussi pour acquis les concepts et les méthodes qui sont décrits par différents auteurs au niveau des différentes veilles, ou du management des technologies. En ce qui concerne le concept d’Intelligence Economique, je pense qu’il est encore trop politisé et qu’un flou de langage, d’objectif, de finalité est maintenu artificiellement par certains, à la fois pour servir de faire valoir, ou pour s’introduire dans un domaine sans trop faire d’efforts ou tout simplement pour générer des profits directement assimilables par certaines structures: définissons un concept, dégageons des aides, et participons largement à leur distribution! On retrouvera donc, dans les différents chapitres de ce livre, bien des méthodes, des concepts, des analyses, des outils (de gestion, d’analyse, de production et de diffusion d’informations) qui participent pleinement dans ce qu’il est convenu de nommer «Competitive Intelligence». Je préfère ici la définition américaine plus claire et plus explicite. De toutes façons, on n’évitera pas que selon les interlocuteurs, la compréhension d’un mot, d’un titre, ne soit déformée par le vécu de cet interlocuteur. Dans le domaine qui nous préoccupe, ceci est important, et je pense qu’il faut définir ce que sous-tend le vocabulaire employé, surtout au niveau du travail pas nécessairement apparent qui devra être réalisé pour atteindre les objectifs. La figure suivante, montre comment le langage descriptif apparent n’est que le sommet d’un iceberg dont la partie cachée représente le travail effectif à réaliser. Définitions, mots, concepts.... Veille Technilogique, Competitive Intelligence, Intelligence Competitive Competitive Technical Intelligence Competitive Intelligence Technology Watch (trop restreint) MOTS Competitivité hypercompettition hyperinformation Plan de renseignement Réseaux..... Ce que l'on ne voit pas !!!!! Methodes Strategies Outils Experts ..... CRRM Positionnement du vocabulaire et des concepts 1 - Les bouleversements mondiaux, la nouvelle donne Actuellement on parle couramment de globalisation de l’information, du commerce international, de la géopolitique, etc. Le terme de globalisation, s’il est bien perceptible au niveau des sciences et des techniques, reste cependant plus flou au niveau de la compétition, du commerce, de différents aspects géopolitiques. Sans entrer dans les détails, nous allons, essayer d’introduire les principaux faits et concepts qui vont nous guider ensuite pour exposer les grands principes de l’hyperinformation. 1.1 - L’accroissement des connaissances Au fur et à mesure que les années passent, les progrès scientifiques, dans toutes les disciplines se font de plus en plus nombreux. Possédant un acquis de plus en plus important, soutenu par une extension mondiale des recherches scientifiques dans un nombre de plus en plus grands de pays, ce capital de savoir et d’expériences augmente sans cesse. Le problème de son exploitation rationnelle se pose. Celui-ci, aura un corollaire, l’information au sens large, depuis la manière d’emmagasiner ces connaissances, jusqu’aux méthodes moyens et facilités pour accéder à cellesci. 1.1.1 - Les connaissances Les connaissances scientifiques sont nécessaires pour permettre des avancées dans les domaines de la connaissance générale ou spécialisée. Dans certains cas, les résultats obtenus peuvent être utilisés pour réaliser des avancées dans les domaines technologiques. D’autre par, le brassage des populations, le développement des universités et des collaborations internationales conduit des pays qui jusqu’alors avaient été éloignés des développements scientifiques à jouer un rôle important dans certaines disciplines. C’est ainsi qu’un des pays du monde qui comprend le plus de docteurs es-sciences est l’Inde. Ceci conduit à la création, dans ces pays, des îlots de progrès et de savoir qui seront utilisés par certaines firmes internationales. C’est la cas par exemple des biotechnologies, ou les pays du Nord de l’Europe font régulièrement effectuer des recherches en Inde. C’est aussi le cas de travaux de mathématiques ou d’informatique (logiciel), ou les décalages horaires et l’accessibilité par réseau aux ordinateurs et à diverses ressources permettent un travail partagé ou délocalisé. Il en va de même pour des entreprises internationales de traduction, etc. Cet accroissement global pose le problème de l’accès à l’innovation et à certaines avancées scientifiques et techniques qui ne sont plus nécessairement réalisées dans les pays de l’Ouest. En outre, la manière de raisonner, d’appréhender les problèmes va être fortement influencée par la vision régionale et par la culture de ces pays. Ceci conduit à ne plus localiser les progrès scientifiques dans les lieux traditionnellement reconnus par les pays occidentaux, de même les sources d’information considérées par habitude comme les plus performantes ne constituent plus les seuls gisements disponibles. En effet, et on ne le redira jamais assez, il y a deux types de regards, celui très vertical réducteur, qui consiste à considérer les progrès réalisés dans un domaine précis, et celui plus large et plus global qui consiste à rechercher des pensées et des stratégies innovantes. 1.1.2 - Vocabulaire et terminologie La terminologie a une grande influence dans le domaine que nous abordons. De termes en termes, de concepts en concepts, on essaie souvent de minimiser l'action de certains, pour se replacer par une effet de langage à un niveau supérieur à celui-ci. Il est fondamental au départ, de bien savoir de quoi on va parler. de même dans une entreprise, il est un peu désuet de voir comment certains, pour se différencier ou pour apporter une touche personnelle ont renommé certaines fonctions de base, on penserait dans certains cas être revenus au temps des "scouts", qui il est vrai, dans le jeu de piste, avaient de bonnes qualités d'observation ! 1.1.3- Les Veilles Nous serons souvent confrontés à ces deux types de vision l'une réductrice, l'autre qui dépassant la description linguistique s'attachera au contexte général et à la fonction avec ses évolutions. Je me rappelle par exemple, lors d’un «brain storming» réalisé dans la Région de Marseille sur l’orientation possible à donner à un technopôle (devant être différent de ceux existants actuellement), qu’un des experts à l’issu de son analyse faisait remarquer qu’il ne voyait pas en quoi la Veille Technologique pouvait être utile, sauf si on la concentrait sur les domaines techniques des quelques laboratoires présents sur le site ou sur la zone géographique concernée. Cette vision réductrice, documentaire, montre comment le poids des mots peut avoir un impact important. La Veille Technologique, comprise de cette façon en France n’est pas considérée comme un élément majeur de l’Intelligence Economique. Par contre, aux USA, le même concept est décrit au niveau du vocabulaire par C.T.I. (Compétitive Technical Intelligence) ce qui l’intègre de facto dans le concept de C.I. (Compétitive Intelligence). C’est pour cela que j’ai toujours préféré la définition américaine de la Veille Technologique qui réuni les trois concepts les plus importants c’est à dire la compétitivité, qui va nécessiter des informations pouvant être formelles et informelles ce qui implique le terme intelligence considéré ici au niveau renseignement, le tout étant appliqué à des domaines technologiques à travers des méthodes et des outils introduisant l’approche technique et technologique. En outre, les notions de Compétitivité et de Renseignement introduisent une notion d’information active tournée vers le proche futur. De la même façon, en fonction de l’objectif, on sera amené à effectuer des surveillances diverses, au plan économique, commercial, financier, de la société, de l’environnement de l’entreprise, etc. Cet ensemble de veilles, peut être, selon la manière dont on l’exerce placé dans un contexte documentaire strict, ou peut s’ouvrir vers une véritable intelligence et compréhension du milieu dans lequel se place l’entreprise. Cela constituera alors l'Intelligence Compétitive au sens américain du terme. Essayons donc, avant tout, de ne pas nous laisser emprisonner par un contexte grammatical, mais plutôt de bien considérer les étapes nécessaires à l’acquisition des informations nécessaires à la stratégie de l’entreprise. Cette notion d’information, nous conduira à prendre en compte plusieurs aspects selon les cultures. En effet, à mon avis, et j’aurai l’occasion de l’expliciter par la suite, c’est l’interface entre la vision que doit avoir l’entreprise, sa traduction au niveau de diverses stratégies possibles, puis la mise en place du plan de renseignement qui conduira à informer les décideurs qui constitue l'action majeure. C’est dans ce creuset que se développe une intelligence particulière, celle de la vision à moyen terme, de l’analyse stratégique et du renseignement. Une interface indispensable Stratégies Vision Plan de Questions renseignement sources, collecte, validation CRRM La vision de l'entreprise, point de départ de la ou des stratégies, puis du plan de renseignement Nous rentrons, avec des technologies de plus en plus performantes dans un monde nouveau où les stratégies devront changer et s’adapter à ce contexte. Aujourd’hui, des entreprises de quelques personnes peuvent, dans le domaine de la finance, réaliser un chiffre d’affaire identique à celui de sociétés de plusieurs centaines de personnes. (CNBC 13 Avril 1997). C’est donc que le contexte change et que de nouvelles opportunités naissent. Anticiper, agir vite, être informé à temps devient le credo de ces entreprises nouvelles. Dans le contexte de la globalisation, ce n’est pas d’être petit qui va causer notre perte, mais c’est avant tout de rester isolé. 1.1.4 - Intelligence Economique L’Intelligence Economique, dont nous avons parlé plus haut, recouvre en France des choses très différentes suivant que l’on se place du point de vue des entreprises, de l’Etat, des Institutions Régionales, des Universités, de l’armée, etc.... Etant donné l’enjeu, il faut bien s’arrêter un peu sur ce problème et sur ce qu’il recouvre. La France se situe encore à la quatrième ou la cinquième place des pays développés. On verra au niveau des indicateurs géopolitiques que cela dépend du référentiel adopté. Des entreprises réalisent en permanence des performances remarquables au plan du commerce extérieur. Elles sont donc performantes et «pèsent» un certain nombre de milliards de dollars. Ce n’est donc pas nous, ni bien d’autres institutions qui vont leur apprendre ce qu’est l’Intelligence Economique, ni les ressorts, les méthodes, les actions qui la sous-tende. Le niveau National: En France, on peut dire qu’il y a deux Intelligences Economiques, et qu’elles sont mélangées, souvent avec un flou particulièrement gênant. La première concerne les enjeux de l’Etat, le redéploiement de certains de ses moyens, l’organisation ou la réorganisation de certaines structures dans le but de doter le Pays d’un système étatique global plus performant, pour qui? voila le problème. La deuxième c’est l’Intelligence Economique de terrain, qui doit concerner les entreprises souvent les PMI et les PME, pour leur permettre de devenir plus performantes, de s’impliquer dans les structures de réseaux, de s’organiser de façon différente pour être toujours présentes dans les années à venir. Là, on trouve bien moins de colloques, bien moins de discours, bien moins de «grandes messes». Pour avoir discuté souvent «à chaud» avec des chefs d’entreprises à l’issu de présentations, de débats, de colloques, j’ai pu apprécier la distance qui existe au niveau de la mise en pratique, et la désillusion provoquée chez certains chefs d’entreprises par des discours creux, le manque de focalisation des moyens et de politique claire dans ce domaine. Je pense que la clarification nécessaire va s’opérer au niveau des moyens, des méthodes, des actions de terrain, des outils qui vont être enseignés et mis en oeuvre pour atteindre les objectifs de l’Intelligence Economique. C’est au niveau des entreprises qu’il faut agir, ce n’est pas un ensemble de discours ni de macro-réalisations ou de macro-informations qui permettront d’atteindre les objectifs de compétitivité et de maintien de l’emploi qui doit être le notre. C’est en ayant des positions clairement définies, en évitant les querelles de chapelles ou même personnelles que les progrès s’accompliront. C’est la première leçon qui doit être retenue au niveau de l’Intelligence Economique En focalisant trop les esprits vers une Intelligence Economique d’Etat par l’Etat et pour l’Etat, on oublie souvent que ce sont les entreprises qui produisent et qu'elles devraient par le biais de fondations agissant comme interlocuteur au plan national, oublier certaines fois qu'elles sont multinationales. Xavier Guilhou, dans deux articles récents: L’Intelligence Economique: un faux débat institutionnel, de vrais enjeux de société Défense, n°74, Décembre 1996, p.47-50 et Intelligence Economique et stratégie d’entreprise La Tribune, n°1320, 28 Fev. 1997, pose bien le problème: «Dernier sujet à la mode, l’intelligence économique» doit sortir de ces débats exclusivement concentrés entre les mains des seules élites institutionnelles en France, pour quitter la sémantique, devenir un peu plus perspicace dans la conduite de notre avenir et engager le pays dans une véritable dynamique économique....... Vouloir un système parfait en matière d’Intelligence Economique est impossible et contradictoire avec l’essence même de la vie des affaires où tout est dans le mouvement et la combinaison de variables de plus en plus complexes avec de plus en plus de jeux d’acteurs, à commencer par ceux des marchés et des clients qui ne peuvent être figés dans une quelconque théorie..... Mais il faut surtout redonner aux opérateurs du monde économique les moyens législatifs et fiscaux pour recréer les termes de la confiance et permettre véritablement à l’intelligence latente et contenue de se développer que ce soit dans les PME ou au niveau des structures administratives concernées.» Dans le même ouvrage (Défense, n°7, Décembre 1996), la relation Etat-Entreprise est esquissée dans un article de Philippe Caduc: L’Intelligence Economique: un nouvel enjeu pour l’Etat est les entreprises. Mais, tout ceci n’est encore qu’un clair-obscur car en même temps que la parution de cet ouvrage, l’affaire Thomson Multimédia et sa revente au groupe Coréen Daewoo agitait les esprits, les propositions gouvernementales étant largement modifiées par la Chambre des Députés! (*) (*) une autre explication, mais invérifiable pourrait être celle-ci: «on» l’aurait fait exprès, tout ceci étant lié à l’accompagnement de la vente du TGV à la Corée du Sud. On voit comment un simple fait, peu être interprété ou perçu de façons différentes. Seul, un faisceau d’informations validées, peut donner une vision plus précise. L’Intelligence Economique aux USA Ruth Stanat, Président de SIS International et fondatrice de SCIP aux USA (Society For Competitive Intelligence Professionnal), a présenté au Colloque International de Rio de Janeiro en Juillet 1997 (*) les fondements de l’Intelligence Compétitive aux USA. Tout d’abord, ce qui a motivé la création de tout un domaine de recherche, d’applications de comportements des entreprises, appelé actuellement CI (Competitive Intelligence), a été avant toute chose la perte de compétitivité des produits américains sur les marchés internationaux, puis, l’attaque subi par les USA au niveau de leur propre marché intérieur et enfin la nécessité de gagner, dans cet environnement perturbé, de nouveaux marchés. Entre autre, la percée des ventes (pour ne pas dire plus) des automobiles japonaises sur le sol américain même a profondément marqué les américains. L’Intelligence Compétitive est un concept nouveau, vieux de quelques années. De ce fait il est encore mal connu et certains de ses aspects ne sont pas encore intégrés dans les stratégies des entreprises. (*) Ce colloque, a été organisé par F.Pacheco et la FINEP a été destiné à mettre en place au Brésil une dynamique d'Intelligence Compétitive et de Veilles. La France était représentée à ce Colloque par Henri Dou (CRRM) et François Jakobiak (Existrat, et Chargé de cours au CRRM). Le figure suivante montre les différentes dates qui jalonnent le concept de CI. Historique de L'Intelligence Competitive Ruth Stanat, SIS Intelligence Compétitive Planification Stratégique Int'l Market Research Domestic Mkt Research CRRM 1950 1960 1970 1980 1990 2000 Les différentes étapes qui ont conduit à l'Intelligence Compétitive C’est ainsi, que vers les années 1990, la forte récession de cette époque a conduit à une réduction importante des effectifs engagés dans le Planning Stratégique. On peut dire, pour synthétiser, que l’Intelligence Compétitive est née des travaux réalisés sur les Marchés et sur le planning stratégique. L’introduction de paramètres nouveaux: globalisation des marchés, compétition globale, apparition de concurrents performants et inattendus .... a conduit, par nécessité, à la formulation d’un nouveau besoin: l’Intelligence Compétitive. L'Intelligence Compétitive résulte de Ruth Stanat, SIS Market Research Strategic Planning Competitive Intelligence La récession des années 1990 a conduit à une forte réduction des effectifs des personnes s'occupant de plannification, pour les intégrer au niveau production. CRRM L'Intelligence Compétitive est née de diverses interactions Mais, selon les types d’industries, selon le niveau d’implication des technologies nouvelles, de l’apparition des innovations, les pressions subies par les industries dans ce nouveau contexte ont été très variables. De ce fait, l’Intelligence Compétitive n’est pas apparue en même temps dans toutes les branches industrielles. La figure suivante indique les périodes à partir desquelles certaines industries ont été plus concernées que d’autres. On remarquera que ce sont les branches où les technologies sont les plus stables et les moins évolutives, qui se sont préoccupées les dernières d’Intelligence Compétitive. Evolution of C.I. by Industry Ruth Stanat SIS Paper, Steel, Mining Utilities, Gass, Energy Service sector Manufacturing, Chemicals, Electronic Financial Services Telecommunications Pharmaceutical Consumer, Food Products CRRM 1980 1985 1990 1995 2000 2005 Evolution de l'Intelligence Compétitive au niveau de différentes industries On voit aussi que ce sont les branches industrielles qui ont subi le plus tôt une très forte pression de la concurrence qui se sont préoccupées les premières d’Intelligence Compétitive. 1.2.- Vieillissement et démographie Le vieillissement démographique influe-t-il sur les formes de communication et d’information? Incontestablement oui. Sans vouloir aborder en détail ce sujet, nous traiterons brièvement de l’influence de la démographie sur les comportements et sur la géopolitique très simple (au niveau même des constatations) liée aux évolutions de ce domaine. 1.2.1- Généralités Actuellement, un tiers des français travaillent. Cette constatation conduit à ne plus considérer les lieux de travail comme des lieux fédérateurs. Bien d’autres systèmes jouent le rôle de fédérateurs, depuis les grands clubs sportifs, en passant par le journal télévisé de 20 heures qui lentement subit lui aussi une profonde déstructuration du fait de l’impact sur la présentation des informations, des techniques publicitaires et des progrès des technologies de l’information et de la communication (B. Daiguillon, Thèse en cours, Université Aix-Marseille II, EJC). Si on ajoute à ces faits, que la population est vieillissante, du fait même du faible taux de natalité, on est conduit à une cartographie des lieux fédérateurs tout à fait particulière. La famille, ou les familles, tant les divorces sont nombreux et les situations particulières, l’école avec un taux d’analphabétisme de plus en plus grand, l’armée, avec la disparition du service militaire, ne semblent plus jouer le rôle traditionnel qui était le leur. On est donc confronté à une situation de décalage de plus en plus grande, ou l’accès au savoir se fera avec des facilités très différentes, quasi nulles pour certains naturelles pour d’autres. Sans entrer dans les détails de la démographie, force nous est de constater que du simple fait des départs à la retraite anticipés et de l’hypothèque de plus en plus forte qui pèse sur le maintien du pouvoir d’achat des «nouveaux retraités», on crée dans une population encore fortement disponible au plan intellectuel des tensions qui pourraient devenir insupportables. Ces facteurs nouveaux, dont on n’a certainement pas pris encore conscience de l’impact social global ne resteront pas inactifs. Ils joueront certainement un rôle important au niveau de la rediffusion de l’information de son analyse, voire de son utilisation. 1.2.2 - Les mutants Ce vieillissement, imbriqué dans des institutions plus que centenaires, conduit nécessairement à une augmentation de plus en plus forte de la complexité, avec dans certains cas une quasi impossibilité de fonctionner (c’est la cas par exemple du système universitaire ou on demande à des enseignants de faire des heures complémentaires en formation continue pour apporter des moyens à leurs institutions, alors que les règlements liés à certaines primes ne permettent plus de les payer!). On va donc se trouver en recherchant des informations devant les mêmes îlots de savoirs que nous trouvons dans les pays en développement. Ces îlots seront certes d’un contenu intellectuel plus fort, mais la différenciation sera basée sur le conservatisme paralysant et sur des centres de progrès dynamiques, généralement sans liens entre eux au départ, mais pouvant rapidement se réticuler grâce aux progrès et à la démocratisation des systèmes d’information.. Cette vision de l’espace intellectuel, scientifique, évolutif de demain, nous conduira a analyser plus finement les réseaux sur lesquels il va falloir se «brancher» pour continuer à vivre et se mouvoir dans les espaces nouveaux et ouverts de développement et de progrès. Dans «Tomorrow the dogs» (Demain les chiens, Clifford D. Simak, J'ai Lu, 373/3ième 1952, Note sur le 7ième Conte, ESOPE), la vision des mutants est exemplaire. Tout allait de mal en pis, les méthodes traditionnelles, les chefs traditionnels étaient de plus en plus souvent placés devant des échecs successifs. C’est alors qu’on décida de faire appel aux mutants. Ces derniers, avaient été isolés dans le désert dans de grands châteaux. Une expédition fut entreprise, on arriva devant le premier édifice, on ouvrit la porte. Mais, ce n’était qu’une façade, vide de l’autre côté, les mutants eux, s’étaient évanouis depuis plusieurs siècles, ils avaient évolués plus rapidement et vivaient, progressaient, se mouvaient dans d’autres lieux et espaces sans communication possible avec un système existant sclérosé. A un moment, les routes s’étaient croisées, mais maintenant elle évoluaient dans des espaces parallèles sans aucun contact. Dans le même ordre d’idée, The University for Firms développée par le gouvernement britannique, ainsi que The Virtual University dans le cadre de la communauté européenne, peuvent être perçues comme des tentatives pour rassembler ce qui peut l’être et évoluer ensemble dans le monde de demain! 1.2.3 - La croissance démographique Une conférence récente Six Milliards d'hommes: où va la population mondiale? G. Pison, conférence AUDISTE, Marseille le 26 Septembre 1996, nous montre qu’ayant passé le niveau des 5 milliards d’individus en 1987, la population mondiale devrait en l’an 2.000 être de l’ordre de 6 milliards. L’évolution devrait ensuite se poursuivre d’abord sur les mêmes bases, puis ensuite sur des bases certainement plus faibles, si on extrapole les tendances européennes actuelles à d’autres espaces géographiques. Cette transition démographique met en évidence que toute population, en raison des progrès économiques et sociaux et de la baisse des menaces passerait à des régimes plus stables avec des taux de croissance plus faible. Mais, quelle que soit l’évolution future à long terme, les tendances lourdes à court terme ne changeront pas. Elles mettent en évidence le changement de «poids» de certaines zones géographiques (Asie, Pays du Sud...) par rapport aux équilibres mondiaux qui pendant des siècles ont sous-tendus notre raisonnement. En France, ces évolutions démographiques ne sont pas prises en compte à un niveau assez fort. On dit communément que les français ne connaissent pas la géographie, ceci est sans doute lié à cela. Mais dans un monde en constante évolution, avec les phénomènes d’accès à la connaissances et de délocalisation dans des zones géographiques nouvelles, notre effort à faire au niveau de nos systèmes d’acquisition et d’évaluation de l’information est à l’image du peut d’intérêt porté aux évolutions démographiques précédentes. On retrouvera le même comportement au niveau de l’économie. En outre, à court terme, c’est la vitesse de la croissance et la soudaineté des changements ainsi que les nouvelles localisations géographiques qui perturbent notre vision du monde. Cet accroissement de population va induire des migrations et un déséquilibre de la répartition des tranches d’âge, puisque les populations à fort taux de croissance ont une moyenne d’âge beaucoup plus faible que les populations européennes par exemple. En Europe, cette tendance sera très sensibles dans les zones du Sud, comme le pourtour Méditerranéen. 1.2.4 - La croissance économique Pour gérer sans trop d’accoups la croissance démographique, les pays d’Asie vont être obligés de développer des modèles différents des nôtres, au niveau socio-économique (coût et organisation du travail, systèmes politiques et d’instruction, recherche,..). L’Asie, avec un taux de croissance économique de l’ordre de 7 à plus de 10% par an, est exemplaire en ce sens. Pour pouvoir soutenir son taux actuel de croissance démographique (même si de nombreux efforts souvent couronnés de sucés sont réalisés), l’Asie est obligée de développer de nouveaux modèles, de suivre d’autres voies de développement, de se baser sur sa propre culture, très différente de la notre. C’est ainsi que les processus d’innovation (incrémentale plutôt que de rupture) sont différents, que la fidélité à l’entreprise, au pays, à la famille sont encore des valeurs traditionnelles. La carrière si souvent l’apex des étudiants des grandes écoles est ici secondaire puisque inscrite dans la mouvance de l’entreprise et dans sa réussite. N’oublions pas, que l’occident a mis cinq siècles pour établir son hégémonie sur le monde, et qu’en cinq ans (depuis 1990 pour donner une date) celle-ci a été profondément remise en question. (Xavier Guilhou, Conférence Marseille, CCIM, 1997) Nous devons donc apprendre à penser autrement, à voir autrement, à tenir compte des autres, même s’ils sont situés très loin de nous, dans l’autre hémisphère. Cette attitude, qui doit être nécessairement couplée avec une connaissance des lieux, donc avec des voyages, avec une communication de base personnelle d’où la connaissance de l’anglais, et l’appréhension de nouvelles cultures va devenir la base même de la réflexion stratégique et de la mise en situation, à l’échelle internationale des «jeux d’acteurs». La table suivante donne une idée des niveaux de population de divers pays du monde, et donc de la potentialité des marchés à la fois intérieurs pour soutenir une activité, ou «extérieurs» pour pouvoir y exporter. Il s’agit ici d’une approche «géographique» à laquelle on pourrait ajouter des données sur les richesses minières, agricoles, etc.. Mais, peuvent s’ajouter à ces données une vision plus contrastée et souvent utilisée en géopolitique, celle des classements par pays, en tenant compte des risques, des menaces politique de l’évolution des religions et de leurs impacts, de la solvabilité des échanges, etc... Nous aborderons dans ce chapitre cet aspect global de l’information. Pays Population en millions Densité au Km 2 ____________________________________________________________________________ Chine Inde Etats-Unis Indonésie Brésil Russie Japon Pakistan Bangladesh Nigéria Mexique Allemagne Philippines Iran Turquie Egypte 1.188 919 270 200 160 150 126 125 118 108 92 81 68 64 65 60 124 279 28 105 (*) 19 9 336 157 818 100 47 238 220 40 69 60 Thaïlande Iran Royaume-Uni France Ukraine Italie Espagne Corée du Sud Pologne Argentine Colombie Corée du Nord Algérie Canada Soudan Maroc Malaisie Irak Taiwan Australie Ghana Syrie République de Slovaquie Chili Côte d’Ivoire Angola Cuba Belgique Grèce République Tchèque Hongrie Portugal Tunisie Bolivie Nouvelle Zelande Irlande 60 64 58 58 58 57 40 45 38 34 34 24 28 30 28 27 22 20 22 18 17 16 15 14 14 11 11 10 10 10 10 10 9 7 3,6 3,5 118 40 239 106 86 190 78 450 123 12 29 192 12 3 10 35 61 47 589 2 64 89 109 18 43 9 98 325 76 131 109 107 50 7 14 52 Quelques données sur la croissance démographique (*) Java est l’île où la densité de population est la plus élevée du monde, densité 850. Une partie des données précédentes, plus d'autres données économiques, ont été extraites de la publication: Conjoncture 97, Nouveau Bilan Economique Politique et social du Monde, Ed. Bréal et Les Echos. Tous les chiffres sont arrondis. On veut simplement les utiliser comme repères. On constatera au niveau de la CEE que seule l’Allemagne a une taille critique. Les autres pays de la communauté sont sous le seuil des 60 millions d’habitants. Le Japon avec 125 millions d’habitants et un pouvoir d’achat élevé a un marché intérieur qui lui permet de soutenir efficacement sa production industrielle. L’Indonésie avec plus de 200 millions d’habitants constitue une puissance démographique dont on parle peu, mais qui va de plus en plus s’affirmer au plan politique et économique. L’Algérie, la Tunisie, le Maroc représentent 65 millions d’habitants. L’Afrique, parcellisée ne peut pas jouer de rôle dans une analyse géopolitique. Elle va relever de l’humanitaire pendant encore longtemps, elle pourra éventuellement servir de zone d’expansion à certains pays d’Asie. L’Inde et le Bangladesh sont aussi peuplés que la Chine, de même que la réunion Corée du Sud et Corée du Nord conduit à une unité qui dépasse les 70 millions d’habitants (cependant, pour ces deux derniers cas, des luttes politiques intenses animent ces entités). Le Canada a une des plus faibles densité de population de la planète. Le Brésil, avec une faible densité, et toute une partie (le Sud) à souche européenne forte (Italiens, Portugais, Allemands), devrait avoir bien plus de relations avec l’Europe. Huitième puissance mondiale, il va certainement se trouver au centre du développement du continent Sud Américain et s’assurer une position de leader (entre autre dans le Mercosul). Une connaissance même très moyenne de ce que l’on pourrait appeler la géographie mondiale est de nos jours une nécessité. Sans utiliser les mots pompeux de menaces stratégiques ou de géopolitique planétaire, la simple connaissance de la répartition en grandes masses des population ainsi que des taux de croissance, me paraît nécessaire pour donner à celui qui devra animer un service d’hyperinformation, la notion de l’ailleurs, et le replacement de sa propre force dans un contexte international. De même la connaissance des implantations religieuses, des types de gouvernements... devient une aide indispensable. J’ai toujours du mal à comprendre comment certains peuvent éteindre le télex la nuit pour économiser du courant électrique, ou comment des «experts» croient que la création d’un diplôme de troisième cycle au Brésil dans le Sud va nous placer devant une situation difficile au plan des étudiants et des mentalités, en nous conseillant de réaliser le même diplôme dans le Nord, sûrement plus développé industriellement et plus propice à l’enseignement de la Veille Technologique et de la Stratégie. Ils avaient tout simplement oubliés que l’on se trouve dans un autre hémisphère ou les zones géographiques et les climats sont inversés. 1.3 - Eléments de géopolitique On ne peut pas parler d’hyperinformation, donc de l’Intelligence Economique et des Veilles, sans aborder même brièvement un certains nombre de données de géopolitiques. Il n’est pas dans l’objectif de ce livre de réaliser une approche complète de ce vaste domaine, mais, de montrer aux lecteurs qui ne seraient pas familiers avec les approches, méthodes et représentations de ces informations comment on peut aborder ces questions et fabriquer un certains nombre d’outils. En outre, on assiste de plus en plus à un glissement du géostratégique au géopolitique puis maintenant vers le géo-économique. Ces passages successifs ne sont que l’illustration de la tendance actuelle qui porte les conflits non pas vers les champs de bataille classiques, mais vers l’économie, le développement de produits et de services nouveaux, et la conquête des marchés internationaux. 1.3.1 - La méthode des classements Elle est globale et consiste à présenter des cartes géostratégiques du monde, en classant les pays par groupes à risques à partir de coefficients calculés selon des méthodes propres aux auteurs. Globalement il y a deux méthodes, l’une à partir de consultations d’experts, elle est plus rapide mais ne repose pas sur des données tangibles et validées, l’autre qui consiste à exploiter des bases de données plus ou moins «fouillées» et mises à jour en permanence. Dans ce denier cas, les informations seront plus fiables, mais l’effort pour les obtenir plus important si on réalise soi même l’étude. Les coefficients prennent en compte des éléments tels que la stabilité politique, la fréquence des élections, le type de régime, l’importance des dettes, les niveaux d’industrialisation, de croissance, le PNB par habitants, les religions, les réseaux de transports, la qualité de l’épargne les modes de crédits et les systèmes bancaires, ..... On voit que l’on peut très bien, obtenir des résultats très différents selon le type d’indicateur utilisé et les personnes qui recherchent et valident les données. Citons ici ce qu’écrit J.L. Terier (Classement - Pays 1996-1997, cent dix pays, trois cartes mondiales d'aide à la décision (01-47716482); Jean-Louis Terrier) à ce propos: «Le classement crédit risk international est obtenu par notation dite «objective» d’une batterie importante de critères. Il n’est donc pas le résultat d’un sondage d’experts, ce qui le différencie de la plupart des classements-pays existants du type BERI ou Institution Investor. La méthode employée par Credit Risk International obéit à trois principes: Un grand nombre de critères ... (ceci permet) .. de descendre dans le détail en permettant un jugement plus objectif grâce à la clarté de la question sous-jacente à chaque critère. Ainsi par exemple, noter objectivement la performance économique d’un pays ex-nihilo est beaucoup plus difficile que de noter exactement la croissance de sa production industrielle entre 1990 et 1994, à partir des statistiques de la Banque Mondiale...» La carte suivante, qui nous a été communiquée par JL Terrier montre comment la représentation cartographique est globalement supérieure à une représentation linéaire par liste ou même par tableau. Cartographie des risques pays (d'après Jean-Louis Terrier) Noir: grands marchés ou moyens à forte croissance et risques faibles Gris foncé: grands marchés ou moyens en croissance, mais risques plus élevés Gris clair: marchés moyens en stagnation ou petits en croissance mais à risques élevés Hachuré (blanc et noir): marchés moyens ou petits à forte croissance et risques faibles Blanc: petits marchés à risques généralement élevés. Source: Classement pays «Credit Risk International» 1996-1997 L’extrait du tableau suivant, toujours du même auteur indique à titre d’exemple la valeur de différents coefficients: ___________________________________________________________________ | Cotations |Opportunité Pays |Risque-Pays Moyen | AàE 7à1 7à1 sur sur sur sur 500 110 700 110 Afrique du Sud B 6 5 308 18 480,5 28 Cote d’Ivoire E 3 5 94 64 ex 344 54 Lituanie E 6 6 75 75 488 24 Russie A 3 3 429 3 312,5 65 Singapour D 7 7 185 33 673 1 Uruguay D 6 6 129 41ex 497 18 Viet Nam D 4 4 156 35 367,5 48 Zimbabwe 4 104 D 4 53 Exemples de divers classements pays pour la période 1996 - 1997 (110 Pays au total) De tels tableaux sont à interpréter avec des spécialistes, et méritent une analyse approfondie. Cependant, il reste possible pour une entreprise, spécialement si elle est engagée dans une activité avec des pays étrangers de se constituer un tableau de bord qui comprendra différents paramètres, ou plus simplement un ensemble de données conduisant à une vision saine et réaliste de son théâtre d’opération. Le problème ne sera pas tant de trouver des données que de mettre en place une représentation facile à appréhender, et surtout de réactualiser les données ce qui souvent est une affaire de spécialistes (la majeure partie des statiques fournies par les gouvernements sont souvent diffusées avec un retard trop grand par rapport à la réalité). Il est évident que ce qui est réalisé pour un pays peut l’être aussi pour une région, une ville, etc... Nous donnons ici un exemple de données obtenues par dépouillement de la presse quotidienne où l’on peut obtenir des données souvent intéressantes à intégrer dans certains des paramètres précédents Table mettant en évidence le taux de syndicalisation dans la population active (La Croix, Mardi 21 Janvier 1997) Pays Grèce Italie Irlande Allemagne Danemark Royaume-Uni Suisse Autriche Belgique Australie Suède France Finlande 1970 36 36 53 33 60 45 30 62 46 50 68 22 51 1990 34 39 50 33 71 39 27 46 51 40 83 10 72 Norvège Pays-Bas Japon Etats-Unis Canada 51 38 35 23 31 56 26 25 16 36 Taux de syndicalisation L’idée générale est de mettre en place, dans une organisation, à partir d’informations connues (statistiques, généralement, mais pas trop anciennes), ou en mélangeant des opinions d’experts, des tableaux de bord permettant d’évaluer globalement certains risques. Souvent, on est implicitement au courant de ces derniers, mais avoir des indicateurs adaptés au travail de l’entreprise et à ses finalités est un bon moyen d’être avisé en permanence et très rapidement, de différents positionnements ou du changement des situations lorsque cela est nécessaire. Bien entendu, de telles approches sont envisageables au niveau de groupes de Pays ou de zones géographiques précises. On peut même analyser de plus en plus finement la situation pour envisager les problèmes à une niveau très local. Par exemple, les lois Européennes qui vont conduire à la disparition de certains monopoles, conduisent des sociétés françaises, jusqu’alors protégées, à envisager leur devenir en tenant compte d’une implication géopolitique de terrain plus forte. Des analyses, des représentations par zones deviennent alors nécessaires. On peut facilement aller au niveau des personnes (CRRM Travaux en cours), ou même des parcelles de terrain (Michel Bibent, Laboratoire d'Informatique Juridique, Université de Montpellier I). 1.3.2 - La situation géographique A titre d’exemple, nous montrons ici une carte qui met en évidence la zone de l’Asie, elle est extraite d’un ensemble de documents traitants de la Géopolitique du temps présent, que l’on peut obtenir auprès des CRDP sous forme d’une mallette didactique et réalisée par divers enseignants au CRDP de Nice. Le présentation est intéressante, car au lieu de placer comme d’habitude la France au centre de la carte, elle est réalisée en présentant d’une façon inhabituelle pour nous (mais classique pour d’autres) l’espace géopolitique du Pacifique. C’est dans cet espace géographique que se produiront sans doutes les événements les plus importants dans les années à venir. Cette carte met en évidence les centres vitaux de la zone, mais aussi le prolongement naturel de celle-ci qui est la Californie. L’avantage de cette représentation est de bien visualiser les distances et les zones géographiques qui par le simple fait de la proximité se trouveront impliquées dans le développement. Les USA et l'Asie, proximité géographique D’autres représentations sont possibles, par exemple des cartes de flux financiers, de volumes d’actions traitées dans les grandes places boursières, de flux de passagers en transports aériens, ou en fret pour les ports, ou en flux touristiques, etc... L’ensemble doit permettre aux utilisateurs de répondre à des questions précises, mais aussi à acquérir une vision du monde moins centrée sur le pays d’origine et plus conforme à la réalité. Il ne faut pas oublier non plus, au niveau géopolitique de prendre en compte la «coopération compétitive» (Vers un espace économique mondial, Pascal Gauchon, pp. 99-105, Universalis 1996). Ce terme recouvre le fait, que certaines opérations de R&D, de tests cliniques pour des médicaments, d’introduction ou de pénétration dans un marché deviennent trop coûteuses, même pour des groupes importants. On va donc voir se développer des alliances objectives dans certains domaines, alors que la compétition continuera dans d’autres domaines. On peut agir ensemble dans un domaine, mais être en compétition même brutale dans d’autres. Des représentations géographiques des zones à faible pression ou à hautes pressions permettent de visualiser plus facilement les problèmes posés par la gestion de ces collaborations. Citons par exemples les alliances au plan de l’automobile, comme celle de Toyota s’alliant à General Motors, etc. 1.3.3 - Les indicateurs et les matrices de risques Avant de terminer avec ce type d’informations et de représentation, donnons un exemple montrant comment le choix des indicateurs peut conduire à une appréciation très différente de celle qui est couramment utilisée. Dans le Figaro du 26 Mars 1997, un article de Laurent Mossu présente le palmarès de la compétitivité mondiale. Pour effectuer cette enquête l’organisme concerné, l’IMD, prend en compte 244 critères qui couvrent l’ensemble des paramètres macro-économiques. La figure suivante montre la place relative de différents pays: rangs Pays 1 Etats Unis 2 Singapour 3 Hong Kong 4 Finlande 5 Danemark 6 Norvège 7 Pays Bas 8 Suisse 9 Canada 10 Nlle Zélande 11 Japon 12 Royaume Uni 14 Allemagne 20 France 27 Chine 31 Corée 35 Italie 45 Afrique du Sud valeur des indicateurs utilisés 46 Russie 0 50 100 150 200 250 300 350 400 Palmarès de la compétitivité mondiale pour 1997 (Le Figaro) On constate que si les Etats-Unis conservent la première place, le Royaume-Uni est passé de la 19e à la 12e place, à l’inverse, le Japon est passé de la 4e place à la 11e place. La France conserve la 20e place, mais elle est dépassée par des pays comme l’Irlande, la Malaisie et l’Australie. On peut aussi, à partir de certains indicateurs, réaliser des matrices de risques plus ou moins sophistiquées. Sans aller dans le détail nous citons ici un article de Bharat Bhalla, publié dans Euromoney en Juin 1983, p.66-72. Bien qu’ancien, il décrit bien les fondements de cette méthode. On va centrer la recherche d’informations sur un certains nombre de données simples, telles que la démographie, le PNB, le revenu par habitant, les taux de croissance, et on pourra à l’aide de cet ensemble réaliser une représentation sous forme d’une matrice du type suivant: (ne pas oublier en lisant ce tableau qu’il a été publié en 1983. Un bon exercice pour le lecteur serait de re-situer les pays en fonction de données actuelles!) Sens de lecture du tableau: De droite à gauche risques économiques croissants, de haut en bas risques politiques croissants. Japan, France, Germany(Fed.Rep.) USA pop. 53-215 m PCI 4000$-7500$ 2,0-7,0% per year Australia, Saudi Arabia Austria,Belgium, Netherlands Denmark, Norway, Sweden, Canada pop 5-23 m Hong Kong Portugal pop 5 - 6 m PCI 1600$ - 2000$ 5,2 % per tear Cyprus, New Zealand, Israel, Kuwait, Singapore,Libya, Iceland, Ireland, Finland, Luxembourg, Costa Rica, Jamaica, Trinidad & PCI 5000$-8500$ 2,0 - 4,1 % per year Greece, Italy, Spain pop 9 - 56 m PCI 2000$ - 3700$ 2,5 - 6,0 % per year South Africa Mexico pop 7 - 45 m PCI 1300$ - 1500 $ 2,4% per year Argentina, Brazil, Venezuela pop 13 - 113 m PCI 1200$ - 2500$ 0% - 6,5 % South Korea Morocco Colombia, Peru pop 7 - 45 m PCI 500$ - 1000$ 1,4% - 8% Iran, Irak, Syria, Turkey, Chile pop 8 - 41 m PCI 800$ - 2000$ -0,4% - 7,5% per year Egypt, Nigeria pop 38 - 68 m PCI 375$ - 750$ 0,7% - 4,8% per year Tobago, Uruguay pop less than 5 m PCI over 1000$ 1,9 % per year India, Indonesia Coast, pop 139 - 633 m PCI 140$ - 250$ 1,6% - 4,6% Malaysia Algeria, Ivory Tunisia Ecuador pop 6 - 16 m PCI 600$ - 1000$ 2,7% - 5,5 % per year Philippines, Sri Lanka, Thailand, Cameroon, Kenya, Zimbabwe pop 7 - 45 m PCI 225$ - 500$ 1,5 per year Bolivia, Central America (Salvador, Guatemala, Honduras, Nicaragua, Dominican Republicv, Paraguay) pop 2 - 6 m PCI 375$ - 750$ 0,7% - 4,8% Pakistan Angola, Ghana, Madagascar, Mozambique, Senegal, Sudan, Tanzania, Uganda, Zambia, Haiti pop 5 - 73 m PCI 175$ - 500$ -5,0% - 2,0% per year Afganistan, bangladesh, Burma, Nepal, Ethiopia, Mali, Zaire pop 6 - 70 m PCI less than 150$ Negative Risques et critères d'analyse, différents positionnements (1983) Le lecteur pourra, par exemple re-situer certains pays en tenant compte de l'accroissement démographique, du taux de croissance actuel, de l'impact de la guerre du golfe, du terrorisme et de l'intégrisme, ou des changements politiques (comme par exemple au Brésil). En outre, d'autres éléments auraient pu être introduits dans la matrice: le taux d'inflation par exemple, la dette extérieure avec un coefficient selon l'étalement, etc... 1.3.4 - Les données bibliographiques Un aspect des risques par pays, peut aussi être étudié, en se basant sur des articles spécialisés présentés dans la base de données numéro 627 du serveur Dialog. Cet accès spécialisé à l’information sur les risques par pays permet d’accéder (certes avec un certain retard), à des informations tout de même intéressantes, car globales, couvrant une grande partie du monde, et très facile accès. Un exemple d’une référence issue de cette base est le suivant: DIALOG®File 627:EIU: Country Analysis © 1997 Economist Intelligence Unit. All rts. reserv. 2519513 Ch 4-Special zones/cities-Sec 11: Dalian-Development zones COUNTRY: China JOURNAL: China Hand - April 1, 1997 WORD COUNT: 1369 TEXT: Xinhai Bay: future financial and commercial centre Dalian has set aside two new development areas. Xinhai Bay, west of the city, is slated to become a financial and commercial centre. Major players already committed include Sino Group and Henderson Land, both of Hong Kong, and the Bank of China Group. Henderson’s plans include the development of a 30,600 sq-metre office and hotel complex. Dalian New City: American-style development Dalian New City is to be an American-style «fringe city» above Xiaoyao bay. The development will include both industrial and residential projects, with Western-style schools, parks and recreational facilities. The mayor has commissioned an American consortium, Worldports, to build a southern California-style suburban development. Also in the works is a US$1.1 billion development by Sino Land. The project promises to be Dalian’s largest, including a 600-room five-star hotel, 60-storey commercial office tower, a hydrofoil quay and large shopping centre. Other zones in operation include: Dalian ETDZ. Dalian now sports one of the best-equipped ETDZs in China, with more than 500 firms already in operation. More than 40% of all Dalian’s approved investment is contracted within the zone. Dalian’s government is also pushing to diversify foreign investment by promoting tertiary industry, from tourism to financial services. Exports from Dalian ETDZ in 1995 totalled US$1.1 billion, the highest of any development zone in China. In the same year the zone approved 270 FIEs worth US$1.3 billion in contracted FDI. Japanese and South Korean companies predominate among big investors in the ETDZ. One American firm with major investment is Pfizer Pharmaceutical, which holds a 67% stake in a four-year-old, US$58m venture. Domestic sales in 1995 reached US$24.1m. The ETDZ administration has used income from industrial-land leases to develop infrastructure over a ten sq-kilometre area, while a second area of the same size is being prepared. The longterm aim is to create a satellite industrial city of 220 sq kilometres. Dalian New City Dalian New City, an expanded version of Dalian Economic and Technological Development Zone (ETDZ), is planned at Xiaoyao bay, 15 kilometres and a 20-minute drive to the north-east of Dalian. It will include a US$180m, 6.1 sq-kilometre development designed and funded by Worldports, a five-member consortium from southern California. Worldports is forming a joint venture, Dalian Mingling Real Estate Development and Management, with Dalian Vastone Communication Cable, a Sino-US copper wire and fibre-optic cable manufacturing venture. The project will feature low-density, luxury housing, an industrial park, a theme park, shops, cinemas, restaurants, hospitals, an international school and an 18-hole golf course. Investors are hoping to capitalise on Dalian’s traditional reputation as a place for beaches, which attract ten million domestic tourists and more than 100,000 foreign tourists each year. Worldports also plans to offer «one-stop» business services for American and European firms, including helping FIEs gain local-government approval and constructing manufacturing and distribution facilities. The enormous size of the project means it requires State Council approval, which it has yet to receive. The consortium hopes to get around the problem by dividing the project into a series of smaller-scale schemes which-being valued at less than US$30m each-will require only localgovernment approval. Local control over customs Dalian Bonded Zone. Dalian Bonded Zone is a small site to the north-east of Dalian ETDZ, which has been in operation since 1992. This free-trade area permits entrepot trade, export processing and bonded warehousing. In November 1995 Dalian claimed that the bonded zone was the first in China to gain authority to handle its own customs procedures for people and vehicles. According to city officials, the bonded area, which had contracted foreign investment of US$485m in late 1995, offers a particularly efficient link between foreign and domestic markets in north-east China. Dalian: Infrastructure Ports. Dalian has two ports. The city’s old port, in the downtown area, has 58 berths, 28 of them able to handle vessels of more than 10,000 dwt. Dayao bay, ten kilometres from the Dalian ETDZ, has two container berths with water depth of 11 metres, a third berth with a depth of 12 metres due to open soon, and two more 14-metre berths planned. Dalian’s total throughput is currently estimated at 420,000 twenty-foot equivalent units (TEUs). In 1995 total throughput was 374,000 TEUs, putting it third behind Tianjin (702,000 TEUs) and Qingdao (603,000 TEUs). The figure is expected to rise to over one million TEUs by end-1997. There are already 21 shipping lines in place at the terminals, and about 110 vessel calls per month. About half the throughput is oil and oil products. The Dalian Container Terminal (DCT), a joint venture between the Port of Singapore Authority (PSA) and the Port of Dalian Authority (PDA), will eventually take over all the shipping needs of manufacturers in the ETDZ. Roads. China’s longest four-lane expressway (375 kilometres) allows auto travel between Dalian and Shenyang in just four hours. Congestion within Dalian city is a serious problem and the main road from the downtown area to the ETDZ has traffic jams most mornings. Managers from Pfizer of the USA, for instance, leave for work at 7am to avoid the morning rush hour but still take 45 minutes to complete the 27.5-kilometre journey. Although the main east-west artery in Dalian, Zhongshan Lu, has been widened and resurfaced, and a new traffic management system installed, Dalian’s traffic problems look set to remain. Construction of an expressway to Harbin, capital of Heilongjiang province to the north, is underway. Rail. Southbound rail freight out of Dalian must first travel north to Shenyang before joining the main north-south line from Shenyang to Shanhaiguan and Beijing. The Shenyang-Beijing line is among the most overused in the country; space is hard to book and deliveries are unreliable. As little as half the demand on the route can be met, according to the Ministry of Railways. The fastest passenger train between Dalian and Shenyang is the Peninsula Express, which leaves Dalian at 7 :00 am each day and arrives in Shenyang at noon. Around Dalian, the main branch lines service Lushun, Jinzhuan, Nangan, Tianwu and Bailao. In the city area, branch lines run within four kilometres of the ETDZ and to Dayao bay port. So far unfunded rail projects include a rail-ferry link to Yantai in Shandong province, and a two-line light-rail system for the city and ETDZ; the latter requires an estimated US$500m. The Dalian-Harbin rail link is undergoing an electrification programme. Air. A new passenger terminal was completed in September 1993 and already looks distinctly shabby. Passenger throughput in Dalian has exceeded one million persons per year for the past couple of years. International destinations with air connections to Dalian include Hong Kong, Fukuoka, Tokyo, Osaka, Seoul and Vladivostok. The institution of a direct flight between Dalian and Seoul has made the region more inviting to South Korean investors. Power. The Dalian area has several small thermal power plants, but the key electricity producer is the 1,400 megawatt-capacity Huaneng power plant. Power cuts are almost unknown in Dalian ETDZ and uncommon in the rest of the city. Dalian is connected to the north-east power grid, to which it is a net supplier. Gas. Gas is widely used in the urban area. Dalian has two gasworks with a total daily output of 600,000 cubic metres. Foreign investors wanting gas supplies are often expected to pay for necessary pipeline extensions. Water. Dalian has traditionally faced water shortages, although the situation has improved markedly in recent years. The key Biliu reservoir is in its third phase of development which, when completed, will increase storage capacity from 600,000 to 1.2 million metric tons. Two other important reservoirs are under construction in southern Liaoning. The city says running water will be available to all residents in 1998. The ETDZ guarantees water supply to its investors. Telecommunications. Dalian’s telecommunications are on a par with those of other developed coastal cities. The city now has over 300,000 lines. © 1997 The Economist Intelligence Unit Limited Cette référence, que nous avons citée en totalité, met en évidence d’une part la qualité et l’exhaustivité de l’analyse, d’autre part qu’il faut toujours partir de l’information formelle récente pour acquérir une vision globale du problème avant d’aller plus avant, et enfin que la maîtrise de l’anglais (c’est peut être un lieu commun mais cela doit être répété) est absolument nécessaire. 2 - Adieu Adam Smith C’est en 1776, qu’Adam Smith, génial auteur américain, dans «la richesse des nations» a mis en évidence comment la parcellisation des tâches, alliée au progrès technique allait engendrer des profits sans commune mesure avec ce qui était jusqu’alors connu. En prenant pour exemple la fabrication d’un objet, il montrait comment la réalisation «verticale» où toutes les tâches sont réalisées par le même individu, conduisait à une productivité très faible, comparée à la réalisation du même objet par différents individus juxtaposant dans un ordre précis différentes tâches parcellisées. Cette notion, qui a entre autre conduit au taylorisme, est encore une notion sur laquelle repose une partie importante de la pensée managériale actuelle. Dans le livre Reengineering the Corporation, M. Hammer, and J. Champy, Harper Collins, 1993 montrent comment de nos jours cette pensée est entrain de s’estomper, pour ne pas dire de disparaître pour laisser la place à des organisations totalement différentes. Ainsi, en prenant pour base de réflexion les fonctions et services à accomplir, on est amené à analyser les systèmes administratifs et productifs, pour ne garder que ce qui est réellement nécessaire, en éliminant les excroissances propres à un système ne se développant que pour satisfaire sa propre croissance interne en perdant de vue les finalités même des produits et des services devant être rendus. L’objectif est, à travers des analyses effectuées par des équipes pluridisciplinaires, de repenser l’organisation de l’entreprise et de mettre en place de nouveaux modes de directions. Le cas de Tacco Bell, décrit dans le livre précédent est remarquable de concision et de clarté. Il montre comment une chaîne de restaurants rapides a pu acquérir une dimension mondiale en prenant comme base de son «reengineering» la fourniture d’une nourriture saine, chaude, dans un temps assez court à un prix relativement abordable et dans un environnement propre. Cela a conduit à la fois a modifier profondément la structure physique des restaurants, la préparation des ingrédients de base, etc.. mais aussi à remanier encore plus profondément le système managérial de cette société, au niveau le plus haut comme sur le terrain. De nos jours, l’avenir est déjà parmi nous, et ce simple fait va accroître profondément les décalages. Lorsque les tendances générales, dictées par l’évolution des mentalités, des technologies, des comportements introduisent de nouveaux modèles, ceux qui les premiers vont maîtriser ces derniers seront ceux qui accroîtront plus rapidement les décalages positifs avec leurs concurrents. Ceux, qui resteront arc-boutés sur des systèmes surannés et vieillots ne rendant plus les services demandés et constituants plus des freins que des vecteurs de progrès prendront du retard. 2.1 - Exemple de l’évolution des structures de management Certaines idées que nous développons ici sont extraites de l’article de W.E. Halal, publié dans le Nouveau MBA, Edition Maxima, 1994, Paris, p. 523. Les figures suivantes montrent les différentes structures de management qui ont été utilisées de 1900 à nos jours. Cette évolution préfigure certainement ce que seront les systèmes futurs. Au début de l’ère industrielle, lorsque les systèmes étaient simples, une forme de management basée sur un enchaînement mécanique des tâches s’est développé. C’est le système hiérarchique qui a été utilisé pendant une cinquantaine d’années. Puis, les relations avec les salariés, l’impact des syndicats, la demande de plus en plus complexe et de renouvellement des consommateurs, la concurrence internationale qui débutait, .... ont conduit à une organisation matricielle. Celle-ci que l’on peut situer entre 1950 et 1980 peut être déduite de la précédente par la création de nouveaux liens et de hiérarchies multiples ce qui conduit parfois à certaines confusions quand on doit demander en tant que de besoin la réalisation d’une tâche à une personne dont la direction dépend aussi d’une autre hiérarchie. S’il y a conflit (c’est le cas extrême), mais plus généralement du fait d’un double encadrement on arrive a une augmentation considérable de la pression administrative, voire même à des blocages lorsqu’une priorité des actions n’a pas été définie. C’est pour cela que certains rejettent ce type d’organisation car il est générateur de dépenses improductives, entre autre administratives ainsi que de conflits au niveau du management. Différentes structures organisationnelles Hiérarchique 1900 - 1950 Matriciel 1950 - 1985 Réseaux Autonomie 1985 ......... Simplicité Bureaucratie Objectifs Forte Bureaucratie Liberté, Turbulence Récompenses, Défis Les changements de structures organisationnelles en fonction du temps Un bon exemple pour illustrer la situation est celui des enquêtes. Appartenant au Ministère de l’Education Nationale et étant à la fois responsable d’un DEA, d’un laboratoire et d’une grande discipline dans la structure de notre Université (UDESAM, Marseille), le nombre d’enquêtes, de demandes de tous ordres, auxquelles nous devons faire face s’est accru d’environ 50% durant les deux dernières années. De plus, ces enquêtes portant sur le devenir des étudiants, les bordereaux des factures communautaires, les demandes d’achat de matériels informatiques, les publications scientifiques, nombre et types de thèses produites, demandes de bourses, colloques, déplacements, matériels possédés par le laboratoire, achats de matériels pour récupération de TVA, surface des locaux, montant des contrats, des aides ministérielles, des aides régionales... conduisent à un surcroît de travail de plus en fort pour les unités réellement productrices. Pour les autres, le sujet n’est même pas évoqué, totalement absent des préoccupations. En outre, la création de systèmes matriciels de gestion transverse (par exemple la création d’une division de la statistique), va conduire cette division à vouloir se développer et donc à lancer directement auprès des utilisateurs des enquêtes dont les réponses pourraient facilement être trouvées ou déduites à partir des ensembles de données déjà fournies. J’aurai tendance à dire, que le management hiérarchique ne se rencontre plus que dans de très rares structures. Mais dans le management matriciel encore très présent, surtout dans les systèmes étatiques et bureaucratisés, ont n’échappe plus à l’improductivité induite par la bureaucratie. C’est le système qui l’impose, en toute bonne fois! L'organisation matricielle est actuellement en évolution . Les progrès de l’information (accès, distribution, et utilisation) et la complexité de plus en plus grande à laquelle doivent faire face les organisations conduisent à une nouvelle forme de management: le management en réseau. Cette forme de management est généralement basée sur la création dans une entreprise d’unités ou d’établissements autonomes (cela dépend de la taille) qui vont être maillés entre eux par des réseaux. Le système devient alors plus turbulent, les informations circulent rapidement et doivent atteindre les bonnes personnes et les bons experts, la décision pourra être mieux préparée et les objectifs souvent mieux compris. Le terme unités autonomes n’est pas choisi au hasard (on parle aussi de partenariat). En effet, il serait vain de vouloir manager ainsi un système complexe en feignant de donner une autonomie d’un côté en la reprenant de l’autre. En fait, ce qui compte sera la réalisation des objectifs, la préparation de ces derniers, et l’adéquation de l’effort qui doit être réalisé en fonction des moyens disponibles. La politique étant établie, elle sera réalisée au sein de chaque unité avec une autonomie relativement grande. Ainsi, dans ce type de management, l’importance du système d’information, des moyens, des méthodes et de la circulation des données devient une préoccupation majeure. La structure devient de plus en plus réactive puis passe dans le domaine de la proactivité. On retrouve ici, tous les effets qui ne peuvent que déstabiliser des dirigeants souvent «de droit divin», remis en cause dans leur vision hiérarchique et figée du management. L’opposition bureaucratie fonctionnelle et management en réseau et de ce fait évidente. Les entreprises doivent évoluer dans leurs structures et les évolutions de ces dernières entrent de plein pied dans les avantages compétitifs de celles-ci. Annick Renaud Coulon (La désorganisation compétitive. Edition Maxima, Paris, 1996) fait référence à l’incapacité des entreprises étatiques ou des administrations d’état de maintenir des niveaux de satisfactions et de performances adaptés aux évolutions actuelles et aux souhaits des «clients». La réponse à ce problème réside pour parti dans la structure même de telles organisations qui ne permettent plus le développement de la compétitivité nécessaire, de l’entropie générée par une économie de plus en plus ouverte et globalisée. On retrouve une situation de ce type dans certains enseignements, où l’Université publique perd de plus en plus de terrain sur des formations privées performantes, qui par l’adaptation de leur programme, leur flexibilité, permettent de mettre en place des enseignements adaptés, certes payants, mais qui assurent souvent à l’étudiant un épanouissement de sa personnalité et une insertion de qualité dans l’environnement économique. Nous ne sommes plus au temps de Jules Ferry! Pour la personne qui sera chargée d’animer un service de «Competitive Intelligence», et qui devra à l’intérieur de celui-ci recueillir l’information, l’analyser avec des groupes d’experts, puis finaliser des produits à destination des décideurs, il n’y a pas d’alternative: seul le ou les réseaux qui seront utilisés sans intervention bureaucratique pesante permettront d’arriver à un bon résultat en un laps de temps suffisant. Cette notion même de réseau et d’entreprises travaillant sur le modèle d’unités autonomes au de partenariats (ce serait la même chose pour les petites entreprises, qui devront à terme se fédérer pour arriver à vivre et à se développer), montre que l’organisation du service d’hyperinformation ne peut être que légère au niveau de la coordination, et quelle doit essentiellement reposer sur de multiples points de compétence reliés entre eux sous forme de réseaux. On peut alors parler d’Adocratie, c’est à dire d’un réseau qui se modifie pour s’adapter aux circonstances. Notre passé latin n’est pas fait pour nous aider dans l’acceptation et la mise en place de systèmes peu ou pas hiérarchisés. L’Eglise catholique reste encore un «modèle» d’organisation hiérarchique ou différentes fonctions sont encadrées très fermement. C’est en ce sens, que j’ai souligné l’importance des systèmes religieux, sociaux, philosophiques des pays d’Asie qui sont pour certains plus propices au développement de systèmes d’organisation et de développement plus adaptés au monde actuel et aux nécessités de demain. Pour Max Weber (L’Ethique protestante et l’Esprit du Capitalisme, Agora - Plon 1964): «Si l’on consulte les statistiques professionnelles d’un pays où coexistent plusieurs confessions religieuses, on constante avec une fréquence digne de remarque un fait qui a provoqué à plusieurs reprise de vives discussions dans la presse, la littérature et les congrès catholiques en Allemagne: que les chefs d’entreprise et les détenteurs de capitaux, aussi bien que les représentants des couches supérieures qualifiées de la main-d’oeuvre et, plus encore, le personnel technique et commercial hautement éduqué des entreprises modernes, sont en grande majorité protestants». Enfin, le confucianisme dont est empreint une grande partie de l’Orient porte en lui des vertus propre au développement du commerce, de l’entreprise familiale et du développement en réseau (Thèse du Rp Rivero, Technologie et Religions, Université Aix-Marseille III, Faculté des Sciences et Techniques de Saint Jérôme, CRRM). Comment vont évoluer les systèmes et leurs structures dans les organisations? Dans le proche futur et même aujourd’hui une tendance semble s’imposer: le développement de systèmes virtuels et de réseaux d’alliances et de partenariats, qui au grès des objectifs pourront se modifier. L’importance du travail électronique délocalisé, de la puissance des messageries, du commerce électronique, d’une publicité planétaire (à condition d’être attractif pour que celle-ci soit utilisée, ce qui est le problème des serveurs WWW actuellement), vont dans cette direction. Mais ceci, outre une dimension managériale très différente de celle du passé, va conduire à la nécessité d’acquérir des compétences multiples, voire même à changer de travail plusieurs fois dans sa vie. Un bon exemple de cette approche est celui de plus en plus cité des V.C. (Virtual Companies) qui, en mettant en commun des moyens, en cherchant des partenaires différents pour réaliser un projet, conduisent au développement de consortiums à géométrie variable dont la durée de vie est généralement celle du projet. Ensuite, au grès des affinités et des compétences se noueront d’autres relations pour apporter des solutions à d’autres problèmes. (Virtual Companies Reconsidered A.L. Porter, Technology Analysis an Strategic Management vol.5 N°4, 1993, p.413-420) On peut à ce sujet citer le développement du CRICQ (Centre de Recherche Industrielle du Québec), 333 rue Franquet, Sainte Foy (Québec), Canada G1P 4C7), qui a pris l'initiative de créer le Réseau Chimie qui est une véritable multinationale dans le domaine de l'information en chimie. A partie d'une gestion d'information centralisée sur l'Internet, des experts de divers pays travaillent en commun pour analyser des information brutes transmises par la centrale québéquoise. Les analyses sont ensuite rendues disponibles aux adhérents (à un très faible coût). Huit domaines sont actuellement couverts, d'autres vont bientôt le devenir. Pour le Sud de l'Europe, l'Europôle de l'Arbois est un point d'entrée du Réseau Chimie. Cette façon de faire s’impose de plus en plus dans les contrats de recherche ou de développement proposés par la communauté européenne. On demande de multiples partenariats, on réalise des annuaires, des rencontres, etc... on propose des objectifs, on fournit une participation financière et on demande des résultats globaux et précis, devant être partagés par la communauté (par exemple les programmes ADAPT). Cette façon de faire devrait conduire à une meilleure connaissance des partenaires intercommunautaires et à une approche plus pragmatique du travail en commun. Mais, pouvoir être partenaire dans un projet implique d’une part que l’on possède un savoir applicable, permettant d’apporter des solutions, et que d’autre part on soit à même d’utiliser des moyens de communication d’abord la langue (préférentiellement l’anglais), puis les technologies modernes d’accès et de diffusion de l’information (messagerie, ftp, WWW, etc.). 2.2 - Les structures de gestion et de management modélisent-elles les acteurs? On peut se poser le problème, au vu de l’évolution de ces structures de l’interaction de celles-ci avec les personnes qu’elles vont diriger et ainsi de leur poids sur l’économie. Il en est de même pour l’entreprise, l’éducation et l’Etat. Je crois fermement, que lors de la mise en place d’un système d’information, l’analyse des structures des concurrents, des alliés, des pays ou des institutions qui feront l’objet de nos implantations commerciales, de nos transactions est une nécessité. Cette analyse doit être faite sans concession en une sorte de «benchmarking» qui soulignera notre avance ou notre retard, ou nos possibilités et la souplesse de notre système par rapport à celui des concurrents. Cela nous donnera aussi une vision des habitudes et des pratiques commerciales, voire même sociales de l’ensemble des partenaires ou des concurrents embrassant le champ des nos activités. (Benchmarking the "External Technology Watching" Process. Chevron's Experience. D.L. Ransley, Competitive Intelligence Review, vol.7-3, 1996) Sans entrer dans le détail, on pourra aussi se référer au cas de la «non vente» des avions français de Dassault Aviation à la Finlande, décrite par R. Guisnel dans le Point du 22 Février 1997. La structure même de l’appareil d’Etat a conduit à un non échange de renseignement entre un certain nombre de services et la Société française qui soumissionnait sur le terrain. Ce cas qui selon Guisnel est du niveau de la «caricature» a été classé secret défense pour ne pas mettre en lumière des pratiques de rétention digne d’un autre siècle. Nous allons développer deux exemples plus simples, à la portée de tous, qui permettrons de prendre conscience de l’importance de l’impact sur les hommes et les institutions des méthodes de gestion 2.2.1 - Pour qui butinent les abeilles? Pour faire mieux comprendre l’importance de cette analyse, nous allons nous placer dans le cas d’une entité qui voudrait bénéficier de résultats gratuits dans le domaine de la recherche fondamentale. Une analyse mondiale des lieux où la recherche fondamentale est considérée comme étant une sorte de nécessité, de devoir et de gratuité pour le monde, d’objet désintéressé permettra de localiser quelques Pays, propices au développement de cette orientation. De multiples institutions de recherche, souvent concurrentes, cherchent à promouvoir des règles de plus en plus strictes (au fur et à mesure de la rareté des crédits) où la publication scientifique, le colloque de haut niveau deviennent la réussite ultime, où les publications classées par ordre hiérarchique peuvent constituer l’ultime parade pour avoir une bourse d’étude ou une création de poste de chercheur. Dans un tel milieu, il va devenir très facile de réaliser une analyse poussée des secteurs dont les résultats et les compétences pourraient être utiles. Reste alors à mettre en place les conditions qui permettront de faire dévier une partie de la recherche vers des thèmes non plus utiles au pays ou aux laboratoires qui travaillent sur ces derniers (souvent à cause de la faiblesse ou de l’inadéquation de son potentiel industriel avec les recherches entreprises), mais au pays tiers. Celui-ci pourra alors intégrer dans un puzzle planétaire les résultats obtenus par d’autres à ses propres projets. Ceci se fait généralement par le biais d’invitations, de groupes d’étude, de missions, de prise en compte de communications dans des colloques prestigieux ainsi que des travaux des laboratoires cibles identifiés dans la phase précédente. Cette approche est d’autant plus facile, qu’elle est valorisante pour le laboratoire vis à vis de ses instances de Direction, l’interprétation étant souvent réalisée par ces derniers au premier degré. On aura ainsi réussi à faire ce qui est appelé généralement le «brain gain» qui conduit à faire exécuter sur place le travail qui est utile à des tiers au lieu de déplacer comme dans le cas du «brain drain» les spécialistes. Le gain est multiple puisqu’on bénéficie des résultats pour un investissement quasi nul. Le fonctionnement de ces méthodes est simple: lorsque le niveau de protection est fort, c’est à dire lorsque les recherches sont finalisées en fonction de liaisons fortes avec des objectifs industriels, on va essayer d’aller vers la naissance de l’idée plutôt que vers le résultats publiés. En effet, ces derniers seraient alors trop anciens pour être directement intégrés aux développements d’un projet ou d’un produit (deux à trois ans de travail sont souvent nécessaires pour passer de l’idée à la publication). Dans d’autres cas, lorsque le programme de travail est à plus long terme et que l’incidence commerciale est moins forte, on ira simplement générer les idées de recherche chez ceux qui produiront ensuite à partir de celles-ci les résultats nécessaires au développement des produits concurrents. J’ai personnellement vécu des situations proches, lorsque j’étais Directeur de Recherche au CNRS et que j’ai effectué plusieurs enquêtes internationales ( au moment de la première crise pétrolière), puis lorsque j’ai représenté la France à la Commission Océanographique Internationale. Cet aspect stratégique de production et de diffusion des connaissances m’a conduit avec un groupe de chercheurs à approfondir ces notions, puis à quitter le CNRS pour devenir Professeur à l’Université. En effet, les Sciences de l’Information, La Veille Technologique, l’Intelligence Compétitive ne sont pas des domaines de recherche reconnus par cet organisme. Peut être les discours peuvent ils marquer un attrait (et on rejoint ici le mal Français d'Alain Peyrefitte), mais certainement pas la réalité des faits . Un autre exemple proche des mêmes considérations est fourni par l’ADEME (Institution française pour le développement des économies d’énergie). Les aides apportées à différents partenaires industriels, après avoir selon ses missions accomplit un travail de structuration en profondeur de la recherche de base dans les domaines des énergies renouvelables, ont conduit à des développements, par exemple les pales d’éolienne de la Société A Tout Vent (ATV). Mais, en même temps que se développait ce savoir faire, on ne prenait pas en compte la nécessité de protéger ce capital. Actuellement, en Décembre 1996, la Société ATV a déposé son bilan. L’investissement dans le domaine ne sera pas perdu pour tout le monde, et plus particulièrement par les sociétés qui rachèteront celle-ci. Bilan de l’opération, un transfert d’argent interne au pays, la création d’un savoir faire national, puis la perte de celui-ci à cause d’une très faible exploitation industrielle. Dans ce cas précis, l’intervention et l'ingérence directe n’ont même pas été nécessaires, l’organisme générant par sa structure les mécanismes précédents. 2.2.2 - Les contraintes conduisent toujours à évoluer, mais pas nécessairement dans le sens prévu. Un travail récent publié dans La logique de la fraude, J.C. Ducatte, Humanisme et Entreprise, 100, 1996, pp.45 permettra de mettre certains comportements en lumière. Citons l’auteur: «Les comportements frauduleux de tous types se développent de façon exponentielle et s’organisent en de véritables réseaux parallèles, mettant en danger les programmes gouvernementaux de réduction des déficits, voire l’autorité de l’Etat. Plus grave une véritable «logique» de fraude se met en place ....» De qui parle-t-on? D’un pays isolé d’Afrique ou de l’Est de l’Europe, de l’Italie avec l’opération Manipullita, non, simplement de la France. Si nous avons choisi cet exemple, traitant de la France, c’est bien pour interpeller le lecteur. Mais, bien des ouvrages ont décrit la société parallèle «à l’italienne» et, lorsque celle-ci s’est installée, les difficultés rencontrées pour revenir à une normale souvent perçue comme contraignante et réductrice du développement ont été multiples. On peut citer à ce propos l’Encyclopédie Universalis 1995: "En 1967, la commission Katzenbach, dans son rapport intitulé The Challenge of Crime in a Free Society, affirme l’existence d’une criminalité organisée comparable à une société criminelle, bien structurée, habile à déjouer toute répression et qui s’infiltre dans certains secteurs de l’économie licite, y introduisant l’esprit de cartel et les procédés susceptibles d’accroître la rentabilité et l’impunité. On dit même que cette mafia moderne interviendrait à sa manière dans les conflits sociaux..... Observons enfin que dans tous les pays socialistes s’est développée, en marge et à l’intérieur du secteur d’État, une économie «parallèle»: semi-légale ou illégale, fondée sur la corruption et le détournement des biens d’État à des fins privées, elle impliquait souvent une collusion entre la «mafia» et la nomenklatura du parti, recréant un secteur privé par exploitation du secteur public." Il est donc nécessaire, pour celui qui va s’engager dans une recherche d’informations pour décision, de prendre en compte le contexte dans lequel il va évoluer. Mésestimer les contraintes du aux pays, leurs caractéristiques à la fois sociales, techniques, les pratiques qui y ont cours,.... c’est se placer en état d’infériorité devant le concurrent qui aura su se doter des moyens d’information et d’analyse lui permettant une bonne connaissance du contexte. Pour ceux qui désireraient être informés plus particulièrement sur ce sujet, le livre publié par l’Amiral Lacoste (Un Amiral au secret, Flammarion, 1997 voir aussi du même auteur la Démocratie et les maffias, 1995) traitant de ce problème est particulièrement instructif. 2.3 - Les barycentres, les changements de référentiels Nous allons réaliser dans ce paragraphe une présentation rapide de la nécessité de connaître les référentiels (donc de mettre en place des procédures pour y accéder), ainsi que de déterminer à partir de ces référentiels des barycentres de connaissances, d’intérêt... pour aider à la prise de décision, ou pour mieux connaître les interlocuteurs avec lesquels nous devront dialoguer. Pour illustrer ce propos, nous prendrons deux exemples. L’un, dont nous avons été l’un des acteurs et qui concernait une section scientifique du CNRS. L’autre, qui consiste à ne plus analyser un problème avec son propre référentiel, mais avec le référentiel de l’autre. Nous insistons sur la transposition que devra faire le lecteur au niveau de ces deux exemples. La notion de point de convergence, de la plus large base possible de discussion est un point très important qui doit être dégagé lors de la construction de systèmes d’hyperinformation. 2.3.1 - Le Comité National du CNRS Le Comité National du CNRS est formé de sections qui comprennent des membres élus ou nommés. Ces sections, concernent des disciplines: chimie organique, économie.... et portent un jugement sur la production scientifique des laboratoires, mais surtout sur le travail des chercheurs. De ce fait elles assurent les avancements de carrières et le recrutement en postes dits frais. Leur rôle est donc important. Il est donc clair, qu’une des meilleures façons de dialoguer avec les élus de ces sections, ou avec la section tout entière au niveau des réunions du Comité National, c’est de comprendre les jeux des acteurs en présence, puis de déterminer le barycentre scientifique autour duquel la meilleure compréhension possible sera obtenue. A charge ensuite aux personnels des laboratoires appartenant à cette section de formuler les résultats et les évolutions futures en tenant compte de ces paramètres. Comment procéder? La méthode est simple. Dans la majeure partie des cas, les personnes élues ou nommées ont une formation scientifique qui les a conduit à publier leurs travaux, ou à diriger un laboratoire dont les membres vont nécessairement publier. C’est la règle d’or: «publish or perish». Pour les personnes venant de l’industrie, elles ont pu publier ou être inventeur d’un brevet, ou travailler dans un laboratoire dont la dominante scientifique est connue. De ce fait, il sera possible, pour chacune des personnes, de retracer, soit manuellement, soit ce qui est généralement le cas informatiquement leur production scientifique. Ces données permettront, par une analyse automatique de mettre en évidence les réseaux d’auteurs, les adresses des laboratoires passés et présents, ainsi que le réseau des thèmes auxquels ces chercheurs ont dédié tout ou partie de leurs travaux. Ces données sont aisément accessibles par un simple télédéchargement (serveurs Dialog, Questel, Questel-Orbit, ESA...). Celui-ci comprend, en fonction des bases de données utilisées, des codes (descriptifs des domaines scientifiques), des noms d’auteurs, des adresses, qui seront si nécessaire homogénéisés. Ce travail, pour une vingtaine de membres et pour une durée de vie de la section de 4 ans mérite d’être réalisé. Pour les personnes issues du milieu industriel, on ajustera une production scientifique «virtuelle», en utilisant les mêmes codes que ceux utilisés par les banques de données consultées. (Par exemple les sections des Chemical Abstracts qui divisent la chimie en quatre vingt domaines scientifiques ou techniques). Une fois le corpus réalisé, une simple analyse automatique se basant sur les principes de la bibliométrie, permettra de tracer les différents réseaux, de déterminer des poids respectifs, etc. Sur le réseau des noms d’auteurs, on placera ensuite les membres du bureau de la section (personnages influents car ils distribuent les dossiers aux experts). Le réseau faisant apparaître aussi les coauteurs, on aura des points d’entrée sur des personnes proches des élus. On peut aussi, implémenter si nécessaire cette base de travail en indiquant pour chaque nom l’appartenance syndicale, ce qui permettra de segmenter l’ensemble du corpus avec une donnée non scientifique, mais tout de même importante. On trouvera dans les chapitres suivants des exemples de graphes de thèmes et des représentations tout à fait adaptées au problème traité ici. On n'a pas fait figurer ici de représentations réelles pour éviter tout problème et toute polémique. Mais, cette méthode a été utilisée avec succès. Elle rejoint, dans son essence même le chapitre traitant de l'information d'influence et du lobbying, en mettant en place les bases de la communication d'influence qui sera réalisée sur un certain nombre de cibles privilégiées. De même la généalogie des élus peut être étudiée (filiation par rapport à un père puis à ses fils, etc..) Cela permettra souvent de faire apparaître des lignes de force ou de répulsion qu’il est bon de connaître. 2.3.2 - Analyse d'une communauté scientifique L'exemple qui va être cité ici est extrait de l'habilitation à diriger des recherches (HDR) de Luc Quoniam. (HDR, Analyse Bibliométrique d'un secteur de production scientifique, Université Aix-Marseille, Faculté des Sciences et Techniques de Saint Jérôme, 13397 Marseille Cedex 20., 1996). Dans ce travail, l'auteur a analysé le positionnement de ses activités de recherche et de sa production scientifique. Cette analyse est un travail de positionnement et de benchmarking appliqué cette fois-ci à de la production scientifique. C'est une pratique qui devrait normalement se généraliser. Il n'est pas question ici de porter un jugement sur la qualité du travail des autres auteurs engagés dans le champ d'activité, mais de positionner les thèmes, de rechercher les équipes réelles ou viruelles (cohortes d'auteurs publiant ensemble dans un intervalle de temps donné), puis de tracer les réseaux d'auteurs pour déterminer les auteurs phares, etc. Une analyse préalable des sources d'information a été faite en utilisant un cluster de diverses bases de données sur le serveur Dialog. Ceci a permis d'extraite un certain nombre de notices références d'articles traitant du sujet. Au paravant, une stratégie d'interrogation avait été réalisée pour couvrir le champ d'activité du chercheur, dans le cas présent la bibliométrie, la scientométrie, l'infométrie. On peut aussi, et c'est l'exemple qui sera présenté ici, utiliser une base de données qui décrit bien ces types de travaux et extrire ces derniers pour analyse de la base. Dans ce cas, c'est la base de données PASCAL (INIST - CNRS) qui réponde le mieux. Ceci est important, car certaines de bases de données, du fait de leur orientation anglo-saxonne trés marquée ne permettent pas une couverture objective du champ d'activité. Ceci est le cas pour la base du SCI (Citation Index, serveur DIALOG), qui est trés orientée vers des cibles anglaises ou américaines par un choix de périodiques indexés restreint. Nous avons déjà dit qu'une telle étude était à notre avis évidente. Ceci pourtant n'a pas été compris dans ce sens par d'autres personnes, il a fallu situer le travail et légitimer ce choix. Voici ce dit l'auteur Luc Quoniam à ce propos: "Comme ces outils ont de plus en plus tendance à être utilisés dans le cadre de la programmation de la recherche (au nom de l’évaluation), nous avons pris le parti de mettre en évidence dans ce travail comment, à partir d’un corpus donné, on pouvait aborder, analyser, décrire et en quelque sorte modéliser un champ d’action scientifique. D’autre part, la recherche échappe de moins en moins au principe général de la concurrence. Cette concurrence est présente aussi bien sur le “ front ” scientifique, qu’au niveau de la recherche de financement (institutionnel ou industriel), et surtout pour une reconnaissance par les pairs, qui aboutira à une évaluation de la recherche. Cette concurrence joue également au niveau des étudiants doctorants qui, à l’aide du fruit de leur recherche, doivent trouver du travail dans un contexte toujours plus difficile. Le chercheur, ayant la responsabilité d’encadrer des étudiants doctorants, a alors le devoir de se placer dans ce contexte concurrentiel. Diriger des recherches, c’est entre autres, être capable de se positionner par rapport aux autres équipes nationales ou internationales, de s’auto-évaluer afin de pouvoir se remettre en cause et sans cesse essayer d’améliorer ou d’orienter ses activités de recherche, ou la perception de celles-ci, que ce soit par les pairs, les bailleurs de fond ou toute autre personne. “ Elaborer une stratégie de recherche, c’est d’abord éclairer les enjeux. C’est organiser une réflexion permanente, en amont, sur les orientations de la recherche nationale, en croisant les approches et les objectifs des acteurs comme des utilisateurs de la science. ” F. Fillon " Etant donné que nous analysons des productions scientifiques liées à des personnes physiques, nous limiterons dans cet ouvrage public toute interprétation impliquant des personnes autres que celles de notre équipe de recherche, ceci en accord avec les considérations éthiques en usage dans le domaine de l’information C’est également pour cette raison que nous avons choisi d’analyser une partie de notre domaine (bibliométrie, scientométrie, informétrie) dans lequel les auteurs ont l’habitude de ce type d’approche et ne s’en trouvent pas gênés. Ce ne serait peut-être pas le cas dans d’autres disciplines bien que la transposition de ces méthodologies à d’autres domaines soit tout à fait possible si on peut faire valider le corpus par des experts et si les conclusions des analyses sont réalisées en accord et/ou avec l’aide critique de spécialistes. En outre, en étant en contact avec notre communauté par le biais du serveur de l’International Society for Scientometrics and Informetrics (ISSI), nous sommes à même de répondre à toutes les questions que pourraient susciter une telle étude. J’ai délibérément choisi de mettre en avant les techniques et méthodes à travers une première partie qui présente mes activités, puis à travers une deuxième partie constituée d’une analyse bibliométrique des productions scientifiques de ce domaine . La mise en avant des techniques et méthodes se justifie par leur grande part dans mon activité de recherche ainsi que par les considérations éthiques déjà évoquées. De fait, l’analyse finale s’inscrit dans un domaine stratégique puisque la méthode peut faire intégralement partie de la Veille Technologique ou de l’Intelligence Stratégique. Enfin, le type d’analyse présenté ici est utilisé pour prendre des décisions stratégiques quant aux orientations de nos recherches, cependant, si les travaux parus sont à caractère public, toutes nos nouvelles orientations ne le sont pas, surtout dans une vision concurrentielle de la recherche. Ce qui explique que dans les conclusions présentées, l’interprétation structurale et rétrospective est privilégiée face à l’interprétation prospective qui doit intégrer d’autres éléments que l’information disponible dans les bases de données, éléments qui ne sont pas forcément publics ." Auteur Principal Nb Auteurs du groupe Fréq. max. Regroupement des principaux auteurs du domaine Les différents groupes d'auteurs (laboratoires réels): Groupe Pascal 4 Nombre d’auteurs dans le Groupe :11 Auteurs du Groupe : VAN RAAN AFJ(18); NEDERHOF AJ(10); TIJSSEN RJW(7); MOED HF(7); PETERS HPF(4); NOYONS ECM(4); LUUKKONEN T(4); PERSSON O(3); BRAAM RR(3); ZWAAN RA(2); DE BRUIN RE(2) Copublication entre les auteurs BRAAM RR [moed hf(2), van raan afj(2)] DE BRUIN RE [moed hf(1), nederhof aj(1), zwaan ra(1)] LUUKKONEN T [persson o(1), tijssen rjw(1)] MOED HF [braam rr(2), de bruin re(1), nederhof aj(1), van raan afj(3)] NEDERHOF AJ [de bruin re(1), moed hf(1), noyons ecm(2), van raan afj(3), zwaan ra(2)] NOYONS ECM [nederhof aj(2), van raan afj(2)] PERSSON O [luukkonen t(1), tijssen rjw(1)] PETERS HPF [van raan afj(4)] TIJSSEN RJW [luukkonen t(1), persson o(1), van raan afj(4)] VAN RAAN AFJ [braam rr(2), moed hf(3), nederhof aj(3), noyons ecm(2), peters hpf(4), tijssen rjw(4)] ZWAAN RA [de bruin re(1), nederhof aj(2)] Affiliation de ces auteurs : BRAAM RR [leiden, nld(3)] DE BRUIN RE [leiden, nld(2)] LUUKKONEN T [helsinki, fin(4)] MOED HF [leiden, nld(6)] NEDERHOF AJ [leiden, nld(9)] NOYONS ECM [leiden, nld(4)] PETERS HPF [leiden, nld(4)] TIJSSEN RJW [budapest, hun(2), leiden, nld(6)] VAN RAAN AFJ [leiden, nld(18)] ZWAAN RA [leiden, nld(2)] Journaux de publication : BRAAM RR [aisjb6(2)] DE BRUIN RE [scntdx(2)] LUUKKONEN T [scntdx(3)] MOED HF [aisjb6(2), scntdx(4)] NEDERHOF AJ [aisjb6(2), scntdx(7)] NOYONS ECM [scntdx(3)] PETERS HPF [scntdx(3)] TIJSSEN RJW [scntdx(4)] VAN RAAN AFJ [aisjb6(4), scntdx(12)] Années de Publication : BRAAM RR [1991(2)] MOED HF [1991(2), 1993(3)] NEDERHOF AJ [1993(2), 1989(2), 1992(3)] NOYONS ECM [1992(2), 1994(2)] PERSSON O [1986(2)] PETERS HPF [1994(2)] TIJSSEN RJW [1990(2), 1993(4)] VAN RAAN AFJ [ 1993(2), 1987(2), 1990(2), 1989(3), 1994(4), 1991(4)] Thèmes des articles de ces auteurs : BRAAM RR [bibliométrie(2), analyse citation(2), littérature scientifique(2), scientométrie(2), classification(2), code(2), analyse mots associés(2), amas(2), cocitation(2), pondération(2), cluster word profile(2), contenu sujet(3), terme indexation(3)] DE BRUIN RE [bibliométrie(2), analyse bibliométrique(2)] LUUKKONEN T [europe(2), analyse bibliométrique(2), périodique(2), finlande(2), bibliométrie(2), evaluation(2), application(2), etude critique(2), analyse citation(2), document publié(3), recherche scientifique(4)] MOED HF [science(2), analyse bibliométrique(2), périodique(2), méthode(2), expérimentation(2), limitation(2), recherche scientifique(2), scisearch(2), indicateur recherche(2), contenu sujet(2), terme indexation(2), classification(2), code(2), analyse mots associés(2), amas(2), cocitation(2), pondération(2), cluster word profile(2), littérature scientifique(3), discipline(4), scientométrie(4), analyse citation(4), bibliométrie(6)] NEDERHOF AJ [ scientométrie(2), etude comparative(2), amérique(2), amérique du nord(2), echelon international(2), evaluation performance(2), organisme recherche(2), etude critique(2), document publié(2), littérature scientifique(2), indicateur recherche(2), sciences sociales(2), périodique(2), indicateur mesure(2), europe(3), méthode(3), pays bas(3), sciences humaines(3), validité(3), littérature(3), analyse bibliométrique(4), evaluation(4), analyse citation(5), recherche scientifique(6), bibliométrie(6)] NOYONS ECM [echelon international(2), evaluation performance(2), organisme recherche(2), recherche développement(2), cartographie(2), etude expérimentale(2), recherche appliquée(2), analyse mots associés(2), transfert(2), carte bibliométrique(2), optomécatronique(2), relation science technologie(2), bibliométrie(3), recherche scientifique(4), analyse bibliométrique(4), méthode(4)] PERSSON O [bibliométrie(2), analyse bibliométrique(2)] PETERS HPF [analyse citation(2), analyse bibliométrique(2), bibliométrie(2), evaluation(2), document publié(2), etude cas(3), scientométrie(4), génie chimique(4)] TIJSSEN RJW [analyse mots associés(2), carte bibliométrique(2), carte science(2), réseau neuronal(2), discipline(2), coopération(2), structure domaine(2), multiple(2), indicateur(2), etude comparative(2), evaluation(2), périodique(2), astronomie(2), astrophysique(2), science(3), recherche scientifique(3), représentation graphique(3), bibliométrie(4), analyse bibliométrique(4), méthode(4), cartographie(4), echelle multidimensionnelle(4), scientométrie(5), application(5)] VAN RAAN AFJ [application(2), représentation(2), travailleur scientifique(2), recherche développement(2), transfert(2), optomécatronique(2), relation science technologie(2), indicateur recherche(2), relation(2), représentation graphique(2), echelle multidimensionnelle(2), influence(2), astronomie(2), astrophysique(2), chercheur(2), classification(2), code(2), pondération(2), cluster word profile(2), science(3), carte bibliométrique(3), document publié(3), citation(3), etude expérimentale(3), recherche appliquée(3), périodique(3), contenu sujet(3), terme indexation(3), cocitation(3), amas(3), littérature scientifique(4), etude cas(4), génie chimique(4), méthode(5), cartographie(5), evaluation(5), recherche scientifique(5), analyse bibliométrique(6), analyse mots associés(6), analyse citation(10), bibliométrie(11), scientométrie(11)] ZWAAN RA [bibliométrie(2), sciences sociales(2), sciences humaines(2), littérature(2)] On peut ainsi voir directement comment une analyse peut être effectuée à partir de sources bibliographiques ouvertes. La même analyse peut être réalisée sur toutes données provenant d'une base de données structurée. On voit donc tout l'intérêt pour une institution ou pour une entreprise de constituer, si cela est nécessaire un capital d'information sous forme de bases de données internes stratégiques. L'ensemble de cette habilitation est disponible au format PDF sur le serveur: http://crrm.univmrs.fr/res-teach/staff/bibliom2.pdf. 2.3.3 - Le changement de référentiel Le globalisme des économies, la diversité des nations qui évoluent sur la scène internationale conduisent l’entreprise à prendre de plus en plus en compte les référentiels et les moeurs de ses interlocuteurs. On pourrait donner ici de multiples exemples à la fois politiques, religieux et économiques. Mais, pour éviter toute polémique nous allons simplement citer une pratique qui est importante en Asie. Les relations commerciales avec la partie du monde qui sera le lieux des affaires des décennies à venir vont s’intensifier. Dans ce cadre, la connaissance de certaines pratiques sont très importantes. On citera par exemple la parole téléphonique: souvent, des affaires sont conclues par simple accord téléphonique, on régularisera plus tard, mais on ne reviendra pas sur la transaction. C’est une affaire d’honneur, de comportement. Celui qui transgresserait cette règle pourrait être mis à l’écart du «groupe» et sans doute ne pas pouvoir (ou du moins n’y arriver que très difficilement) rejoindre un autre «groupe». Avec cet éclairage, on peut analyser plus facilement les réactions de la presse coréenne et du gouvernement coréen à la suite des différentes phases de la vente à Daiwoo d’une partie de la Société Thomson (Thomson Multimédia). L’affaire était conclue, mais, sous la pression des parlementaires et d’une partie de l’opinion française, l’affaire ne se fait plus, on revient en arrière. En quelque sorte, on ne respecte pas sa parole, on «perd la face». On ne mesurera sans doute que plus tard comment un fait de ce type peut faire du tort, non seulement en Corée, mais aussi en Asie dans son ensemble, même si dans certains pays l’animosité contre la Corée reste encore forte. En fait, à la stratégie et à la discussion commerciale «à l’Occidentale», se superpose une notion plus floue, liée à la culture du pays et dont il faut tenir compte. Ce qui doit être évité à tout prix, c’est engager un effort important dans la collecte des informations extérieures, puis, les interpréter comme si elles se situaient et interagissaient dans la société française. On peut aussi, dans le domaine des référentiels, citer en exemple la diminution quasi constante de l’espace national. En effet, sur le plan économique, l’espace national se traduit par une unité de marché, une stabilité relative des facteurs de production et de l’autorité de l’Etat. (Gauchon Universalis Vers un espace économique mondial, 1996 pp.99-105) Hors, si on regarde l’évolution du commerce international sous l’impulsion des Firmes Multinationales, on constate que les échanges sont devenus mondiaux, que les flux de capitaux, que les cessions de technologies, et que les flux transfrontières d’informations ne sont que très peu compatibles avec la notion précédente d’espace national. Il faudra donc, tenir compte de ces facteurs, et ne pas tout ramener, au plan des analyses et de la perception des contenus des informations à l’espace économiquement trop restreint de la Nation. C’est dans ce cadre que le terme GLOCAL est utilisé aux USA. Il est la contraction de deux mots: Local et Global. Dans tout développement international, on va passer à partir du local par une orientation nationale, puis, internationale. Ce passage s’accompagnera de deux faits précis: un enracinement Local plus fort, une baisse d’activité au plan national. Par exemple de grandes Sociétés Françaises internationales voient, sous la pression des événements, évoluer leur chiffre d’affaire en 30% Français et 70% dans le reste du monde. La figure suivante illustre ce fait, sans entrer dans les détails. Elle retrace l’évolution que nous avons connue au CRRM depuis 12 ans: le passage du local au national, puis la baisse constante de l’activité au plan national pour un enracinement local plus fort et un développement international plus grand. Ceci n’est du au hasard, mais simplement au fait que la recherche de partenariats internationaux, la transposition de notre savoir faire la volonté d'échapper aux querelles nationales (le monde est grand!) vous conduisent naturellement à ce type de configuration. During those past twenty years we move from local to GLOCAL moves Competitive Technical Intelligence Glocal Global local Technology Watch National (hexagonal) Documentation (online) Local (feodal) Strong change in goals and organization years Le passage à l'international: du local au global, le Glocal Le mise en pratique du passage vers le GLOCAL, nous a conduit, en tant que structure de recherche et d'enseignement à nous orienter vers un redéploiement particulier, avec de fortes interactions internationales et une forte assise locale. From Local to Glocal DEA, doctoral programs, post-doctoral collaborations and research contracts with industries Europe North America Luxembourg CRHPT Portugal, Spain USA France CESD (Paris) Galveston Marseille Sophia PACA Brasil Arbois Chateau Antipolis IDS Rio de Janeiro Gombert CERAM Curitiba Kuala-lumpur Florianapolis Indonesia Canoas, Caxias South America Cilegon Local = strong Jakarta National = weak Bandung International = strong Asia Surrabaya CRRM La situation actuelle du CRRM, un exemple de passage du local au Glocal On constate un renforcement des liens et opérations locales avec les technopôles de l’Arbois (IDS) de Château Gombert (Pépinières et ESIM), et de Sophia Antipolis (CERAM). En même temps un seul laboratoire français reste concerné: le CESD Centre d’Etude Scientifique de Défense situé à Marne la Vallée prés de Paris (on ne cite pas ici les laboratoires de la région). Au plan International trois zones sont concernées, avec de fortes complémentarités entre zones: Europe (Luxembourg, Portugal et Espagne à travers des programmes ADAPT de la CEE), le Brésil avec un fort développement de le formation continue et certains cours du DEA Veille Technologique et Intelligence Compétitive (Rio de Janeiro). En Asie, principalement l’Indonésie avec des formations continues, des séminaires et une forte présence d’étudiants au CRRM. Le relais vers ces pays est assuré par notre propre réseau, mais aussi par des institutions privées (SFERE en Indonésie), ou par des agences de financement de projets (FINEP au Brésil). Cette configuration, pour le moins originale pour un laboratoire universitaire, nécessite une structuration des enseignements et des recherches particulière, avec un travail à distance qu’il faut maîtriser, avec des déplacements fréquents qu’il faut assurer. L’ensemble est réalisé sur une base d'autofinancement. Cependant, ce type d’évolution est aussi favorisé par un moindre coût des transports au plan international: Marseille Rennes revient à 4.400 fr. en avion! Marseille New-York à 2.200 fr., ainsi que par un développement constant des facilités de communications informatiques, entre autre internet. 3 - Le concept d’Intelligence Compétitive ou d’Intelligence Economique L’Intelligence Economique ne doit pas être réduite à la simple collecte des informations, même si elles proviennent de l’Internet!. Elle va nécessiter un usage intensif d’informations de natures très diverses. Elle sera aussi caractérisée par la manière dont les informations sont utilisées pour dégager une pensée latérale, pour maîtriser les conflits, pour minimiser les risques et pour en somme acquérir un esprit «guerrier»... Il est donc évident que les informations nécessaires seront très diverses, mais devront dans cette diversité être soigneusement sélectionnées. L’objectif est d’agir vite, de façon efficace, en se trompant le moins possible. Ce n’est donc pas le volume d’information qui va jouer, mais tout le travail préalable à son utilisation: la détermination des cibles, la collecte, l’analyse, la compréhension des relations existant entre les informations. C’est en ce sens que le couple Intelligence Economique, hyperinformation ne peut que difficilement être dissocié. Ensuite, l’attitude personnelle devant l’information elle même, son intégration dans la décision et dans la stratégie de l’entreprise compléteront l’ensemble précédent. L’analyse effectuée dans les chapitres précédents nous a montré comment un certain nombre de facteurs devaient être maîtrisés, tant au plan de l’information qu’au niveau de l’action pour rester toujours compétitif et assurer aux entreprises un avantage par rapport à leurs concurrents. La nécessité d’intégrer dans la décision une réflexion plus globale est une nécessité. Cela veut dire que l’ensemble des systèmes d’observation qui sont souvent mis en jeu séparément et avec un cloisonnement plus ou moins grand dans les entreprises, verront leurs résultats rassemblés et analysés par un service spécialisé qui de ce fait embrassera l’ensemble des paramètres qui sont nécessaires à la production d’informations pour décision. C’est cette nécessité de rassembler les résultats de l’ensemble des Veilles, des surveillances dans un même système qui donnera toute la qualité et l’efficacité au service qui se chargera de cette mission. Le nom d’un tel service est plus ou moins «ronflant» selon les entreprises, les personnes concernées et les jeux de carrières. Disons que ce service relève de la stratégie, mais aussi au niveau de l’hyperinformation d’un véritable service de renseignement avec les personnes nécessaires au développement d’un plan de renseignement, puis celles nécessaires pour aller chercher sur le terrain les informations, et ensuite le niveau d’analyse et de validation. On peut schématiser la partie observation et recherche du renseignement de la manière suivante: Organisation du renseignement Transmission Vision et questions asociées Validation et compréhension Plan de renseignement Sources Qui va Rechercher les Informations Coût difficulté Collecte des Informations Organisation et recueil des informations formelles et informelles CRRM Organisation du renseignement dans une entreprise ou une institution Bien souvent, on entend dire à propos des PME et PMI, que rares sont les sociétés qui ont une stratégie! Je pense que cela est faut compte tenu du fait simple, qu’existant encore elles doivent se battre et donc avoir tout de même une vision de leur avenir. Par contre, rares sont celles qui ont mis en place, à côté de leur vision et des questions suscitées par cette dernière un plan de renseignement. On pourra lire à ce propos: La prospective stratégique d'entreprise, J. Lesourne et C. Stoffaes, Lavoisier 1997. Le plan de renseignement Généralement, quand on se déplace et que l’on veut aller quelque part, on détermine un itinéraire, on va demander les horaires des trains, comparer avec ceux des avions ou avec l’utilisation de sa voiture, on comptera les journées d’hôtel, le temps passé en déplacement, etc. Ce travail conduit à un ensemble d’informations validées qui conduira à l’achat du billet. Ensuite, le ou les billets seront transmis à la personne concernée qui réalisera l’acte final, c’est à dire l’action de partir pour se rendre à l’endroit décidé. Il en va de même dans un plan de renseignement. La vision de l’évolution de l’entreprise va conduire à se poser des questions, dont les réponses ne sont pas nécessairement au niveau des informations techniques, scientifiques, ou technicoéconomiques. Cette étape va se prolonger au niveau de la détermination des sources possibles d’informations pour répondre à ces questions, puis de la connaissance des acteurs qui vont aller «les chercher», que ce soit au niveau du service de documentation, du terrain, ou d’agents d’influence que l’on peut connaître ou entretenir. Nous exposerons, au sens strict de l’information documentaire, comment il faut avant de se lancer dans une recherche analyser les sources d’informations (les bases de données disponibles), puis les valider. Ici, le problème posé est plus large puisque l’on ne se préoccupe pas d’une question bien précise, mais d’un ensemble de questions associées au devenir de l’entreprise. La maîtrise du plan de renseignement nécessite bien entendu une connaissance très poussée de toutes les personnes susceptibles de renseigner l’entreprise, que ces personnes soient internes ou externes. Elle nécessite aussi une bonne connaissance des lieux privilégiés (colloques, réunions ou manifestations existantes ou provoquées si on en a les moyens, etc..). Elle doit aussi être couplée avec un travail de fond sur la connaissance des cibles potentielles, c’est à dire une bonne connaissance des experts du domaine, des laboratoires d’excellence si on est en milieu recherche, ou de la manière dont on peut diminuer l’interface entre la cible potentielle qui détient les informations et la personne de l’entreprise qui doit aller «les chercher». Cette partie du plan de renseignement est essentielle. Bien que le système complet, sur le plan de la méthode paraisse compliqué, celui-ci peut être simplifié et adapté au besoin de très petites entreprises si nécessaires. A mon avis, c’est à l’intersection de la vison de l’entreprise, des questions posées par celleci et du plan de renseignement que se situe l’étape décisive. La seconde étape, va consister à valider les informations transmises, peut être à les compléter, et aussi à comprendre leur importance. Ceci conduira à l’étape de transmission qui permettra ensuite l’intégration de ces informations dans la prise de décision. Au niveau «militaire» on dirait que ce ne sont pas les mêmes personnes qui agissent dans les différentes étapes. Mais, pour une entreprise cela peut être différent, compte tenu des moyens, des personnes misent en jeu, etc. Dans les très grandes entreprises (multinationales...) on retrouvera une forte analogie avec le renseignement militaire, dans une PME, ce qui comptera surtout ce sera l’esprit, la méthode, et la mobilisation des moyens qui sera primordiale. Je pense que l’Intelligence de l’entreprise et de ses dirigeants commence à ce niveau. Il est fondamentalement différent du système documentaire, des dossiers techniques, de l’information brevets, de l’information économique,..etc. En fait c’est un tout, que certain segmentent selon les besoins en différents types de veilles, de surveillance, de «benchmarking». Nous allons donc reprendre un certain nombre de Veilles, pour les situer et montrer ensuite comment on va globaliser les résultats. 3.1 - Le déroulement des Veilles On entend souvent parler de Veilles Technologique, Scientifique, Concurrentielle, Financière, de Benchmarking, de Veille globale, etc. Cette terminologie recouvre en fait la même préoccupation et les mêmes méthodes. Essayons d’y voir un peu plus clair. 3.1.1 - La création d’un produit et son passage dans le domaine commercial On peut schématiser rapidement le passage de la Veille Scientifique, Technologique et Concurrentielle au cours de la vie d’un produit. Le schéma suivant montre simplement comment cela se passe. Ce n’est volontairement pas un schéma détaillé, l’objectif de cet ouvrage n’étant pas de se perdre dans les détails, mais de donner au lecteur un certain nombre de clés susceptibles de l’aider dans sa réflexion. Veille Technologique et Veille Commerciale ou Concurrentielle Intensité de la Veille Veille Veilles Commerciale et Concurrentielle Technologique Second souffle Technologique Temps La Veille Technologique se s'arrête pas, mais elle diminue lorsque le produit passe au stade de la fabrication et du marché. Quand les ventes faiblissent un second souffle peut être nécessaire. Positionnement dans le temps de différents types de veilles On peut considérer qu’avant de lancer la conception et même au cours de la conception du produit la Veille Technologique sera forte. Une fois que le produit passe sur le marché, et même un peu avant, ce sont les Veilles Commerciale et Concurrentielle qui sont majoritaires. Lorsque le produit commence à «faiblir», ou que de nouveaux produits concurrents apparaissent, un second souffle technologique peut devenir nécessaire pour «revamper» le produit ou redéfinir une nouvelle qualité perçue par le consommateur. Ces derniers points sont centrés sur la technologie et le commercial. Mais, il faut bien comprendre que d’autres Veilles seront aussi nécessaires: par exemple la Veille d’Influence et de Lobbying, la Veille Géopolitique, etc.. Dans les chapitres traitant plus particulièrement des informations, nous reviendront brièvement sur les informations d’influences et sur le lobbying. De même, certaines sociétés de consultants regroupent des industries sur un domaine donnée et réalisent des études génériques sur les technologies, les brevets cessibles etc.. par exemple aux USA MCC Global Technology Services ([email protected]) propose (Competitive Technical Intelligence Symposium, Boston, Feb. 20-21, 1997) propose l'approche suivante: Les cycle technologiques et les cycles de vie des produits On retrouve sur cette approche les différents traitements de l'information; analyses globales bibliométriques au niveau de la science, donc très en amont, l'utilisation des brevets au niveau des technologies, l'aspect commercialisation et les éléments d'information sur ce thème lorsque la technologie est mature ou sur le déclin. 3.1.2 - Le benchmarking Le benchmarking peut être considéré comme un étalonnage des performances de soi-même ou d’une société ou d’une institution par rapport à une autre entité. De nombreux ouvrages et de nombreuses conférences sont organisées sur ce thème. Nous allons simplement présenter les quelques points qui nous paraissent importants et qui nous semblent liés à l’hyperinformation. Tout d’abord, de même que dans le domaine de l’hypercompétition, les experts engagés dans ce processus doivent travailler en groupe et doivent appartenir à des services différents et complémentaires de la société. Ensuite, le benchmarking n’est jamais global. On travaille toujours en se fixant un objectif réduit, bien précis, généralement axé sur une faiblesse de notre société. Par exemple comment accélérer la facturation ou le service après vente? Comment nos concurrents gèrent ils leurs cadres?, Quelle est la politique de propriété industrielle? Quels sont les sujets protégés? ..etc. Cette approche fractionnée qui est à notre avis la meilleure, pose le problème de l’étalon de comparaison. Il est évident que l’on peut réaliser le benchmarking d’un procédé ou d’une tâche telle que la facturation, ou on peut vouloir comparer directement une de nos pratiques avec celle d’un de nos concurrents directs: comment les cadres sont ils gérés. Dans le premier des cas, le choix de l’étalon de comparaison est simple: on prend l’entreprise qui réalise la tâche la plus proche et qui est la meilleure dans le domaine, même si celle-ci n’est pas active dans notre secteur de travail. Par exemple la gestion et l’acheminement des lettres et des paquets dans une entreprise du type DHL ou Chronopost,... pourraient être comparés au tri des chèques et à leur acheminement vers les banques débitrices. C’est la fonction de tri et d’acheminement qui est importante. Dans le second cas, il est évident que la cible est fixée par avance, c’est un concurrent direct. Pourtant, dans un deuxième temps, si on veut améliorer ou affiner ou complémenter les conclusions, on pourra choisir un autre étalon: une entreprise connue pour avoir une certaine paix sociale et des cadres stables et heureux! Mais, même si le choix de l’étalon peut poser problème, la véritable difficulté du benchmarking c’est d’accéder aux données qui permettrons de réaliser la comparaison réelle avec le concurrent. Par exemple, si le traitement d’une facture va deux fois plus vite chez un concurrent, on peut mesurer ce temps de traitement en achetant un produit et en voyant à quel moment la facture arrive. Mais, cela n’est que le résultat de l’action, la difficulté sera de réellement réunir les informations des différentes phases de traitement chez le concurrent afin de les comparer aux nôtres. On voit ainsi en quoi, les données nécessaires au benchmarking sont très proches de celles, informelles, très utiles en hypercompétition. Méfions nous donc des officines qui vont nous apprendre à réaliser un benchmarking. Elles procèdent généralement par comparaison externe (le temps de facturation), mais souvent elles sont muettes sur les stratégies permettant d’accéder aux véritables données et processus en fonction chez le concurrent. Une bonne vision de l’Intelligence Economique (Competitive Intelligence en anglais) est donnée dans un article de Business Week du 28 Octobre 1996, p.73-76: «The number of large corporations with CI units has tripled since 1988 to about 10%, estimates David H. Harkleroad, director of Business Intelligence for Future Group Inc. a Glastonbury (Conn.) conculting firm. CI «is imperative for survival», declares Robert C. Mauch, retired president and CEO of UGI Corp.’s AmeriGas Propane Inc., a $1 billion Valley Forge (Pa.) gas marketer. What is competitive intelligence? It is not illegal spying or theft of trade secrets. Rather, il is much like the classic intelligence gathering that has long been used to guide public policy. But in the corpôrate world, CI experts have a more prosaic goal: to give executives a systematic way to collect and analyse public information about rivals and use it to make decisions. «I don’t ever want to be in a fait fight, «says Quaker State Corp. Chairman and CEO Herbert M. Baum. «I want an edge everyplace I go.». 3.2 - Les décalages L’ensemble des éléments qui constituent l’Intelligence Economique conduisent à un état d’esprit, une façon d’être qui modifiera sans doute l’entreprise dans ses fondements même. Les progrès des technologies de communication, de recherche, d’analyse de l’information, la possibilité de valider des hypothèses très rapidement, d’évaluer les risques, ... sont au coeur d’une réflexion qui touche le fondement même de la société: le décalage. Examinons la figure suivante, qui brosse très rapidement l’évolution globale de la vitesse d'évolution d’une entité A (ligne pointillée) par rapport à l’évolution globale du monde qui nous entoure, l’entité B (ligne continue): Le Décalage, un fait fondamental qui va bouleverser les sociétés Décalage A est de plus en plus décalé A est en avance B A Point critique Temps On vivait les décalages sur 20 ans, on les vit sur 20 mois CRRM Le décalage, ou positionnement par rapport au point critique Ainsi, une entreprise qui ne sait pas apprécier quand le point de croisement s’est produit, ou quand il va se produire se trouvera en position d’infériorité, souvent tragique, sans s’en rendre compte. Ayant toujours l'impression de bien faire (selon les critères et les standards du passé), elle ne comprendra pas ce qui lui arrive et ne pourra pas réagir. Malheureusement, cette situation n’est pas présente qu’au niveau des systèmes d’Intelligence Economique, de Veille ou de l'Information, mais aussi dans bien d’autres secteurs de la société, par exemples la pénétration des ordinateurs à l’école et dans les foyers, l'accès gratuits à certains programmes télévisés, l’action des groupes de consommateurs, la publicité donnée aux accidents industriels ou nucléaires (rappelons nous la trajectoire du nuage radioactif venant de Tchernobyl sur l’Europe de l’Ouest: il s’était tout bonnement arrêté à notre frontière!), etc... Le Benchmarking que l’on vient de voir brièvement peut être une manière d’analyser les décalages. C’est à dire de mettre en situation l’évolution des systèmes au plan des concepts, des méthodes, des outils et des moyens par rapport à sa propre entreprise et par rapport aux concurrents. Cette technique permet aussi, en étant conscient par exemple au niveau des systèmes d’information de ses propres faiblesses (souvent financières, de compétences ...) de voir à quel moment, face à des concurrents plus actifs ou dotés de moyens plus puissants, le point d’inflexion va se produire. Ceci permettra de réagir, de s’adapter, de rechercher des alliances, ... en fait de ne pas subir. Une autre vision du décalage a été présenté par Yves Le Coadic dans un article publié dans Le Monde du 13 Juin 1997 page 13. C’est ce que l’on nomme «principe de Mathieu»: «à tout homme à qui l’on donnera, il aura du surplus; mais à celui qui n’a pas, on enlèvera même ce qu’il a». (Evangile selon Saint Mathieu)..... Récemment des chercheurs allemands en science de l’information ont eu l’idée de vérifier la pertinence de ce principe en ce qui concerne la recherche scientifique de différentes nations. .... La France fait maintenant partie du groupe des pays pauvres en science. Et elle risque de le devenir encore plus selon le «principe de Mathieu». Certains indicateurs ponctuels, comme le faible nombre de chercheurs français membres des comités de lecture des revues internationales, le faible nombre d’inventions brevetées, le nombre limité d’intervenants français dans des conférences internationales, dans les Instituts de haut niveau le laissent présager. .... Mais la baisse constante, ces dernières années, de l’effort de recherche en termes de crédits... de main d’oeuvre, de bourses doctorales, etc... explique cette pauvreté. Et laisse deviner, si rien n’est fait, le déclin inexorable de la science française.» On constate ici, exprimé en d’autres termes, la notion d’accroissement du décalage, principalement du à des courbes de croissances différentes. Cet article montre aussi, comment des indicateurs simples permettent de créer des signaux révélateurs du positionnement. Dans le cas présent, le point de croisement est dépassé, et on se trouve dans la partie droite du graphe, là où, même avec un taux de croissance positif, le décalage va s’accroître. L’importance des signaux est nécessaire, mais, positionner leur résultante sur une courbe de croissance, et comparer celle-ci à d’autres courbes de croissance (autres pays, autres régions du monde....) est encore plus révélateur. On associe ainsi la connaissance des décalages avec la notion intuitive de «Benchmarking». Mais, la notion de décalage peut aussi être induite par des faits mécaniques. Nous livrons ici cette observation: "nous vivons de plus en plus vieux". Voyons comment, sur le plan de l'analyse au second degré cette information peut être perçue et qu'elles pourraient en être les conséquences: Cette information a pour conséquence un accroissement du décalage au niveau de la répartition des richesses. Comment arriver à cette idée, en partant de l'information précédente ? Prenons un exemple, une personne, a économisée toute sa vie et a ainsi un patrimoine important, de l'ordre d'un million et demi de francs par exemple. Ses enfants, et ses petits enfants ont une situation (certains des petits enfants vont encore à l'Université, d'autres sont en recherche d'emploi). Mais, ce contexte ne leur permettra que difficilement d'aider les grands-parents au niveau financier de façon efficace. La personne en question, à 85 ans tombe malade, ou subissant les atteintes de la vieillesse, ne peut plus assurer elle même son entretien. Il faut donc qu'elle aille dans une maison de retraite spécialisée, ou qu'elle soit assistée en permanence à domicile. Qu'en est-il ? L'assistance à domicile, du fait des charges sur les salaires impliqués devient rapidement non envisageable. De ce fait, la solution de la maison de retraite est adoptée (de l'ordre de 9.000 à 12.000 fr. par mois). Ceci conduit alors à une concentration du capital, puisque les sommes versées, seront utilisées à la fois pour rembourser entretien, emprunts, ... qui ont servis à la construction de la maison de retraite, puis aux salaires personnes assurant le travail dans la maison, et aussi à la rétribution des actionnaires de la Société créatrice à qui appartient la maison en question. Ceci n'est qu'un exemple, bien sûr on peut adapter la discussion, ne pas être d'accord, etc... mais simplement on voit comment une information peut être analysée de façons différentes. Ici sur le plan des décalages du patrimoine, là sur le fait que les retraités constituent une nouvelle cible pour la consommation, etc... On retrouve un grand principe: une information n'a de valeur qu'en fonction de ce que l'on va en faire, ce qui implique une vision du développement et une stratégie pour mieux anticiper. 4 - L’hypercompétititon Toutes ces considérations sont bien bonnes, mais pour moi, entrepreneur, au delà des discours que dois-je faire? On a va donc aborder, dans ce chapitre le concept d’hypercompétition. Nous avons vu rapidement les différentes visions qui conduisaient à l’Intelligence, en globalisant les systèmes d’information en fonction d’objectifs précis, et en développant ensuite une stratégie de recueil, de management et d’analyse, puis de compréhension. Nous allons maintenant nous mettre à la place d’une entreprise pour aborder certains concepts de compétition. Le but poursuivi n’est pas de reprendre en détail le livre de Richard D’Aveni (Hypercompétition Richard d'AveniVuibert, 1995), clair, pratique et d’une utilité sans doute encore plus forte pour les personnes faisant métier d’information que pour les économistes. Mais, dans l’approche de ce dernier, la mise en évidence des changements de comportement, la nécessité de changer en permanence les règles du «combat», de redéfinir en permanence la qualité perçue, ou de changer de théâtre d’opération pour rester maître des prix et dominer les concurrents sont des concepts fondamentaux qui au-delà de leurs implications dans le domaine économique, ont des répercussions importantes dans le domaine de l’information. On trouvera aussi dans le livre écrit par Annick Renaud Coulon (La désorganisation Compétitive, Maxima, Paris, 1996 ISBN 284001-126-3) de multiples références au travail de Richard d'Aveni, non pas dans le domaine de l'hyperinformation mais dans celui des changements organisationnels dans l'entreprise. Dans le domaine de la Veille Technologique, de nombreux ouvrages: Pratique de la Veille Technologique, Jakobiak F. Editions d'Organisation, Paris, 1991 ISBN 2-7081-1262-7- Exemples commentés de Veille Technologique, Jakobiak F., Editions d'Organisation, Paris, 1992 -Le management des technologies, Martinet B., Ribault J.M., Lebidois D., Editions d'Organisation, Paris, 1991 - Des technologies, des marchés et des hommes, , J. Morin, Edition d'Organisation, Paris, 1992 - L'entreprise face à la mutation technologique, Smail Ait-El-Hadj, Editions d'Organisation, Paris, 1990 - Le Management stratégique de l'innovation, Broustail J., Frery F., Précis Dalloz, Paris, 1992 - Stratégies Technologiques et Processus d'Innovation, Larue de Tournemine R., Campus Entreprise Université, Editions d'Organisation, Paris, 1992 - Le marketing technologique, Dayan , Que sais-je, Paris, 1991 - Veille Technologique, Dou H., Techniques pour l'Ingénieur, T-45 pp.119, 1997 - Veille Technologique et Compétitivité, H. Dou, Dunod, 1995 ISBN 2-10-002815-4 - Veille Technologique, H. Dou, H. Desvals, Dunod 1992 ISBN 2-10-000246-5, Le Management des Ressources Technologiques, J. Morin, R. Seurat, Les Editions d'Organisation, 1989, ISBN 2-7081-1058-6) ont bien décrits un certains nombre de méthodes, d’outils, de mise en place de systèmes de Veille. De même au plan de l’Intelligence Economique de nombreux ouvrages décrivent les menaces tant physiques que commerciales sans pour autant aborder un point qui semble crucial: celui de la mise en perspective de l’information par rapport au positionnement des entreprises sur un marché, puis ensuite de la manière dont doivent être formulées les bonnes questions (non pas au sens documentaire du terme), qui seront directement liées aux informations à rechercher et donc à la stratégie, à la vision que doit avoir l'entreprise de son devenir. 4.1 - Où nous battons nous? Les entreprises, sont généralement en compétition dans quatre domaines, quatre plans ou quatre arènes pour utiliser un langage plus imagé. On peut, typer ces quatre plans de façon relativement précise, en dessinant leurs contours. Nous n’avons pas pour objectif de reprendre ici un cours d’économie, mais d’essayer de nous appuyer sur les travaux de D’Aveni pour donner au lecteur, peut être peu familier avec ces concepts, des points de références. 4.1.1 - Il existe quatre domaines dans lesquels la compétition va s’exercer Le premier peut être décrit par la relation entre le prix et la qualité perçue par le consommateur. Le deuxième, par les introductions de technologies, les changements technologiques qui vont permettre à une société industrielle ou commerciale de passer dans une autre phase de compétition, pour gagner de nouveaux marchés et pour gagner des avantages par rapport à ses concurrents. Le troisième fait référence aux «forteresses» qui étaient par le passé élaborées autour d’une activité ou d’un produit pour rester maître du marché. De nos jours bien des stratégies permettent de «casser» cette façon de procéder et de la reléguer au niveau d’anciennes pratiques ayant peu de rapport avec la compétition actuelle ou à venir. Le quatrième enfin est celui des «deep pockets», sociétés, voire états, qui peuvent lorsque cela est nécessaire investir massivement et longtemps dans une activité donnée, même si celle-ci n’est pas directement rentable. En ce qui concerne l’information à la foi formelle et informelle, scientifique, technique, technicoéconomique et d’action (celle qui va concerner les biens, les personnes, les acteurs directs mis en jeu dans la compétition), ce sont les deux premiers domaines qui sont les plus concernés, et nous allons brièvement les décrire. 4.1.2 - Prix et qualité perçue, l'un des domaines les plus importants Lorsqu’on achète un produit, lorsqu’on utilise un service, ces derniers se situent dans un plan que l’on peut représenter par un diagramme portant en ordonnées le prix, et en abscisse la qualité perçue. On entend par le prix, celui que va payer le consommateur, et par qualité, non pas la qualité intrinsèque du produit, mais ce qui est plus subtil, la qualité perçue par le consommateur. La figure 1 représente la situation de trois sociétés A, B, C dans ce diagramme, ces sociétés étant concurrentes au niveau de leurs produits et de leurs offres de services. Prix et Qualité Perçue • La position de A dépend des mouvements de B et C C Prix A haut B $ UV Valeur Ultime bas Qualité Perçue CRRM Un premier champ d'affrontement: le pris versus la qualité perçue Si la stratégie des entreprises s’exerce, comme il est logique que cela soit, (on ne peu pas rester immobile), elle va conduire une société, A par exemple à réaliser un certains nombre d’actions qui la conduira à se positionner différemment dans ce plan. Par exemple elle pourra viser une légère augmentation de qualité tout en gardant son prix constant, afin de gagner sur le positionnement de la société C (en fait essayer de gagner de nouveaux clients, donc de nouvelles parts de marché). Mais, le nouveau positionnement de la société A, a bien une valeur intrinsèque, mais il vaut surtout par le positionnement qu’il induit au niveau des trois sociétés A, B, C. C’est ainsi que cela conduit, si en même temps la société C décide une baisse importante du prix de ses produits cela mènera à un positionnement réel de la société A qui sera totalement différent de ce qu’elle avait prévue dans sa stratégie, et qui en outre ne sera pas à son avantage. Prix et Qualité Perçue • Une stratégie n'est jamais indépendante ! haut A améliore sa qualité A $ C C diminue ses prix B bas UV Valeur Ultime Qualité Perçue CRRM On ne peut plus agir de façon indépendante. Les stratégies ne sont que relatives Cela introduit un première notion: Sa propre stratégie ne peut pas être réfléchie indépendamment de la stratégie des autres. Nous ne sommes pas seuls. Dans ces repositionnements constants qui caractérisent les sociétés qui se situent dans ce plan de concurrence, les entreprises sont inévitablement entraînées vers un positionnement (Ultimate Value selon d’Aveni) qui conduit à proposer des produits de bonne qualité pour un coût de plus en plus faible. On voit tout de suite que dans de telles circonstances, que soit on périt par diminution constantes des bénéfices, soit on accroît en permanence son marché pour maintenir un niveau de bénéfice acceptable. Cette situation, conduit alors les entreprises à essayer de se repositionner dans ce diagramme par diverses actions: soit rester dans le même plan et changer un certains nombre de règles, entre autre la qualité perçue, soit passer dans un autre plan en modifiant suffisamment les produits en utilisant des technologies nouvelles, etc... A propos des prix, il faut citer une méthode globale nouvelle qui se développe surtout en électronique. La globalisation introduisant de nouveaux paramètres, tant au niveau des coûts de fabrication que de ceux des composants, ou des droits de douane selon les pays d'exportation ou d'importation, il va falloir prendre en compte cet ensemble pour calculer le meilleur prix possible. C'est ce que l'on nomme la méthode CAI: Coût Asymptote Instantané qui est développée par François Bus (La stratégie du Meilleur Prix de Revient, Les Editions d'Organisation, 1995, ISBN 2-7081-1773-4. Voir aussi http://[email protected]). La CAI est une méthode globale qui intègre les autres méthodes de réduction des coûts (Benchmarking, conception à coût objectif, ingénierie simultanée, Time based compétitiveness, ...). Citons François Bus: "...Il est essentiel de connaître le coût asymptote instantané, car c'est le coût auquel vous pourrait fabriquer vos concurrents. Le coût asymptote instantané ne représente souvent que la moitié de votre prix de revient actuel, parfois seulement 20%, voire 10%. C'est aussi le coût auquel vous pourriez fabriquer pour prendre un avantage décisif, sur les meilleurs." 4.2. - Les changements de règles Généralement, les changements, une nouvelle définition des règles (entre autre de la qualité perçue...) se produisent souvent imbriqués c’est à dire avec pour objectif de redéfinir la qualité en introduisant un certain taux de changements technologiques, voire de simple publicité ou de changement de packaging ! 4.2.2 - Prenons comme exemple les voitures Dans les années 60, le design, l’aspect (d’ou le concept de «Belle Américaine») participait très largement à la notion de qualité perçue, dans la décision d’achat. La dauphine se transformait en Caravelle, etc. Mais, après le premier choc pétrolier, la brusque augmentation du prix des carburants a fait évoluer le concept de qualité perçue. Le moteur devait être économe, la consommation de la voiture jouait un rôle important dans la décision d’achat. Ceci a été valable pendant plusieurs années, mais, sous l’effet d’un certain nombre de fabricants, entre autre scandinaves et japonais, de nouvelles motivations ont été avancées, entre autre le concept de sécurité. On achetait une voiture, entre autre pour la sécurité qu’elle vous procurait: «caisse autodéformable», air bags, volant rétractable, etc. C’est actuellement un aspect non négligeable de la qualité perçue, mais celui-ci est entrain d’évoluer vers le confort sous toutes ses formes du ou des passagers. En effet, on passe de plus en plus de temps dans sa voiture avec des environnements plus ou moins agressifs (odeurs, gaz d’échappements, poussières dues au fioul, bruits...). Ce nouveau concept assez lié à la pollution de l’air et à la pollution sonore est entrain d’apparaître. La croissance des allergies, l’introduction de plus en plus fréquente du conditionnement de l’air induisent l’apparition de filtres de plus en plus performants... et une publicité ciblée sur le confort. On peut noter que cette notion est déjà introduite de façon plus marquée au niveau de transport aérien, avec la couchette privative d’Air France, ou la «sphère reposante» d’Américan Air Lines. 4.2.3 - Le passage du produit au service Une autre manière de changer les règles consiste aussi à passer par exemple du produit au service, à la fois pour redéfinir les règles, aller vers de nouveaux marchés, mais aussi changer d’interlocuteurs. Je me souviens à ce propos, d’un exemple précis d’IBM. IBM France a développé à une époque le logiciel TEWATCH qui permet l’analyse automatique de larges corpus de texte. Ce développement s’est fait entre autre à l’initiative de Charles Huot, qui a réalisé sa thèse au CRRM, d’où la connaissance de cet aspect du problème. Vendre une station RISC 6000 était difficile compte tenu de la concurrence. A cette époque, un certain nombre d’acteurs pensaient que l’argument de vente d’une telle station restait les logiciels accompagnant celle-ci et permettant de réaliser de multiples activités, entre autre celle d’analyse de texte. Mais, avec cette stratégie, la vente du produit conduit comme interlocuteur à des personnes qui utilisent des stations de travail et qui nécessairement ont une «culture informatique dans le domaine» qui peut être très différente de celle d’IBM et de ses stations. Par exemple une culture SUN très marquée. La vente du produit devenant alors une comparaison non pas avec ce que la station de travail permettrait de faire (et que ne permettrait pas de réaliser la station SUN), mais comme une comparaison technique entre deux machines. C’est alors, que le concept évoluant, IBM a présenté une solution d’analyse des textes permettant de créer des informations stratégiques, globalisées dans une interface infographique de qualité. A ce moment, la recherche a consisté à trouver les interlocuteurs ayant besoin de ce service. Le positionnement des acteurs devenaient très différent, le niveau de décision aussi. L'analyse pour être réalisée comportait l’utilisation d’une station RISC 6000 qui de ce fait était englobée dans la solution. Voire même, IBM pouvait traiter à la demande et la station de travail n’apparaissait plus du tout. On voit donc comment, un changement de règle permet alors de changer totalement la qualité perçue et va même au-delà, en repositionnant les interlocuteurs. Ce concept, de solutions, est caractérisé par le slogan: IBM solutions pour une petite planète, etc... 4.2.4 - Autres façons de faire D’autres manières de faire existent, la recherche de niches, par exemples pour utiliser les téléphones mobiles en main libre dans les voitures, ou le développement de logiciels spécifiques de traitement de la parole pour les ordinateurs (commandes vocales) utilisés par les chirurgiens en cours d’opération, constituent des domaines très spécifiques où l’entreprise qui est présente ne sera réellement attaquée que si le domaine s’accroît et passe du niveau de la niche à celui plus large d’un marché. On pourrait citer aussi la diversifications des lignes de produits avec des produits dérivés pour atteindre divers segments de clientèle, etc. 4.3 - Les maîtres mots Si nous retournons à des lectures anciennes, par exemple le livre de la jungle, nous nous apercevons que bien des comportements sont réglés par des mots forts recouvrant une attitude, un comportement, nécessaire pour accomplir un certain nombre de tâches en accord avec soimême. Et bien, dans le domaine de l’hypercompétitition, comme dans celui de l’hyperinformation, il existe d’après nous un certain nombre de maîtres mots dont l’évolution, la signification doit faire l’objet d’une attention particulière. 4.3.1 - Une nécessité Ce mot recouvre ce qui est nécessaire, ce que tout le monde possède. Ne pas l’avoir c’est se priver des éléments indispensables pour accomplir certaines tâches. Une nécessité n’est pas que matérielle, elle devient immatérielle quand elle concerne des méthodes, des comportements ou elle peut aussi se placer sur un plan intermédiaire quand elle se situe au niveau des organisations, des systèmes de gestion, de diffusion. L’Internet, les réseaux informatiques, l’ordinateur individuel font partis de cette catégorie de biens physiques déclenchant des avancées importantes dans le domaine immatériel. Ne pas posséder les nécessités essentielles pour effectuer son travail, tant au niveau des moyens matériels que des méthodes et des comportements introduit des éléments de discrimination négatifs. 4.3.2 - Un avantage Un avantage c’est lorsque l’on va posséder quelque chose que les autres n’ont pas, mais qui utilisé pour atteindre un objectif précis nous permettra d’aller plus vite, de surprendre un concurrent, d’être plus pertinent et plus averti que lui. L’hypercompétitition consiste à créer des avantages, l’hyperinformation à les sous-tendre pour leur permettre d’évoluer ou de durer. Mais, le monde moderne où nous vivons implique des changements permanents. Le passage de la recherche à la technologie puis aux produits est de plus en plus rapide. Des compétiteurs nouveaux apparaissent dans le monde, souvent à notre insu. Des produits nouveaux de nouvelles façon de travailler, de communiquer entre autre avec l’Internet, l'Extranet, l’Intranet, les messageries, le début du commerce électronique, les «virtual companies». Ainsi apparaît une notion indispensable liée très fortement à la notion d’avantage: Un avantage dure de moins en moins longtemps. Elément de discrimination positif au départ, il se transforme sous la poussée des technologies, de la concurrence, de la demande sociale, en nécessité. Il va alors être indispensable avant que l’avantage ne soit tout à fait perdu (en devenant une nécessité), de créer les conditions du développement d’un nouvel avantage. Cet ensemble est illustré sur la figure suivante qui montre comment la disparition des avantages et leur transformation en nécessités, puis la création de nouveaux avantages est un système cyclique. Avantages et nécessités AVANTAGE TEMPS NECESSITE NOUVEL AVANTAGE Les avantages durent de moins en moins longtemps. De Nouveaux avantages doivent être créés en permanence C’est sans doute dans ce contexte que l’hyperinformation et l’ingénierie des compétences trouvent leur plus forte expression au sein des entreprises et des organisations. Premier exemple l'école et le tableau noir: Prenons un exemple simple, que tous ceux qui suivent ou qui ont suivi des cours, que soit à l’Université ou en formation permanente peuvent facilement constater: l’enseignement s’est longtemps exercé par l’écriture sur un tableau noir. Puis, les avancées technologiques ou une meilleure connaissance du contraste visuel ont conduit à utiliser des tableaux verts. Ensuite l’apparition des tableaux du type «Véléda» et des marqueurs effaçables en couleur ont permis une expression de l’enseignant plus complète ainsi que le maintien de salles de cours plus propres. Mais l’évolution des techniques a conduit à l’apparition de la diapositive qui a changé pour un temps le mode d’expression. Ensuit est apparu l’épidiascope qui a été rapidement supplanté par le rétroprojecteur (utilisant des transparents noirs puis en couleurs). Ainsi, il est inconcevable de nos jours qu’une salle de cours ne soit pas équipée d’un rétroprojecteur et d’un écran. Ce qui était il y a quelque temps un avantage est devenu une nécessité. Qu’en est-il de son évolution ? L’introduction du multimédia conduit maintenant à considérer comme quasi normal d’avoir à disposition les moyens de projeter un écran d’ordinateur pendant un cours. Non seulement les transparents généralement des textes ou graphes sous Powerpoint seront en couleurs, l’exécution de programmes, la projection de photographies, voire de séquences animées permettront de donner au cours une autre dimension. Posséder de tels équipements donnent à l’organisation un avantage certain. Même, si un «Barco» coûtait cher, l’apparition des platines de rétroprojection, puis de systèmes du type «Infocus» ou «Sharp» ont considérablement aplanis les problèmes financiers et techniques et maintenant l’utilisation du micro-ordinateur comme support de cours est largement vulgarisée. On voit donc comment un tel avantage se transformera bientôt en nécessité. Un tel exemple peut nous permettre de présenter aussi les nécessités et les avantages non plus sur le plan du matériel, mais sur le plan des compétences. Utiliser de tels médias, c’est souvent remettre le cours en cause et le faire évoluer. Certes, des disciplines très traditionnelles peuvent dit-on encore s’enseigner avec un tableau et une craie, mais cela ne deviendrait il pas le refuge dialectique de ceux qui ne veulent pas évoluer ? Le multimédia, la photographie, l’utilisation de programmes informatiques pour présenter visuellement les effets des différentes forces sur le pendule à ressort en mathématiques ou en physique, vont permettre aux étudiants une plus large compréhension du cours. L’avantage, dans ces conditions va aussi provenir de l’évolution, du volontarisme du corps enseignant (et aussi de la demande des élèves). Le fait technique, va donc entraîner une modification de la présentation des contenus, et une réflexion générale sur l'intégration de cet avantage dans la manière de réaliser le cours. Souvent, on entend la phrase suivante: nous n’avons pas besoin de cette spécialité, en parlant du savoir faire d’une personne donnée. Il faut analyser cette prise de position d’un double point de vue: en l’état actuel et si on n’évolue pas, la réponse est correcte. Mais, l’autre partie de l’analyse c’est de se poser la question du moment (si possible en chiffrant dans le temps) où on aura besoin de cette spécialité ou de ce spécialiste pour évoluer, c’est à dire pour préparer de nouveaux avantages. Un deuxième exemple d'actualité le Minitel: La récente (Le Monde du 28 Avril 1997, page 17, article de Michel Alberganti) prise de position lucide et courageuse de Lionel Jospin, Premier Ministre en faveur de l'Internet, inquiète les professionnels de la télématique. Qu'en est il en effet ? Le Minitel, qui au départ a créé en France, sous l'incitation des pouvoirs publics un certain avantage dans la consultation rapide de services comme l'annuaire téléphonique, n'a pas évolué depuis quinze ans. Il se trouve maintenant localisé dans le seul territoire national, avec une clientèle captive, et un service kiosque télématique, véritable "vache à lait" pour les promoteurs de services et pour les opérateurs. Cependant, l'arrivée de l'Internet, encore tardive en France à cause du retard considérable en équipement informatique des ménages, vient bouleverser cet état de fait. C'est ainsi, que dans le même article, Louis Roncin Président du Syndicat National Télématique indique: "Je suis choqué par l'intervention du Gouvernement sur un choix technique aussi complexe... Ce n'est pas à un premier ministre de donner des conseils de stratégie industrielle ....Le seul défaut du système (le Minitel) c'est son terminal qui est dépassé ....". Nous avons là, tous les ingrédients montrant comment un avantage, au départ, doit être vécu comme une situation transitoire permettant de bâtir rapidement d'autres avantages conduisant à une évolution et une commercialisation à l'échelle mondiale. Ce n'est que sous la pression des événements (l'Internet), que le Minitel devrait évoluer (ou disparaître ?), et c'est quinze ans après que l'on se rend compte, lorsque le marché n'est plus captif que la solution technologique actuelle est dépassée. Ce n'est en outre pas seulement par une évolution du terminal, ni par la traduction en HTML de l'ensemble des services disponibles que la solution sera trouvée, car il faut refondre la totalité des présentations, mettre en place une forte intéractivité, des images et de la couleur, voire de l'animation dans les présentations. On retrouve ici la situation précédente, où la technique et son évolution vont être nécessairement couplées avec des savoirs faire nouveaux. Dans le même ordre d'idée, je ne peux pas m'empêcher de citer l'article paru dans la rubrique ECOFAX, du Figaro du 19,09,1997 (Didier Salavert Président de Finatech Holding) dont le titre est évocateur: Internet ne se décrète pas. La culture technocratique française est responsable de notre retard. "Le premier ministre vient de déclarer qu'il était urgent pour la France de combler son retard en matière d'Internet. Au-delà de cette déclaration et des annonces qui vont suivre, il convient de s'interroger sur un tel retard afin de rechercher les moyens à mettre en oeuvre pour y remédier. Internet est-il un super Minitel ? Il est souvent perçu comme tel en France. En fait il s'agit d'une erreur car il est juste l'opposé." "Ce n'est pas une analyse réductrice que d'affirmer que Minitel est le fruit d'un Etat colbertiste gouverné par des ingénieurs et Internet celui d'un Etat libéral dont l'un des piliers est la liberté d'accès à l'information. Minitel et Internet sont chacun le fruit et l'expression d'une culture différente." L'exemple du Minitel est réellement important, en ce sens qu'il touche un point crucial, celui d'une discontinuité dans la société. La société passée a été celle des machines, celle du progrès technique et technologique, la société nouvelle sera une société d'information qui sera ancrée sur de nouveaux paradigmes et sans doute une approche différente du travail et de la répartition des richesses. Une analyse fine des contraintes liées au capital risque, aux facilités accessibles en France pour le développement de l'innovation, à la fiscalité à laquelle sont soumises les entreprises qui viennent d'être créées.... laisse penser que dans le cadre de la société d'information, nous nous trouvons placé dans la figure représentant la croissance endogène du Pays par rapport à la croissance globale du monde, aux environ du point critique, voire, dans certains domaines du mauvais côté de celui-ci. Ainsi, en toute bonne fois, nous continuons notre chemin sans nous rendre compte que le décalage de notre pays par rapport à des pays plus actifs dans le domaine s'accroît. Je reviens à l'article précédent pour citer: "Le passé montre que les Etats qui n'ont pas participé activement aux révolutions technologiques ont finalement vu leur rôle historique disparaître. La culture technocratique française sera seule responsable de cette disparition." Troisième exemple Microsoft: Cet exemple met en évidence le type même de société commerciale hypercompétitive. En effet, Microsoft n'hésite pas à détruire ses propres avantages pour en créer de nouveaux afin de toujours garder ses concurrents à distance, voire même d'accroître celle-ci. Microsoft, en utilisant le système d'exploitation MS-DOS a permis un certain développement de la micro-informatique, en créant des séries d'applications comme Word, et en unifiant les commandes les plus générales de la conduite d'un ordinateur, etc... L'apparition du système Windows, a permis une utilisation plus aisée du micro-ordinateur, en standardisant les applications. Mais, le système Windows (par exemple le 3.11), même en cours de développement a été concurrencé par un nouveau système d'exploitation: windows 95, qui après différentes modifications devient windows 97 puis bientôt Windows 98. En même temps un autre système d'exploitation Windows NT, était mis sur le marché pour favoriser le développement d'applications serveurs. On constate ici, que la société Microsoft, n'attend pas qu'un avantage soit proche de sa disparition pour en introduire un nouveau. Quelle différence de comportement avec l'attitude décrite dans l'exemple précédent ! C'est sans doute cette agressivité qui maintien à distance respectable le système d'exploitation OS2 d'IBM, et qui a conduit aussi à la situation actuelle du Mac-Intosh d'Apple. Avantages matériels et avantages immatériels: Ainsi, un avantage peut n’être que matériel. Mais il peut être aussi immatériel, ou le devenir, lorsqu’il est couplé à un système matériel. Ainsi, lorsque Sony a créé le Walkman, un nouveau concept est né, donnant à ceux qui l’ont utilisé les premiers un avantage sur le plan musical, mais ensuite sur les moyens de transfert de connaissance et d’apprentissage lié à l’utilisation des systèmes audio lors de son temps libre. Dans le même ordre d'idée, nous venons de voir pour l'exemple de l'école, que le développement d'avantages technologiques, créera ou modifiera les formes d'enseignement, ce qui va conduire au développement de pratiques et de réflexions qui enrichiront les compétences des enseignants. De même, le développement de l'Internet sur le câble, conduira aussi certains enseignés à développer des approches nouvelles vis à vis de l'information. Ces comportements entrent dans l'immatérialité et constituent donc une forme d'enrichissement nouveau. Le cas du Minitel est à nouveau exemplaire. S'il est évident que nous avons perdu sur le plan technologique notre avantage, du fait du changement de vitesse et de définition des informations transmises ainsi que des terminaux et des réseaux, nous avons tout de même acquis, au plan national (le Minitel étant limité à l'hexagone), un certain savoir faire et des compétences dans le développement de services électroniques. Un des enjeux actuel sera de savoir, si ces compétences, très régionales, pourront s'étendre au plan international. S'il est vrai que des maisons de vente par correspondance utilisent le Minitel, celles-ci vont se trouver via l'Internet et le commerce électronique en concurrence avec d'autres entreprises localisées dans d'autres pays, entre autre au niveau de la Communauté Européenne (ceci a déjà commencé dans le téléachat). Il sera donc nécessaire, pour survivre et créer un apport de devises, donc une richesse, de transposer cette compétence au niveau international en étendant les services dans d'autres pays. Si non cette pratique, locale à l'échelle du monde, finira par disparaître et on aura ainsi perdu à la fois l'avantage technique et les compétences immatérielles que cette avantage technique avait contribué à créer. En effet, il faut voir le problème d'un double point de vue: d'une part les entreprises utilisant le Minitel comme vecteur ont acquis une expérience (dans les domaines les plus divers, allant de la vente, à la réservation automatique, en passant par les clubs de rencontres, la piblicité, etc...), mais d'autre part, les clients, le public (quand on parle de l'annuaire électronique), s'est lui aussi habitué à cette forme de consultation, de réservation ou d'achat. Il est donc prêt à recevoir, intégrer et utiliser les sollicitations qui lui viendront d'ailleurs. Ainsi, toute médaille a son revers, et si on reste statique on risque de jouer à l'arroseur arrosé. En ce sens, on rejoint un certain nombre de réflexions développées au niveau de la recherche et exposées dans le sous-chapitre "pour qui butinent les abeilles". 4.3.3 - La pensée inductive et la pensée déductive Dans l’ouvrage Reengineering the Corporation, Harper Collins, NY, 1993, ISBN 0-88730640-3 Michael Hammer et James Champy indiquent comment les phases cruciales du reengineering passent souvent par la pensée inductive. Les responsables de beaucoup d’entreprises ont, par formation une pensée déductive. Ils savent comment diviser un problème en un certain nombre de sous ensembles auxquels ils apportent une solution en utilisant les facilités du moment ou les méthodes et recettes apprises «à l’école» il y a bien des années. Pourtant, si l’on veut vraiment créer de nouveaux avantages, mettre en place des façons de faire différentes, faisant appel à des méthodes ou à des technologies nouvelles, c’est vraiment à la pensée inductive qu’il faut avoir recours. Essayons d’analyser les méthodes nouvelles, les faits nouveaux, les technologies nouvelles, les produits nouveaux présents sur le marché, et posons nous la question: que pourrait on faire avec cela ? Comment ces nouvelles avancées peuvent-elles être utiles dans mon entreprise, dans mon travail, comment les utiliser au mieux, même si pour cela on doit changer ou remodeler l’existant. Cette pensée est fondamentale pour accompagner le changement, le précéder dans certains cas. On pourra aussi opposer dans le même ordre d’idée le holisme (il consiste à affirmer que le tout est plus que la collection des parties) et le globalisme à la pensée réductionniste, l’ordre au mouvement, etc. On retrouvera très fortement cette façon d’aborder les problèmes au niveau de l’hyperinformation. Avoir les yeux grands ouverts, «sentir» les domaines nouveaux, les applications nouvelles les orientations technologiques qui pourront faire évoluer un métier, même différent de celui qui leur a donné naissance. Ne pas être figé dans l’existant, immobile et conservateur voila un des enjeux les plus importants pour l’entreprise. 4.3.4 - La technosphère et le technoglobalisme Nous ne sommes pas seuls. L’entreprise est immergée dans un environnement fait à la fois de la société et de ses composantes ainsi que des contraintes scientifiques, technologiques, économiques, commerciales.... Deux définitions sont souvent employées à ce propos. 4.3.4.1 - La technospère L’entreprise est plongée dans un environnement plus ou moins complexe, et elle réagit avec lui. Quand tout va bien, et surtout pour une entreprise moyenne, le taux de réaction avec la technosphère est faible. Mais, lorsque des problèmes se posent, ce taux de réaction va augmenter. Préparer l’entreprise à ce changement brusque de périmètre, c’est en quelque sorte prendre une assurance pour l’avenir. Pour atteindre cet objectif, bien connaître son environnement, mettre en place les systèmes d’information nécessaires et les personnes susceptibles de comprendre contribuera a diminuer l’effort nécessaire et permettra à l’entreprise un temps de réaction plus court et une effort moindre pour l’accomplir (Veille Technologique et Compétitivité, H. Dou, Dunod, 1996). LA TECHNOSPHERE C'est l'environnement de l'Entreprise dans lequel on va retrouver l'ensemble des contraintes et des liaisons avec différents domaines Technosphère classique (celle que l'on apprend en formation) Science Technique Formation Technologie Finance Relations Entreprise publiques Protection Achats Relations clients Marketing et fournisseurs Communication CRRM Les différentes entités réagissant avec l'entreprise dans sa technosphère C'est la maîtrise des interactions avec ces différents domaines (pour simplifier on n'en a indiqué que quelques uns) qui va conduire l'entreprise à la maîtrise de son environnement. Il sera donc nécessaire d'analyser le milieu pour détecter les domaines avec lesquels on doit réagir, puis de mettre en place les systèmes d'information, de réflexion, d'analyse qui conduiront à les maîtriser et à bien les comprendre (à la fois au niveau actuel, mais aussi en projection dans le temps). Les clusters, le développement économique et la politique de développement. Dans le cadre de l'étude de la technosphère d'une entreprise, on peut aussi situer à un niveau plus macro que l'environnement de l'entreprise elle même. C'est ainsi qu'un certain nombre de travaux relatifs aux "clusters" industriels ont été développés (Clusters, Industrial Policy and Firms Strategy: A Menu Approach, Dany Jacobs & Ard-Pieter de Man, Technology Analysis & Strategic Management, vol.8, n°4, 1996). Dans cette approche, on distinguera trois manières de déterminer les clusters, et celles-ci auront une répercussion sur les systèmes d'information à mettre en oeuvre. Le cluster régional: Il est essentiellement basé sur une approche géographique. On peut en définir les facteurs clés de développement, qui sont généralement basés sur les infrastructures d'enseignement ou de recherche (exemple centres de recherches, universités, ...), sur des infrastructures physiques comme par exemple un Port, sur des grandes entreprises (par exemple dans la région de Marseille sur Eurocopter). Mais, il ne faut pas oublier que l'analyse géographique déborde de plus en plus de la région elle même, par exemple on peut trouver une entreprise locale qui exporte dans le monde entier, des entreprises qui se sont crées à l'origine sur des compétences issues d'un secteur de recherche local, puis qui ont évolué et qui ne sont plus en adéquation avec l'expertise locale qui souvent du fait de la rigidité de la recherche et des institution dirigeantes reste figée, il faut donc aller chercher celle-ci ailleurs, ou des entreprises dont l'activité est mondiale, par exemple l'affrètement de navires et le transport de marchandises. On voit donc, que même dans l'approche géographique, le système d'information susceptible de confronter la ou les décisions politiques, va être très différents selon le "clusters" auquel on se réfère. Le cluster vertical: C'est la notion de filières. Elle est très subjective et doit pour être déterminée de façon rationnelle. Il faut tenir compte des flux de marchandises entre les firmes ce qui permettra de délimiter les dimensions du cluster. Cette vision très verticale est de moins en moins utilisée comme outil de développement et de motivation dans le développement des innovations. L'agglomération de secteurs: Cette large agrégation permet de s'éloigner de la vision verticale et figée, pour aller vers une interrelation plus forte entre différents domaines. C'est une des qualités de l'approche méthodologique développée par Porter (M.E. Porter, The Competitive Advantage of nations, London, Macmillan Press, 1990) que de s'éloigner de l'approche traditionnelle des secteurs primaires, secondaires ou tertiaires et plutôt d'examiner les relations entre secteurs (agriculture, industrie et services par exemple). La tendance actuelle, dans le développement des informations et des infrastructures est de penser que les dimensions et le rôle des institutions de recherche ne doit pas être surestimé. La majeure partie des informations nécessaires aux entreprises venant des fournisseurs, des clients, des concurrents, d'autres secteurs spécifiques, de l'ensemble foires et salons et des journaux professionnels. (On se reportera pour plus de détail au chapitre traitant de la typologie des informations). On peut consulter à ce propos The sources of Innovation, E. von Hippel, (New York, Oxford University Press, 1988, et Waar haalt het mkb zijn kennis vandaan?, R. van der Meijden et D. Jacobs, Economisch Statistische Beritchen, 25 Janvier 1995, pp.80-83. Pour un cluster qui se développe sur une base nationale, il faudra privilégier un centre de recherche national et des infrastructures décentralisées pour diffuser les innovations vers les PMI et les PME. Au contraire quand le cluster comprend des éléments nationaux ou internationaux qui sont concentrés sur une région, une infrastructure de recherche régionale constitue un apport décisif. Lorsque le cluster est très international, il conviendra de favoriser les participations à des programmes internationaux et des liens avec les pays ou les institutions qui ont les meilleures pratiques dans le domaine. On constate ainsi que l'environnement d'une entreprise est variable, mais qu'il est nécessaire de situer celle-ci dans un environnement dont on perçoit les contours, pour que les informations nécessaires à son développement soient recherchées. Un exercice de ce type évite de se laisser emporter par des attitudes naïves sur une vision tous azimuts du développement des compétences et des recherches. Par exemples, si on regarde les clusters par le biais des réseaux d'entreprises, on constate que tôt ou tard, sous la pression des événements, elles seront obligées de rentrer dans un niveau de coopération important et donc de développer des structures de coopération. C'est donc pas nécessairement dans cette direction que doivent se porter les efforts (sauf peut être pour accélérer le mouvement). Par contre, une seconde approche est bien plus importante et constitue un véritable challenge dans les régions où les industries traditionnelles sont en déclin et n'ont pas encore été remplacées: est-il possible de créer des clusters relativement nouveaux et basés sur de nouveaux réseaux. Il y a la tout un champ de recherche et de développement qui reste ouvert: comment stimuler cette nouvelle approche. Dans ce cadre novateur, on peut citer l'action entreprise sur l'Europôle de l'Arbois, entre Aix en Provence, Marseille et l'Aéroport de Marseille Provence, pour développer un centre de savoir ancré sur une micro-région, basé sur une mise en réseau de compétences régionales, nationales et internationales. Cette approche met en jeu des institutions à la fois publiques et privées comme la Communauté Européenne programmes ADAPT (deux étant localisés sur le site) et programme d'innovation avec le CRPHT (Luxembourg) des Institutions Espagnoles (IMPIVA et Université privée), l'Université Aix-Marseille III (CRRM, Ecole doctorale transversale), le CERE (Chaire d'Enseignement et de Recherche Européenne en Intelligence Economique), IDS (Information Décision et Stratégie) qui est un centre de formation, le Conseil Général, etc. Ces modèles nouveaux qui bouleversent les règles classiques de la séparation du public et du privé, de l'intangibilité des diplômes universitaires nationaux, de la prédominance du savoir sur l'action, etc... sont faits pour créer, à partir d'infrastructures légères un ensemble de compétences depuis la région jusqu'au niveau international, qui permettront la réalisation de clusters nouveaux, basés sur des approches nouvelles. Quand les industries traditionnelles perdent de leur importance et quand le développement d'orientations nouvelles doit être conforté ou stimulé, les approches basées uniquement sur le présentiel lourd et des structures classiques (tant au point de vue académique, que pépinières d'entreprises, ou implantations industrielle), ne peut fonctionner que difficilement. Il faut substituer à cette attitude une approche multidimensionnelle en réseau, basées sur des compétences qui se regroupent en fonction des besoins, sur de la formation délocalisée et sur une vision du développement et de l'innovation englobant à la fois le vertical (produits par exemple) que le transversal (sciences d'accompagnement, information, business development). 4.3.4.2 - Le technoglobalisme Si l’entreprise se trouve plongée dans son environnement, celui-ci est parti intégrante d’un ensemble régional, national et international de plus en plus lié au plan économique, politique, technologique. Bénéficier au maximum des résultats des autres, penser que ceux qui introduisent des avancées scientifiques, techniques, technologiques sont dignes d’intérêt et que leurs travaux doivent être analysés, appropriés, telle est la pensée du technoglobalisme. Elle a été développée au japon principalement, où, après avoir acquis la maîtrise d’un certain nombre de technologies par le «learning by watching» ou innovation incrémentale, il faut bien faire évoluer le système. Alors, le technoglobalisme constitue une réponse où, sans directement s’inspirer des produits concurrents ou des technologies alternative, on va faire évoluer le système en bénéficiant au maximum des avancées produites par les autres. (Le Technoglobalisme, Technologies Internationales, n°1, Novembre 1993, ADIT) 4.3.4.3 - Anticiper Puisque la stratégie de l'entreprise dépend largement de ce que feront les concurrents, puisque les mouvements que je vais faire s'inscriront dans l’ensemble des mouvements réalisés sur ce théâtre d’opération, une des fonctions principales que je dois accomplir, c’est ANTICIPER. De même que nous venons de voir le passage des avantages aux nécessités, l’anticipation sera un élément de base qui permettra la création de nouveaux avantages. Faire évoluer son système d’information pour permettre un niveau d’anticipation suffisant doit être un objectif important, dans certains cas une nécessité. 4.4 - Les changements technologiques, le passage dans le second plan Une autres façon d’échapper au domaine de la valeur ultime, qui conduit à proposer une stratégie d’extension mondialiste qui ne peut pas être le cas de toutes les entreprises, va consister à un changement de plan. On va modifier, améliorer, proposer des produits ou services suffisamment différents pour que l’on puisse passer dans un nouveau plan où on pourra redéfinir à nouveau les règles et se trouver en compétition avec des concurrents différents sur des marchés différents. Dans ce domaine, la stratégie technologique, l’intégration des avancées scientifiques aux produits vont jouer de façon primordiale. Quand doit-on faire ce mouvement, que doit on surveiller, comme vont se produire dans ce domaine les processus d’innovation. Comment pour assurer ces changements faire évoluer les compétences des entreprises ? Nous traiterons plus en détail ces divers aspects dans les chapitres qui seront dédiés à l’hyperinformation. Cependant, nous devons insister ici sur un point précis: le passage dans ce nouveau plan ne peut se faire que si l’entreprise a les compétences nécessaires pour le réaliser. Ainsi, dans une entreprise hypercompétitive, le capital de l’entreprise est sans doute plus lié aux compétences des acteurs qu’au portefeuille des produits. L’ingénierie des compétences reste un atout majeur. L’évolution de ces dernières est vitale, leur utilisation aussi. Ce point est capital, surtout dans la vente ou la prise de participations. Les récents débats concernant la Société Française Thomson multimédia et la société Coréenne DAEWOO en sont la preuve. 4.4.1 Intégrer plus de technologie dans les produits et les services Pour passer dans un autre plan que celui du rapport prix de vente/qualité perçue, il est nécessaire de faire subir aux produits que l’on vend, aux services de l’on rend des modifications plus profondes que celles nécessaires pour continuer une compétition dans le plan précédent. Dans ce cadre, un aspect qui nous paraît fondamental est d’utiliser une connaissance accrue des évolutions sociales, des perceptions globales de la société ainsi que des évolutions scientifiques ou technologiques pour réaliser des changements importants, voire des mutations dans les produits vendus et services rendus. Cette intégration technologique passe souvent par le biais de l’innovation. Nous la définissons ici comme le passage d’une invention (c’est à dire quelque chose d’entièrement nouveau) dans le domaine courant qui rendra celle-ci «thermodynamiquement irréversible». Il faut donc tenir compte, dans ce domaine d’une double approche pouvant en un certain sens s’apparenter au «market pull» et au «technologie push». C’est à dire tenir compte à la fois des rapides changements dans les sciences et les techniques et de l’interaction forte qui existe entre la science et la société. L’approche de l’innovation (incrémentale et de rupture) est tout à fait significative et montre que ce ne sont pas nécessairement sur le plan économique les avancée les plus dramatiques qui ont conduit au maximum de bénéfices et de rentabilité. Evidemment, dans ce contexte, les grandes entreprises ont nécessairement plus d’atouts que les petites pour réaliser de tels changements. Mais, au-delà de ces atouts elles sont souvent limitées par un immobilisme plus grand, par une répétition d’une vison immuable où seule la puissance des faits et la limite de rupture va enclencher le mouvement. «La France n’a pas besoin d’autoroutes» est une vison des années 50, la considération pour la micro-informatique d’IBM a ses débuts relève du même principe, etc... Les modifications technologiques («to add ribbons and whistles» selon D’Aveni), passe souvent par l’intégration d’informations précises, le suivi des concurrents, la focalisation des compétences de l’entreprise sur un objet précis. Cette prise en compte des compétences commence à être acceptée. Elle va nécessiter la mise en place d’une stratégie pour savoir ce qui doit être maintenu, ce qui peut être diminué, voire perdu. La gestion des compétences, débouchera largement dans les chapitres afférents à l’hyperinformation sur la nécessité de gérer la mémoire de l’entreprise, et sur la localisation et l’utilisation des experts. La dimension des «technologies et des hommes» introduite par Jacques Morin prend ici toute sa signification. 4.4.2 - Le produit ou la fonction ? Depuis que les hommes fabriquent des objets, deux tendances complémentaires peuvent être analysées. Nous les indiquons ici comme complémentaires, mais souvent, du fait de l’habitude, de la facilité des profits et des hommes elles sont contradictoires. Il s’agit de ce qui touche au produit et de ce qui touche à la fonction de ce même produit. 4.4.2.1 - Le produit Souvent, au fil des années, la fabrication d’un produit va conduire par améliorations successives, par introduction de technologies nouvelles, de tours de main, de savoir faire, à rendre presque parfaite sa fabrication qui sera alors optimisée au maximum. C’est ainsi, qu’au temps de l’horlogerie mécanique, il existait un produit très particulier: l’huile pour pignon de montre, dont la fabrication et les propriété atteignaient la perfection. Cependant, de nos jours, la diminution considérable de la production de montres mécaniques (même si certaines d’entre elles reviennent à la mode comme produits de luxe) a fait quasiment disparaître cette activité. De même, la réalisation de règles à calcul logarithmiques («les Graphoplex Log Log» par exemple) a disparu lorsque les machines à calculer perfectionnées sont arrivées sur le marché. Un autre exemple est celui du disque vinyl 45 tours, qui a été supplanté par le compact disc. La même situation risque fort de se reproduire avec les cassettes vidéo! Ainsi, face à une position tenu par un produit, force est de penser que celle-ci peut ne pas durer très longtemps. En effet, un produit a une fonction, et celle-ci peut, lorsque la technologie évolue, être accomplie par d’autres produits, d’autres systèmes. Prévoir, anticiper sera sans aucun doute l’assurance de base pour ne pas mourir. 4.4.2.2 - La fonction Un produit, par exemple un cadrant solaire donne l’heure. Le produit est une tige métallique dont l’ombre suit les mouvements du soleil et se projette sur des graduations fixes qui nous indiquent l’heure du jour. La fonction, c’est donner l’heure. L’industrie du cadran solaire a disparue, remplacée en un temps par les montres mécaniques, puis par les montres à quartz, etc. Il sera donc nécessaire, chaque fois que cela sera possible, de se donner les moyens informatifs nécessaires à constamment replacer dans le contexte de la recherche et des technologies le produit que nous fabriquons. De quoi sera fait demain aurait du logiquement se demander les fabricants de lessive de soude («le cristaux»), en voyant les progrès de la détergence solide (poudre à laver) ou liquide (gel et liquides de lavage). Sans doute pour n’avoir pas anticipé, pour n’avoir pas su prévoir le lendemain, le savon de Marseille a quasiment disparu (L'autre modèle industriel (en Méditerranée),Chastagneret G. (entretien) Terres Marines pp.4-9, n°67, Juin-Juillet 1994). Chaque action, chaque résultante, qu'elle soit individuelle, industrielle, commerciale, de service, conduit à un résultat: le savon de Marseille, le programme d'un enseignement, le choix d'un logiciel informatique, des réparations à domicile, etc.. Chacune de ces activités est liée au comportement social des utilisateurs (à leurs habitudes), aux évolutions économiques (permettant de trouver de nouveaux marchés), aux technologies qui vont permettre de remplir les mêmes fonctions avec des produits ou des méthodes différentes, à l'apparition de nouvelles machines dans lesquelles vont s'intégrer des progrès significatifs. C'est autour de cet ensemble très large que devra se structurer la recherche et l'analyse de l'information. On voit donc bien se dessiner les contours de l’hyperinformation: de l’analyse de la valeur qui va permettre les améliorations significatives d’un produit, à un globalisme affirmé pour aller vers une mise en situation plus large de l’objet, du produit, du service. Voila un des rôles primordial que devra assurer le système d’information. 5 - Eléments de base pour une information pour action Dans ce chapitre nous allons examiner un certain nombre de caractéristiques liées aux informations que nous devront rechercher, analyser, comprendre, pour produire de l'hyperinformation. On ne peut pas dire que prises séparément ces caractéristiques sont nouvelles, mais c'est dans leur ensemble qu'il faut en tenir compte, et c'est là toute la difficulté. 5.1 - Récapitulons quelques données de base Nous venons de voir que dans le contexte précédent, un certain nombre de maîtres mots allaient présider à la mise en place d’informations nouvelles, ayant pour apex un objectif différent et des règles différentes de la gestion classique des bibliothèques ou des systèmes de documentation dans certains cas trop figés. Cela conduira à une approche nouvelle et un comportement global de l'individu très différent, en bref, un changement de culture. Le passage d’un avantage à une nécessité et la création des éléments permettant d’acquérir de nouveaux avantages nous conduit à anticiper. Mais, anticiper va conduire à se préoccuper de l’interaction entre la science, la technique et la société à la foi sur un plan global, mais aussi plus directement en interaction directe avec les stratégies développées par nos concurrents. C’est ainsi que l’entreprise n’est pas seule, elle est environnée par la technosphère qu’il faudra mieux connaître, qu’il faudra mieux analyser au niveau de ses interactions avec l’entreprise. De même, l’extension mondiale de la concurrence, de la production scientifique, des avancées technologiques et de la production de nouveaux biens de consommation va nous amener à considérer non seulement ce que nous faisons dans notre domaine et dans notre zone géographique (le Pays par exemple ou le continent), mais aussi ce que les autres produisent, réalisent. C’est le technoglobalisme: toujours se replacer dans le contexte international, sans a priori, sans NIH (Complexe du NIH «Not Invented Here»). Au niveau de l’entreprise, il faudra aussi faire progresser à la fois l’amélioration des produits, mais aussi la connaissance générale des progrès scientifiques et technologiques qui pourraient à terme conduire à des produits différents rendant les mêmes fonctions que les produits actuels. C’est dans ces différents contextes, que les industriels, les collectivités vont devoir faire évoluer leur système d’information. Les produits de ce système vont devenir différents, vont se croiser, intéresser des acteurs divers souvent complémentaires, se baser largement sur les sources d’information les plus diverses pour tenir compte d’un nouveau paramètre fondamental: le temps. 5.2 - Le temps Nous serons toujours tributaires du temps, mais, dans le contexte de l’hyperinformation celuici va jouer un rôle primordial. Nous avons vu qu’il était de plus en plus nécessaire d’anticiper, donc de prendre en compte des informations de plus en plus fraîches. Analysons donc ce que nous appelons le facteur temps. 5.2.1 - Les différentes constantes de temps dans le domaine de l’information Bien souvent, le fait d’obtenir, par télématique ou via l’Internet une information immédiate, fait passer au second plan la notion de fraîcheur de cette information. En effet, bien que disponible en quasi temps réel, les informations ont une durée de vie. Dans certains cas, les informations descriptives (science naturelle, botanique, biologie, géologie, synthèse de molécules ...) sont toujours d’actualité, même après des constantes de temps très longues. Par exemple, les planches descriptives du Musée Océanographique de Monaco, bien que vieilles de prés d’un siècle pour certaines, sont toujours d’actualité. Mais, dans le cadre de l’hyperinformation, nous avons vu qu’un des principes essentiels était de mettre en place les conditions nous permettant de créer ou de maintenir un ou des avantages par rapport à nos compétiteurs. Ainsi, ANTICIPER devient primordial et pour réaliser cette action, l’information nécessite une certaine fraîcheur. Cette notion est d'autant plus importante que rarement les constantes de temps sont abordées sur ce plan. Un bon exemple est celui du serveur de dépêches Reuters qui en permanence rappelle à l'utilisateur la notion du temps: immédiat, la semaine, puis le passage au niveau des archives. Si dans certains cas le temps est une vertu (méditation, travail bien fait "cent fois sur le métier...") il ne faudrait pas conclure que celle-ci est intangible, le paradoxe sera de mélanger vitesse, précipitation et travail bien fait. Exemple de Reuters Exemple de sujets couverts par Reuters: Country Alerts: chaque jours divers domaines comme la stratégie des entreprises, l'économie, les finances, l'investissement, le travail, les lois, le commerce.... sont suivis. Country views: permet d'accéder aux analyses des développements les plus importants: . Chaque mois: Country Update: analyse concise par pays . Chaque 3, 6 et 12 mois: Concensus Forecast, concerne les taux d'intérêt, les monnaies, et sont obtenu à partir de diverses analyses d'expert ou de sociétés. Tous les trimestres: Country Forecast Summary Five year Forescast Table couvre l'inflation, la croissance le chômage .... Country Risk Summary couvre les taux de risques par pays. Country Background: Offre des faits et données chiffrées permettant de placer les développement commerciaux en perspective. Il est organisé de la manière suivante: Country Fact Sheet: population, PNB per capita, structure politique, taxation et commerce, développement politique Quaterly Economic Indicators, tables des statistiques les plus importantes. Elles sont régulièrement mises à jour. Trade, Tax and Foreign Exchange Weekly Interest Rate. Pour plus d'information consulter: http://www.bizinfo.reuters.com Exemple de l'AFP Avec un système de présentation un peu différent de Reuters (qui fourni des tables et des produits ayant déjà été analysés), l'AFP (Agence France Press) a développé un ensemble de produits d'information qui peuvent être télédéchargés en temps réel sur votre micro ordinateur. L'information est segmentée en: Actualité, Agriculture, Automobile, Banque, Bourse, Changes, Economie (Etranger), Economie (France), Energie, Environnement, Equipement, Industrie, International, Matières premières, Média, Mer, Or, Services, Social, Sociétés, Télécommunications Informatique Electronique, Tourisme, Transport. Par exemple la rubrique société conduit aux "Résultats des sociétés, grands contrats, restructurations, perspectives, projets, OPA, fusions, prises de participation, augmentation de capital, emprunts, introduction en bourse...." Le processus est le suivant: on atteint par un modem le service AFP, puis sur l'écran de votre ordinateur, une colonne à gauche affiche les dépêches (titre, numéro), tandis que la dépêche sélectionnée s'affiche dans la partie droite de l'écran. Les données peuvent être sélectionnées, imprimées, sauvegardées, ... Ainsi 1.100 journalistes et 2.000 pigistes répartis dans 165 pays transmettent chaque jour à l'AFP 1 million de mots en six langues. Ces informations rapides et fiables sont diffusées dans 800 dépêches générales. Un autre service intéressant consiste, si vous êtes lié à l'Internet, de vous faire expédier par mail des dépêches sur un thème donné que vous sélectionnerez en utilisant des mots clés (thèmes précis, mots et concepts spécifiques, noms propres, de sociétés). Les données vous seront fournies dans une des langues suivantes au choix: français, anglais, espagnol, allemand et portugais. Enfin un dernier service particulier, l'AFP peut vous permettre de "nourrir" votre site WEB, en vous permettant d'inclure directement des pages d'informations. Pour avoir plus de détail sur ces différentes applications, consulter: http://www.afp.com Il va falloir en quelque sorte concilier l'inconciliable. Mais l'accélération des progrès techniques, des changements de structures, la multiplicité des actions concurrentes, conduisent à travailler de mieux en mieux dans un temps de plus en plus court. Bien sûr, la réflexion doit demeurer, ainsi que la projection dans le temps de ce qui est fait, car la continuité se fait dans la durée, mais souvent, cela va non pas se dissocier de l'action, mais être une réflexion parallèle, permanente demandant un effort de conciliation et d'intégration très fort. Cette rupture introduite par la mondialisation, par l'action internationale en temps quasi réel, par la nécessité d'une action et d'une réaction de plus en plus rapide n'est pas innée. Elle demande même des efforts importants, une structure mentale en constante adaptation et une structure de management adaptée. La figure suivante met rapidement en évidence l'évolution de la vitesse la transmission des informations dans le temps: Evolution des vitesses de transmission de l'Information dans le temps vitesse Réseaux rapides Télématique, Internet 20 ans Intranet, Messageries Compression de données, CD-ROM, TV, satellites, Réacteurs, fusées... Courreur à pied, Cheval au galop Bateau à voile Plusieurs milliers d'années 80 ans Télégraphe TSF, Moteurs vapeur et à essence Téléphone 100 ans temps L'évolution dans le temps de la vitesse de transmission des informations Nous n'avons pas introduit dans ce graphe l'ensemble des technologies de communication avec Fax, modem, morse, ... car ce n'est pas l'objectif. On conçoit ainsi, devant la rapidité d'évolution, principalement durant ces dernières années, que certaines entreprises, du fait de la formation des hommes et de leurs structures mentales, ne pourront pas tirer un avantage de ce changement fondamental introduit par ces évolutions technologiques. Cette appropriation est d'autant plus importante que nous sommes sur une exponentielle de croissance d'une part, que d'autre par nous sommes devant une diminution (en pouvoir d'achat constant) des coûts. Avant de déterminer ce que pourraient être les informations à caractère futur et celles avec un caractère passé, nous allons examiner rapidement une chaîne de production et de diffusion d’une information scientifique, en considérant le cas de la lecture directe de l’information, puis de cas de l’utilisation des citations. 5.2.1.1- La publication scientifique Dans le cas d’une publication scientifique, un enchaînement d’actions classiques de sa production à sa diffusion est le suivant: * On a d’abord une idée, qui née soit de l’accès à une ou de plusieurs informations dans un ouvrage, un journal, ou un colloque. A partir de ces informations et compte tenu de son propre savoir ou de l’expertise collective du groupe dans lequel on travaille, va naître une idée. * La vérification de l’idée, le test des hypothèses. Pour arriver à la vérification des hypothèses, il va falloir réaliser un certain nombre d’expériences qui vont prendre un certain temps. Même si on travaille très rapidement, il sera nécessaire de réaliser un travail, de le vérifier, puis de le valider. A partir de ce travail pourront naître des expériences nouvelles, etc. En cours de parcours, des résultats préliminaires, s’ils sont intéressants pourront être publiés dans des colloques ou dans des notes rapides (type lettres à la rédaction), ceci pour prendre date. * Lorsque les hypothèses et les résultats valident l’idée de départ, on envisage de réaliser une publication, c’est à dire d’écrire dans un journal scientifique approprié le travail réalisé, afin de la diffuser dans la communauté internationale. Cette écriture va prendre un certain temps. * Une fois écrit, le texte de la publication sera envoyé au journal, qui va le transmettre à un examinateur qui jugera si le travail est apte à être publié. Bien souvent l’examinateur demande des corrections, et ceci va nécessiter un aller retour qui prendra du temps. * Ensuite, le travail écrit va être publié, c’est à dire transmis à l’imprimeur qui réalisera la publication du journal. * Le Journal scientifique est ensuite mis à disposition de la communauté scientifique, soit par abonnement direct, soit dans des bibliothèques. * Enfin, et c’est souvent le cas de nos jour étant donné le très grand nombre de titres spécialisés disponibles, le travail publié sera transmis de l’éditeur à un producteur qui indexe le travail, puis à un serveur qui rendra celui-ci accessible sur des grandes bases de données internationales (Chemical Abstracts, Inspec, Compendex, Pascal, Biosis, Medline...). Ainsi, depuis l’idée initiale, jusqu’à la publication et à sa diffusion, peuvent s’écouler plusieurs années. C’est pour cela que généralement on essaie toujours de raccourcir le temps entre l’accès à l’information et l’idée qui lui a donné naissance. De ce fait, les stagiaires dans les laboratoires, les communications rapides, les colloques, les discussions directes avec les auteurs deviennent des éléments stratégiques importants. On verra dans les chapitres traitant de l’Internet, que la messagerie en permettant encore d’atteindre directement un décideur ou un chercheur, fait partie intégrante de la notion de raccourcissement du temps entre la publication et l’idée de départ. En outre, des articles récents (Le Courrier International du 16 au 22 Octobre 1997, page 41) commencent à mettre en doute la rigueur des revues scientifiques. En reprenant un article de The Economist, le Courrier International met en évidence: ".... le copinage, le chauvinisme, l'excés d'optimisme... qui se sont peu à peu introduit dans la méthodologie. Dans sa propre évaluation, la science n'applique pas les méthodes qu'elle prône. Des universitaires se sont livrés à un exercice impitoyable..... les chercheurs ne rapportent pas les résultats négatifs: les éditeurs n'en veulent pas... Pourtant en médecine, les traitements négatifs sont extrêmement révélateurs. .... Si on élimine les négatifs, l'ensemble devient trop optimiste. ... Une centaine de revues du monde entier ont annoncé à Prague qu'elles "amnistiaient" ces travaux jamais publiés et qu'elles ouvraient une boîte postale électronique ([email protected]) pour les recevoir. Cela ne manque pas de culot mais mieux vaut tard que jamais." La figure suivante, met en évidence des latences de temps moyennes dans le domaine de la publication des informations scientifiques. C’est à dire du passage d’une idée que l’on a générée par lecture, discussions, etc.. au niveau de la production d’une avancée scientifique, ou technique, ou d’un concept nouveau sous forme d’une publication. Dans cette figure, on n’a pas situé une étape intermédiaire qui est souvent utilisée, celle du colloque où l’on peut présenter des résultats encore fragmentaires. Mais, dans ce cas se pose le problème de la divulgation, que doit on dire pour ne pas offrir une vulnérabilité trop grande. De l'idée à la publication Idée Expérimentations Réflexion 1 an 1/2 à 2 ans Ecriture Publication 6 mois Diffusion 6 mois 2 à 3 ans ou plus ! Le décalage entre l'idée, et la publication disponible décrivant celle-ci Les publications scientifiques seraient elles inutiles ? Certes non, car elles constituent de par leur formalisme une étape dans la rédaction et la diffusion des connaissances et elles participent de ce fait à la mémoire collective de l’humanité. Mais, dans un contexte d’hyperinformation elles ne doivent être utilisées que pour ce qu’elles apportent réellement, c’est à dire la possibilité de réaliser rapidement avec les systèmes d’analyse adéquats, la représentation des connaissances d’un secteur. Elles vont donc permettre d’affiner notre connaissance, de fixer des cibles potentielles (personnes, institutions, entreprises) en un temps relativement court. Il faudra alors vérifier de façon plus précise et avec d’autres méthodes (information informelles de terrain) si ces points d'excellence travaillent toujours dans le même domaine (important pour nous). L’approche des acteurs réels (les spécialistes) devient alors nécessaire et va induire une stratégie particulière selon les cibles définies par l’analyse. On parle souvent aussi des publications électroniques. Des tentatives récentes ont été réalisées, mais si l'accélération de la diffusion des résultats semble acquise (grâce à l'Internet entre autre), la constante de temps restera de toute façon longue si les processus de validation par les pairs, de passages par des Comités de lecture lents, modifiant souvent de façon significative le travail sont toujours utilisés. 5.2.1.2 - L’utilisation des citations. Dans tout travail, il est d’usage, et cela fait partie de la bienséance de citer dans les références jointes au travail les éléments déjà publiés à partir desquels se produit la réflexion ou les expériences de laboratoire. Ceci revient à rendre hommage à ceux qui ont travaillé sur des sujets connexes avant, ou dans certains cas à faire acte d’allégeance ou de soumission. Ces citations peuvent donc être utilisées comme un moyen d’accès rapide à la bibliographie, si on arrive à sélectionner rapidement tous les travaux qui citent un travail de référence ou des auteurs particulièrement importants dans le champ du travail entrepris. Cet usage est relativement commun et à la base du SCI (Science Citation Index) qui est pluridisciplinaire et qui permet de travailler dans ce sens. Un autre usage des citations existe. Il consiste à comptabiliser les citations présentes dans un travail publiés. A l’origine, développé pour l’US Air Force, l’objectif était de suivre par clustérisations successives les travaux ayant en commun des citations (paires, triplets...) identiques. De ce fait on pouvait créer entre articles un certains nombre de liens autres que par les thèmes ou le suivi des réseaux d’auteurs. Cette approche est valable sur le plan épistémologique, entre autre pour réaliser un Atlas des Sciences, mais sur le plan de l’hyperinformation elle n’apporte que peu de choses, car elle est bien trop éloignée de l’action. En effet, pour qu’un auteur cite un travail, il faut que ce travail ait été publié, puis que lors de la rédaction de son article, l’auteur citant introduise cet article dans les références bibliographiques. Si on veut ainsi tracer le cheminement de la citation, puis du travail réalisée, etc. on constate aisément que la latence de temps augmentera encore. Nous conseillons donc de n’utiliser cette base de données (pluridisciplinaire, donc loin d’être exhaustive sur des thèmes précis) de façon à avoir une idée plausible des acteurs dans un domaine donné, en prenant comme postulat de base que si le travail est cité, c’est qu’il intéresse celui qui le cite. Cependant, l’espérance de citation d’un article même bon reste faible en général, cette approche sera donc très restrictive. 5.2.1.3 - L’utilisation de l’Internet L’Internet, réseau mondial de diffusion d’informations doit être considéré dans le cadre de l’hyperinformation de plusieurs façons. En effet, on peut soit se réjouir de la mise à disposition facile d’informations et de l’utilisation de messageries de plus en plus performantes, mais nous croyons, que dans le cadre de l’hyperinformation, il faut le considérer comme un système qui va permettre de changer quelques règles dans le sacro-saint domaine de la diffusion des connaissances. On va voir que dans la démocratisation de l'information à la fois au niveau de la production, puis de la diffusion et de l'accès, l'Internet joue et va jouer de plus en plus un rôle de choix. Avant de donner quelques règles simples au niveau de l'utilisation, nous allons aborder plusieurs points préalables pour situer dans le contexte de l'information les contraintes d'accès et de diffusion. 5.2.1.3.1 - La démocratisation de l’accès à l’information. Quand il n’y avait pas de bases de données en ligne, l’accès à une information exhaustive était strictement réservée à des groupes industriels pouvant mettre en jeu sur un thème donné une force de travail importante pour chercher dans des bibliographies les travaux publiés. Puis, la mise en place de réseaux en temps partagés de plus en plus performant, l’accès en conversationnel à des sources d’informations importantes rendu de plus en plus aisé, a conduit au développement de serveurs à l’échelle mondiale. Ainsi pour des sommes relativement modestes, un étudiant dans une bibliothèque, une PMI, une PME un particulier même, peuvent accéder avec un téléphone et un modem à des sources d’informations exhaustives et mondiales. Ceci constitue un progrès important au niveau de la démocratisation de l’information, bien évidement dans les pays où l’argent et les facilités techniques existent. L’évolution des technologies conduisaient en même temps, au développement de bases de données portables (les CD-ROM) qui sont une réponse, entre autre pour les pays en développement à un accès large aux sources d’information. Mais, dans ces deux derniers cas, force est de constater que la chaîne Editeur (du Journal), et serveur, contrôlent encore largement le système de diffusion. Entre autre, le système de diffusion par examen préalable du travail par un comité de lecture, si cela permet de valider le travail, conduit aussi à ne le laisser se développer que dans les règles strictes du "politiquement correct". Ce que l’Internet a profondément changé par la multiplicité des serveurs que l’on peut créer, ce sont les conditions non pas d'accès, mais de la diffusion de l’information. Ainsi, le scientifique (ou autre), ne se trouve plus captif de collèges invisibles, ni de journaux scientifiques, et peut donc diffuser son travail en tout ou partie, selon une stratégie qui lui sera propre, et en publiant s'il le désire tout ou parti de ce travail dans des revues spécialisées. Cette constatation est importante, et dans le domaine de l’hyperinformation, elle conduira a mettre en place des méthodes d’analyse systématique des sources Internet, entre autre avec des robots. 5.2.1.3.2 - L’évolution des systèmes de diffusion et d’accès à l’information La figure suivante indique les grandes étapes de la démocratisation des accès, puis de la diffusion des informations. Démocratisation de l'accés et de la diffusion des informations Saisie Informatique Moines copistes Guttenberg imprimerie linotype ordinateur composition CDROM Serveurs Réseau mondial impression offset INTERNET Bibliothèques Tous serveurs Réseaux Tous utilisateurs Entreprises ou particulier La démocratisation de l'accès puis de la diffusion des informations On peut constater tout d’abord, que la diffusion des connaissances a été réalisées par copies successives, c’était le temps de la gravure, des papyrus, des parchemins. Ce mode de diffusion était particulièrement coûteux et n’était pas particulièrement répandu. Guttenberg, ensuite avec l’imprimerie a bouleversé les systèmes de diffusion de l’information et a démocratisé un peu celui-ci. En créant l’imprimerie et en favorisant a diffusion de certaines traductions de la bible, Guttenberg a apporté une contribution (non volontaire) à la diffusion des idées de la réforme. Ensuite, le même système par la Linotype, a favorisé une vitesse de composition plus rapide, ainsi que la création de caractères mieux définis et plus maniables. On peut noter que les avancées technologiques précédentes on mis plusieurs milliers d’années avant d’arriver à maturité. Les progrès de l’informatique et des médias de stockage ont permis le développement de la saisie informatique et de la mise en place de textes particulièrement attrayants avec l’utilisation des polices vectorielles. Ces textes, permettaient la constitution de «plaques Regma» utilisées ensuite dans les rotatives. Ensuite les développements successifs de l’informatique et des réseaux ont permis à partir des stockages d’information précédents le développement des serveurs et un accès partagé et délocalisé à l’information. Ceci a été une première rupture dans l'accès et la diffusion des informations à l’époque moderne. Enfin, on arrive à l’époque actuelle où par l’intermédiaire de l’Internet, par une micro-informatique de plus en plus performante, on peut accéder à une information directement mise à disposition de l’utilisateur par le producteur. L’Internet constitue donc une rupture majeure de la chaîne classique de diffusion de l’information. Ceci est important, car c’est une préfiguration de ce que pourrait devenir un système d’information de plus en plus ouvert, où toute la difficulté ne sera plus d’accéder à des informations, mais de sélectionner et d’analyser des masses d’informations pour ne retenir que celles qui seraient vraiment pertinentes. Nous sommes dans une dynamique de rupture avec le passé, avant, on attendait l'information, maintenant il faut aller la chercher. (Guy Pouzard, IGEN, lors du Colloque Internet à 'Ecole, CRDP Marseille, Octobre 1997) Notons entre autre un système hybride que se développera soit sous la forme de CD-ROM, soit sous la forme de média ayant des capacités de stockage de plusieurs Giga octets, mais pouvant être transportés et lus avec facilité. Ces bases de données portables pouvant stocker des textes, des graphiques des images, du son et des séquences vidéo sont particulièrement appropriées pour s’affranchir des réseaux et des coûts de télécommunications ainsi que pour favoriser une diffusion d’informations dans les pays en développement. Ces médias constitueront aussi un système d’archivage qui pourra ensuite constituer une mémoire d’entreprise ayant une bonne capacité de conservation et pouvant être facilement manipulée. Si nous remarquons que l’accélération de ces technologies est apparue réellement que vers le milieu des années 70, on constate le bouleversement qu’elles introduisent au niveau des comportements. En effet, nos réflexes, une grande partie de nos acquis ancestraux sont basés sur des systèmes d'accès et de diffusion lents de l’information (exception de la TSF et de la télévision qui sont un peu plus anciens). Comparés aux millénaires qui ont précédés, cela ne peut que produire des changements de comportement importants. En outre, dans les technologies mêmes, des progrès fulgurants sont accomplis. On assiste depuis cinq ans à un accroissement sans précédent des performances, le tout accompagné d’une baisse de prix des matériels. Cette situation unique va favoriser de façon importante les institutions et les entreprises qui vont faire l’effort de structuration et de mise en place des systèmes d’information adaptés à leurs besoins et supportés par de tels matériels. Ceci est important, car même des PMI et PME, voire même l’individu pourront s’ils prennent le temps et disciplinent leur comportement, avoir après quelques années d’activité des systèmes personnels d’information extrêmement puissants. Cette situation, unique par les facilités qu’elle met à notre disposition, va accompagner tous ceux qui vont évoluer vers les changements de structures induits par la complexité de notre époque. Par contre, les écarts et les inégalités risquent de s’accroître plutôt que de diminuer. En effet, ce qui va surtout compter c’est la pente à l’origine de l’effort, de l’acquisition et de l’utilisation de ces systèmes. On peut penser que les pays qui prendront trop de retard dans le domaine de l’équipement et de l’utilisation de ces matériels et de ces technologies n'auront plus d'une par les réflexes nécessaires pour utiliser à des fins de développements (commercial, d'éducation, etc.) ces systèmes et d'autre part les capacités techniques nécessaires au niveau des spécialistes. En ce sens, le sous équipement de la France en micro-informatique est un fait particulièrement inquiétant. Sans aller dans le détail de ce type de discussion qui est assez éloigné des concepts que nous voulons exposer ici, on peut dire que les stratégies accès à l’information, vont, en fonction des objectifs ainsi que du niveau de "fraîcheur" nécessaire se différencier fortement. En effet, on peut concevoir qu’une Université ne soit pas particulièrement liée au temps d’apparition des idées donnant naissance à différents travaux. Mais, dans le cadre d’un laboratoire de recherche privé, il en sera tout autre, ce qui induira des stratégies d'accès à l’information différentes. Un article paru dans La Tribune, Jeudi 18 Septembre 1997, page 31, situe bien ce type de réflexion en mettant en évidence que l'informatique décisionnelle n'est plus l'apanage des grands groupes, elle est désormais accessible aux PME. A partir des réseaux internes et externes des systèmes nouveaux seront mis à la dispositions des différents acteurs: * Commerciaux, (équipements, portables) * Banques et Administrations: transfert de données (EDI) (téléphone-modem ou lignes dédiées) * Clients (catalogues en ligne, avec réactualisation) * Fournisseurs (commandes, téléphone-modem ou lignes dédiées) * Relations avec d'autres MPE (Virtual Companies, Forums, messageries...) * Publicité (présence sur l'Internet, serveur WWW) Cet ensemble permet d'accélérer la circulation des informations, la prise de décision, la concertation, la consultation d'experts. On ne soulignera jamais assez le rôle moteur que vont avoir les normes de transfert de données et l'homogénéité des systèmes informatiques. Une maîtrise de ces différents aspects permettra à l'entreprise d'entrer rapidement, lorsque le moment sera venu, dans le commerce électronique, l'échange de données, les discussions télématiques permettant de mobiliser des compétences diverses, géographiquement réparties, pour répondre à des appels d'offre. 5.2.1.3.3 - Quelques règles simples dans l'utilisation de l'Internet En donnant la possibilité aux individus, aux entreprises, aux collectivités, aux laboratoires, de diffuser de l'information, d'avoir une existence mondiale par la création de serveurs ou de pages WWW supportées par des diffuseurs d'information, l'Internet constitue une source d'information nouvelle. Elle est caractérisée par un foisonnement de plus en plus grand d'informations de toutes natures, principalement du texte, et de l'image (photos et schémas). Certains serveurs WWW permettent aussi d'accéder à des informations via des bases de données personnelles accessibles en ligne. Les grands serveurs Dialog, Questel, ... sont aussi accessibles via l'Internet (ce qui ne veut pas dire que cela soit gratuit!). Une littérature foisonnante a été et est écrite sur le sujet. Il n'est donc pas question de reprendre celle-ci dans cet ouvrage. Indiquons cependant quelques règles qui ne feront que s'amplifier: * dans le domaine universitaire, où l'accès à l'internet est la majeure partie du temps gratuite pour les membres d'un laboratoire et pour les étudiants, on va certainement assister à une prise en compte de plus en plus grande de ce média. En effet, les bases de données classiques (Inspec, Pascal, Chemical Abstracts, WPIL (brevets)), accessibles via les serveurs classiques sont riches mais chères, bien trop chères pour des étudiants ou des laboratoires de recherche (je parle ici de laboratoires français, a fortiori pour ceux des pays en développement). De ce fait, l'accès à l'information se modifiera, le couplage d'informations présentées sur internet avec la possibilité d'accéder par messagerie aux auteurs de cette information va modifier les comportements. L'intéractivité entre l'auteur de l'information et le lecteur devient alors un "plus" fondamental. * dans le domaine de la concurrence et de l'accès aux produits et à certains services, l'internet va jouer un rôle de plus en plus grand. En effet des sociétés de plus en plus nombreuses présentent leurs catalogues, leur savoir faire, leurs produits. De ce fait, on peut accéder à une information de caractère très différent de celle qui est donnée via les bases de données classiques. En outre, elle est fournie en temps réel. Cela est très vrai actuellement pour l'informatique, mais s'étend à de nombreux autres domaines. Le commerce électronique va donc se développer rapidement. Actuellement les stratégies dans le domaine de la sécurité des paiements est encore à ses débuts, mais les progrès réalisés en la matière permettent de penser que les applications à très grandes échelle du couplage de la commande en ligne, du paiement sécurisé et de diffuseurs comme DHL par exemple, vont perturber considérablement les systèmes commerciaux actuels. En effets, si les entreprises de ventes par catalogues basaient une grande partie de leurs stratégies sur des "mailing" très personnalisés, l'ouverture à l'échelle mondiale (avec toutes les échelles de prix prévisibles) va considérablement faire évoluer cette profession. En outre, les représentations locales de matériel, ne se situeront plus dans un espace exclusif, ce qui n'ira pas sans changer quelques habitudes. * la difficulté c'est avant tout de rechercher dans le foisonnement des informations celles qui sont les plus pertinentes. Si on le réalise correctement à partir d'un site payant, cela peut coûter relativement cher. Si on le réalise depuis un laboratoire universitaire spécialisé cela coûtera moins cher, mais le temps sera plus long. On peut procéder par coups de sonde, en utilisant directement les facilités de recherche offerte par le système (Altavista, Yaooh, ...), ou utiliser des robots ou agents intelligents qui iront chercher pour vous les données. On peut aussi réaliser des "gateways", c'est à dire faire "monter des pages" qui créeront les liens nécessaires avec toutes les applications qui vous concernent dans une liste de thèmes donnés, etc.... Tout ceci pour gagner du temps, car on peut passer des heures et des heures devant une machine reliée à Internet. C'est très intéressant ... pour l'individu, mais pas nécessairement pour la société qui le paie. * quelle stratégie pour une société ? Je pense, qu'il faut envisager le problèmes sous deux angles: une stratégie de recherche, une stratégie de présence. * au niveau de la recherche on va essayer de stocker sur son propre ordinateur ou sur un Intranet les pages principales concernant les concurrents que l'on connaît et qui sont présents sur le WEB. On pourra ainsi, soit stocker de l'information pour la réutiliser en cas de besoin, soit mettre en place une consultation de ces pages par un intranet local. Ainsi, la notion de temps d'accès ne rentrera plus en compte, le système étant mis à jours (la nuit par exemple) de façon quasi automatique. On pourra aussi périodiquement lancer une recherche avec un robot public (il y en a en freeware), ou commercial sur ses principaux thèmes d'intérêt. L'objectif est de trouver une information rare, souvent inattendue. Mais, les volumes à manipuler sont souvent importants. C'est pour cela que de nombreuses recherches ont conduit et conduisent toujours à proposer des produits en complément qui vont permettre de synthétiser, résumer, analyser automatiquement les données issues de l'Internet. 5.2.3.4 - Les agents intelligents Au sujet des robots, c'est à dire des programmes qui sont lancés sur le réseau internet à partir d'un ordinateur relié à celui-ci, on peut dire qu'il en existe de nombreux, accessibles soit comme freewares, soit commerciaux, soit utilisables à distance ce qui est par exemple le cas du robot conçu par le CRRM, AURESYS 2. (description détaillée: http://crrm.univ-mrs.fr) L'accès au robot se fait par mot de passe, donné à un utilisateur distant. Celui-ci passe sur le site du CRRM, dans la rubrique robot. Il paramètre celui-ci à distance et lance les opérations de recherche. A partir d'un certains nombre de paramètres de recherche ou de liens, qui peuvent être établis par consultations de systèmes publics comme Altavista, Yahoo, ... on va programmer le robot, pour que celui-ci aille rechercher les pages contenant les données, et à partir des liens de ces pages, se propager sur d'autres sites qui auront un certain intérêt. Cette propagation peut être suivie d'une exploration du site, suivant une profondeur que l'on détermine (nombre de liens en profondeur à partir de la page consultée). Dans le cas où certains serveurs ne sont pas déclarés, (il est d'usage lorsque l'on crée un serveur sur le Web, de déclarer celui-ci) on peut estimer quel serait leur numéro, et programmer le robot pour qu'il examine les serveurs existants, dans une plage de numéros déterminée à l'avance. Les données sont ensuite ramenées par le robot sur un site donné (en l'occurrence le serveur du CRRM), et rendues disponibles à distance par ftp. L'exemple suivant montre un des résultats obtenus par le robot: (Extrait du mémoire de DEA de Monsieur Bruno Manina, CRRM, Marseille, 1996) AURESYS permet de créer des bases de données interrogeables à distance par plusieurs utilisateurs. Les informations sont récupérées du NET, puis traitées pour être stockées dans ces bases. Chaque base de données répond à une requête personnalisée d'un utilisateur. Grâce aux bases de données créées, AURESYS donne les moyens à un utilisateur d'avoir un maximum de renseignements se rapportant à un sujet donné. Constitution d'un corpus analysable directement par des outils bibliomètriques. Constitution de Dossier Général d'Information (DGI) ou de Dossier d'Information Stratégique (DIS). Ses Atouts: AURESYS respecte l'autorisation de visiter les sites. (robot.txt). Les bases de données crées sont réactualisables, d'où son intérêt en Veille Technologique. AURESYS permet de choisir le domaine dans lequel le robot effectuera sa recherche, ainsi que la profondeur de recherche (liens hypertextes). Possibilité de commencer la recherche depuis n'importe quelle page d'un site. Grâce à l'incrémentation des numéros IP, AURESYS est capable de trouver des sites qui ne sont pas enregistrés par les utilitaires classiques du WEB (Yahoo, Lycos, Search...), la plupart des autres robots se contentant d'interroger les sites déjà indexés. AURESYS récupère le nom des images, les e-mails, les liens hypertextes internes et externes, le "header" de la page HTML, l'adresse hypertexte de la page HTML, la date de transfert et de dernière modification du fichier. AURESYS stocke l'arborescence de la page. Ses Utilisateurs: toute personne désirant s'informer sur un sujet donné avec réactualisation permanente des informations.(Veilleur Technologique ou Concurrentiel par exemple) Sa Conception: Programmation d'AURESYS en langage (http://www.perl.com) PERLA Utilisation de FRETTAIS pour indexer la base de données Utilisation de SFGATE pour interroger la base de données Exemple de données extraites à partir d'AURESYS (concerne une seule page analysée): LES AGENTS INTELLIGENTS Il y a 281 mots dans la page. Les Meta Tags : Aucun. Il y a 10 image(s) dans la page. Mot(s) clé(s) recherché(s) : auresys(3) . Nombre de mots clés trouvés : 1 Le fichier a été transférée le : Wed Sep 3 14:16:46 1997 Dernière modification du fichier : Thu Mar 20 15:32:00 1997 Fichiers sauvegardés : 1 Fichiers visités : 11 Adresse de la Page : <A HREF = http://ms161u21.u-3mrs.fr/mb/present.htm> http://ms161u21.u-3mrs.fr/mb/present.htm Voici l'environnement des mots clés : [IMAGE] Les Agents Intelligents : Définition, Utilité, Exemples et Serveurs. [IMAGE] La Veille Technologique : Définition, Outils, Méthodes et Moyens. [IMAGE] Pourquoi utiliser les Robots en Veille Technologique ? [IMAGE] Présentation du Robot AURESYS : AUtomated REsearch SYStem : Recherche par Mots-Clés sur tous les serveurs du NET et Rapatriement des Pages contenant ces Mots. [IMAGE] Configuration du Robot AURESYS : Adresse de départ, Mots-Clés, Port, URL Internes : il y a 7 URL interne(s) dans la page. URL Externes : http://crrm.univ-mrs.fr/res-teach/staff/cvdou.html http://crrm.univ-mrs.fr/res-teach/staff/cvdou.html http://crrm.univ-mrs.fr/res-teach/staff/cvquoniam.html http://crrm.univ-mrs.fr/res-teach/staff/cvquoniam.html ftp://crrm.univ-mrs.fr/pub/CVetud/Etudiants/Mannina/CVbruno.htm ftp://crrm.univmrs.fr/pub/CVetud/Etudiants/Mannina/CVbruno.htm ftp://crrm.univ-mrs.fr/pub/CVetud/Etudiants/CDOU/cvcar2.htm ftp://crrm.univmrs.fr/pub/CVetud/Etudiants/CDOU/cvcar2.htm http://crrm.univ-mrs.fr/res-teach/staff/cvgiraud.html http://crrm.univ-mrs.fr/res-teach/staff/cvgiraud.htmlIl y a 5 URL externe(s) dans la page. Les Frames : Les Images : www.gif(2) drapeau2.gif(1) usa2.gif(1) ballblue.gif(6) Niveau de profondeur : 3 Taille du fichier : 2381 Octets Mails de la page : [email protected] (1)[email protected] (1) Chemin : 0 : ms161u21.u-3mrs.fr/ 1 : ms161u21.u-3mrs.fr/cvimpr.htm 2 : ms161u21.u-3mrs.fr/home.html 3 : ms161u21.u-3mrs.fr/mb/present.htm FIN DE TRAITEMENT.... 5.2.1.5 - Etre présent sur l'Internet Etre présent sur le WEB. C'est le premier pas pour se donner une lisibilité. Que faire, que placer dans les pages descriptives de l'activité de l'entreprise, quels liens créer, etc... Mais, n'oublions pas ici une donnée de base: bien que des moteurs de recherche permettent d'accéder aux informations, contenues dans les pages principales d'un serveur, et ceci pour la majorité des serveurs présents sur le réseaux, la publicité que vous donnerez à votre propre site sera fondamentale. Il faut aussi envisager des sites fédérateurs qui permettent le passage ou la présentations vers différentes applications ou descriptions et qui de ce fait augmentent la chance de consultation. En outre, les vitesses d'accès à l'Internet étant différentes, il faut, lors de la réalisation de vos pages, tenir compte des temps de consultations (taille des images, frames, ...). Enfin, si vous souhaitez que vos informations soient rapidement consultées, au niveau transcontinental, il vaudra mieux pour vous réaliser un site miroir d'une partie de vos applications sur la zone même où la consultation devra être effectuée. Ce système est généralement utilisé pour l'Amérique du Nord, du Sud et pour certains pays d'Asie. Une bonne façon de tester son propre site, c'est de le consulter "d'ailleurs" chaque fois que cela est possible. On aura ainsi une bonne idée de la vitesse de consultation, ainsi que de l'aspect des pages et des images. On peut aussi s'abonner à un provideur par exemple Wanadoo de France Télécom, ou Gulliver, ou Compuserve, ou AOL (American On Line......) et ainsi pouvoir consulter comme la majeure partie des gens son site et les sites concurrents pour effectuer un certains nombre de comparaisons. On peut aussi selon des techniques alliant la psychologie, les aspect techniques, l'ergonomie, ... faire faire par des panels, du bench-marking de sites internet. Nous avons fait un certain nombre d'études dans ce sens, les résultats sont parfois surprenant, entre autre pour certains services dérivés du Minitel, où la conception globale garde encore l'habitude de vous faire consulter de multiples pages avant d'arriver à l'information recherchée (on gagnait de l'argent au temps passé, avec la formule kiosque), alors que dans le cas de l'Internet, il faut donner le meilleur accès possible dans un temps relativement court. Les lecteurs qui possèdent un accès à l'Internet, pourront consulter le serveur du CRRM qui montre comment un laboratoire universitaire, tourné à la fois vers la recherche, l'enseignement et les entreprises peut assurer une présence sur le WEB. http://crrm.univ-mrs.fr Remarquez aussi la confection de la première page, qui ne donne pas une impression de présentation figée. Elle comprend à la fois des choix par images fixes, animées, des choix par menus textuels. Les rubriques sont multiples et changent souvent. En effet le contenu d'un serveur doit évoluer en permanence, des rubriques nouvelles doivent apparaître ou disparaître. En effet rien n'est pire qu'un système fixe, sans animation et intéractivité. On remarquera aussi la présentation des collaborations, des partenaires, des gateways, qui en assurant des liens avec d'autres sites, vont conduit par réciprocité à une augmentation de la consultation du serveur. De même, l'adresse doit être facile à retenir, et elle devra figurer sur le papier à entête, sur les publicités, etc... 5.3 - Les brevets Les brevets sont des publications qui obéissent à des règles différentes de celles des publications scientifiques. L’écriture, le formalisme, l’examen, sont réalisés avec des règles strictes qui sont édictées par des offices de brevets nationaux ou internationaux. (Propriété Intellectuelle {T1100}, Arnaud de Saint Palais, Les Techniques de l'Ingénieur, 1997) La procédure de dépôt est réalisée de telle façon que pendant une période d’examen de l’ordre de 18 mois, le contenu du brevet n’est pas accessible. Ainsi, si dans ce laps de temps on dépose une invention identique, celle qui a été déposée avant fera, dans le domaine force de loi. Ce délai de ne peut pas être raccourci, et tous ceux qui cherchent l’apparition de nouveaux brevets sont placés devant la même situation. Les gazettes (publications offcielles des offices de brevets) lors de leur publication présentent les nouveaux brevets, les bases de données internationales type WPIL (World Patent Information Latest produite par Derwent) essaient dans la mesure du possible de réaliser des mises à jours de plus en plus rapides pour fournir une information de grande fraîcheur. De même les Offices (OEB Office Européen des brevets, INPI Institut National de la Propriété Industrielle, US Patent Office....) éditent des CD-ROM qui contiennent sous forme d'images ou de textes les signalements des brevets. Les CD-ROM sont émis avec une fréquence telle que la fraîcheur de l'information reste de bonne qualité. Un autre point important, au plan des brevets, c’est qu’ils protègent une invention. Celle-ci par excellence est donc nouvelle, et pour que ceci soit réel, il ne faut pas qu’on puisse lui opposer des travaux publiés, ou présentés même oralement si les témoins sont suffisants dans une période de temps antérieure à celle du brevet déposé. De ce fait, les informations passées prennent une valeur non plus seulement épistémologique ou descriptive, mais peuvent devenir stratégiques dans le contexte de la propriété industrielle. (Brevets d'invention et propriété industrielle, Wagret , Que Sais-Je?, n°1143, Puf, Paris.) Une donnée importante dans le domaine de la propriété industrielle, c’est que même si on accède par une base de données ou par une gazette aux textes ou aux résumés des brevets déposés, on ne sait que rarement si un brevet est utilisé ou non au plan industriel. Ceci constitue au niveau de l’information active une barrière importante. Mais, tout le monde est soumis au même régime et c’est seulement le système d’information informel et un bon réseau qui permettent d’aborder ce point précis. Du fait de la complexité de ce système d’information, à la fois au plan documentaire et au plan juridique, (les brevets selon leur niveau d’examen sont situés à différentes phases, ils peuvent être pour le Japon Koho, ou Kokai, ils peuvent citer d’autres brevets plus ou moins proches, ils peuvent être déchus, ou abandonnés par le non paiement des annuités, il peut y avoir des co-déposants, ils peuvent être revendus, ...), le service des brevets a longtemps été considéré (et même reste considéré) dans certaines sociétés comme un service particulier. En fait, bien que son statut nécessite une certaine spécialisation, le brevet fait partie intégrante du système d’information normal de l’entreprise et il n’y a pas de raison de dissocier celui-ci de l’approche informative globale. Au contraire il doit constituer un point d’intégration fort, un lien entre les politiques de recherche et de dépôts des concurrents, permettre un début de bench-marking, et favoriser une prise de conscience de l'intégration des avancées scientifiques dans le développement de nouveaux produits. De même, pour une entreprise qui n'aurait pas les moyens (ou la nécessité) de protéger un patrimoine technique, les bases de données brevets constituent néanmoins une source d’informations stratégiques de premier plan. Les bases de données brevets peuvent être considérées comme le reflet des technologies du moment et des avancées industrielles dans le domaine. (Systèmes de surveillance systématique pour le management stratégique de l'entreprise. Le traitement de l'information brevet. Nivol W., Thèse Doctorat Sciences Marseille, CRRM, 1993, Université Aix-Marseille III - Analyse relationnelle pour la Veille Technologique vers l'analyse automatique des brevets Huot C., Thèse Doctorat, Sciences Marseille, CRRM, 1992, .Université Aix-Marseille III - Le brevet source d'information, Jakobiak F., Dunod, Paris, 1994 - Qui fait confiance aux brevets, Mathieu E., Cahier n°9 du SESSI, Ministère de l'Industrie des Postes et Télécommunications et du Commerce Extérieur. Direction Générale des Stratégies Industrielles 85 Boulevard du Montparnasse, 75270, Paris Cedex 06, France) Dans la politique mondiale de globalisation, la libre circulation des marchandises trouve uniquement des limites au niveau de la protection industrielle. Ainsi, si un produit est protégé par un brevet dans un Etat, il ne sera pas possible de fabriquer le produit dans cet Etat sans tenir compte de cette protection. Si le brevet n'a pas été étendu dans d'autres pays, le produit pourra y être fabriqué sans contrainte, mais, il ne pourra pas être importé dans le pays dont le territoire se trouve être protégé, vis à vis de ce produit, par un brevet. Voir à ce sujet le cours de propriété industrielle de J.L. Somnier (DEA Veille Technologique et Intelligence Compétitive, CRRM) de Monsieur Jean Louis Somnier, Cabinet Beau de Loménie, 232 Avenue du Prado, 13295 Marseille Cedex 8). On dit souvent qu'un brevet coûte cher. Ce n'est pas réellement le cas. En effet, il n'est pas souvent nécessaire de prendre un brevet Européen ou Mondial. Il faudra établir une stratégie de dépôt, pour protéger certaines zones géographiques où l'on exerce une activité. Dans ce cas, une protection par pays coûtera de l'ordre de 50.000 fr. (La protection technologique dans l'industrie. Entre brevet et secret: un choix stratégique, Bussy J.-C., Kabla I., Lehoucq T. SESSI, n°34, mai 1994, Ministère de l'Industrie des Postes et Télécommunications et du Commerce Extérieur. Direction Générale des Stratégies Industrielles 85 Boulevard du Montparnasse, 75270, Paris Cedex 06, France) On pose souvent le problème: comment savoir si un brevet est déchu. En effet dans la majorité des cas, on ne continue pas de payer des annuités à un office de brevets (sauf si le brevet est réellement exploité, ou s'il défend un produit, etc...). Dans ce cas, le brevet tombera dans le domaine public. Pour le savoir, il est normalement possible de consulter certaines bases de données, si elle sont correctement mises à jour. Une indication: brevet déchu, ou "abandonned", sera mentionnée. On pourra aussi demander aux offices nationaux le statut juridique d'un brevet, l'information sera obtenue pour une somme relativement modique. 5.3.1 - Exemples de recherche La recherche classique des brevets sur les bases de données en ligne (WPIL World Patent Index latest de Derwent, US Patents Database, Japio (brevets Japonais, Chinapats, Inpadoc, Eupat, Fpat...) a été décrite dans différents traités de documentation. Nous avons aussi abordé ce problème dans divers livres et publications. (Veille Technologique, Hélène Desvals, Henri Dou, Dunod, 1992 - Veille Technologique et Compétitivité, Henri Dou, Dunod, 1996, 4 L’Information brevet., Raimundo Macedo dos Santos, Thèse Sciences Université AixMarseille CRRM, Marseille, 1995 - 21 - Maîtriser la prolifération de l’information grâce à la bibliométrie, Dou H., Technologies Internationales, n°9, pp.42-44, Novembre 1994) Nous allons, dans cette partie de l'ouvrage traiter plus particulièrement de l'accés aux bases brevets moins conventionnelles, par l'internédiaire d'Internet. Sur l'Internet, on accède maintenant à plusieurs serveurs qui développent une information en ligne (serveur de l'US Patent Office par exemple) ou sous forme d'études statistiques. Notons aussi l'effort remarquable de la Société IBM, qui sur son serveur donne accès aux brevets américains. D'autres pays, comme le Brésil donnent aussi accès aux licences brésiliennes et ceci gratuitement et avec l'Internet. Il ne fait pas de doute que tout ceci se développera encore plus, et que cela posera à terme quelques problèmes avec les serveurs commerciaux actuels. Recherche générale sur le terme Patents (AltaVista): Pour ceux qui ont accès à l'internet, une recherche avec AltaVista (système de recherche en ligne de l'information accessible gratuitement sur l'internet) utilisant le terme PATENTS, conduit à environ 143.390 documents (Septembre 1997) qui correspondent au signalement. Bien sûr, la question doit être affinée, et lorsque cela est réalisé, on accède directement à des ressources dans le domaine qui vont de l'utilisation commerciale de certains produits (analyse, abonnement à des indicateurs ...), à des ressources éducatives qui permettent à un néophyte (bien entendu lisant l'anglais, mais cela est implicite dans le domaine de l'information) d'acquérir des connaissances mêmes très spécialisées dans le domaine. Par exemple on accédera à: Patents: The Engineering Library Patents are a rich source of technical informations that is often overlook. Several World Wibe Web sites are now available to public to improve ...... http://dol1.eng.sunysb.edu/lig/patents.html - size 10K - 1-Apr-97 - English OMRF ANNOUNCES PATENTS ON PROCEDURE TO INACTIVE HIV IN BLOOD PRODUCTS Previeus release. Return to Index. OMRF ANNOUNCES PATENTS ON PROCEDURE TO INACTIVE HIV IN BLOOD PRODUCTS. Oklahoma City, November ... http://www.twoten.press.net/stories/96/11/08/headlines/MEDICAL_Hiv_Patent.html - size 5K 8-Nov-96 - English La partie en italique soulignée, indique la page HTML qui contient le sujet. C'est l'adresse de la page qui est indiquée. On pourra la stocker en "bootmark" dans son logiciel de recherche (Microsoft Internet Explorer, Netscape..), ou alors, à partir d'AltaVista, un simple clic avec la souris sur la partie soulignée vous conduira automatiquement à partirde l'adresse indiquée au serveur contenant les informations et vous permettra de les consulter. Ensuite, l'utilisation du bouton back (sur votre logiciel d'accès à l'internet), vous permettra de revenir à la page précédente et de consulter d'autres pages sélectionnées dans la recherche. On constate ici tout l'intérêt de cette approche, en effet, on accède à une source d'information éducative, mais aussi, on peut avec une démarche similaire accéder à des communiqués de presse par exemple, qui vont anticiper sur la période au cours de laquelle le brevet reste encore en examen (les informations restent toujours à vérifier). Ceci est un peu du niveau de la note "patent pending" que l'on voit souvent apparaître sur les étiquettes de certains produits (entre autre cosmétiques par exemple) ce qui indique qu'un brevet concernant le produit est en cours de dépôt (ceci peut être vrai, mais peut aussi être faut). C'est une manoeuvre d'intimidation et de dissuasion qui ne coûte pas cher! Recherche ciblée sur le serveur de brevets IBM (http://www.IBM.com): Dans le cadre de l'Utilisation sur serveur de brevets IBM, nous montrons ici à titre d'exemple une recherche effectuée sur le serveur des brevets américains avec le terme DESLUDGING. Le résultat est le suivant: Le numéro avant le titre du brevet est le PN (Patent Number, numéro du brevet qui est univoque) Le pourcentage en fin de ligne, est issu d'un calcul qui en fonction de la fréquence du mot recherché et de sa place (on peut aussi utiliser d'autres paramètres ...), conduit à un pourcentage de qualité de la requête. Search Results (Query: (desludging <in> TITLE) or (desludging <in> ABSTRACT) 19 out of 2.192.518 patents matched your query. The 19 most relevant ones are displayed below. Click on a patent number to view the details of a patent. Select the check boxes of patents you wish to order by fax or mail then click on the Order button at the bottom _____________________________________________________________________ ❒ 4526685 Waste water treatment plant 82% ❒ 5527018 Filter unit and apparatus dor desludging salt baths 80% ........ ❒ 4969775 Process of dressing contaminated soils 80% ❒ 4223622 Tanker desludging system 78% ........ ❒ 3749303 CENTRIFUGAL SLUDGE SEPARATOR WITH 78% DESLUDGING CONTROL MEANS ❒ 3593915 CONTROLLED DESLUDGING OF CENTRIFUGAL 78% SEPARATORS _____________________________________________________________________ rder Checked Document FPatent Number Search | Boolean Text Search | Advanced Text Search F Home | Help | Search | Guestbook | Legal | IBM Extrait d'une interrogation effectuée sur le serveur IBM (le document contient 19 signalements de brevets présents sur deux pages). 5.4 - La relation entre le temps et les autres types d’informations Nous avons vu, qu’excepté certaines informations véhiculées sur l’internet, les informations publiées avaient une constante de temps relativement grande. On va voir ensuite un domaine intermédiaire celui des lettres d’information qui constituent un support particulier (qu’elles soient électroniques, par fax, ou écrites). Nous abordons ici la notion d’information floue, informelle. Ces informations qui peuvent provenir de discussions, de colloques, de visites, d’indiscrétions, conférences (de presses ou autres) d’enquêtes, de visites de foires ou d’exposition etc... ont une particularité: elles sont liées au présent, voire même au proche futur, mais elles doivent être validées. Ainsi, si les informations très structurées et validées au préalable, sont des informations du passées ou du proche passé lorsqu’elles sont publiées, les informations moins formelles, on dira informelles ou floues sont plus proches du présent ou du proche futur. Il est donc certain, que cette constatation va induire dans le cadre d’une information dynamique une stratégie différente d’une stratégie classique reposant simplement sur la documentation ou l’archivage. Cette étape sera un préalable, mais il faudra de toutes façon aller chercher sur le terrain les informations plus informelles qui seront plus adaptées à l’action. Cette stratégie de collecte, ces "briefings" et "debriefings" devront être organisés. Cette organisation devra mettre en jeu des personnes dont ce n’est pas forcément le métier de base, des experts et des animateurs. On voit dons se dessiner ce que pourrait être les caractéristiques d’un système d’information moderne pour action: Une première étape qui consiste à partir des sources formelles classiques à aborder une question, et à trouver dans le très proche passé les points les plus forts, les noeuds et les personnes clés d’un réseau, etc. Une deuxième étape qui va conduire à travailler plus particulièrement sur la collecte d’informations plus floues, plus difficiles à obtenir, nécessitant la prise en compte et l’analyse des sources différentes, l’analyse de coût, etc.. mais centrées sur les objectifs définis dans la première étape. Dans ces deux étapes, le rôles des experts est important (experts du domaine documentaire dans un premier temps) puis ensuite informateurs occasionnels et experts scientifiques ou techniques. Ensuite, ces informations seront rassemblées soit physiquement, soit électroniquement vers les experts, qui à partir de celles-ci vont essayer de comprendre, d’émettre des hypothèses, de demander éventuellement des vérifications, et enfin de donner aux décideurs des éléments forts, étayant l’action. 5.4.1 - Les lettres d’information On ne peut pas tout surveiller. Même en appliquant la méthodologie des facteurs critiques de succès, la mondialisation, la diversité des informations qui peuvent être reliées à ces facteurs ont conduit certains opérateurs à proposer des surveillances par zones géographiques, par thèmes, par techniques. Ces surveillances dont la valeur est souvent très variable, trouvent leurs expression des les lettres d’information. Le principe est d’avoir sur le terrain un ensemble d’informateurs travaillant en réseau, qui vont envoyer à la centrale (ceux qui assurent la rédaction de la lettre), leurs informations. Celles-ci ne seront pas commentées. En effet, au plus on prend l’information prés de sa source, au moins on a le temps de réaliser un commentaire ou un article de synthèse. Le Temps, le Temps.... • L'information Informelle doit être obtenue et prise en compte le plus tôt possible. • C'est la meilleure manière de gagner du temps par rapport à vos concurrents volume quelques pages quelques lignes un article mais il est déjà trop tard! jours ou semaines temps CRRM Volume des informations et facteur temps Les bonnes lettres seront celles qui valideront leurs informations, et qui, par des réseaux d’informateurs bien situés seront à même d’embrasser le plus complètement possible le champ qu’elle annonce comme couvert. Elles devront avoir pour règle, d'informer rapidement le lecteur dés l'apparition de l'information, c'est à dire en quelques lignes. Ceci veut dire que leur périodicité doit être courte, car autrement le délai écoulé entre la naissance de l'information et sa diffusion serait trop grand. La figure ci-dessus indique bien que le volume de l'information obtenu sera d'autant plus faible que l'information sera près de la source d'émission. Ensuite, des dépêches, des articles, des périodiques... expliciteront l'information, ses conséquences possibles, etc. Mais, au plus on a une information générale sur le sujet, au moins elle aura de la valeur, au sens strict de l'information pour action et pour anticiper. 5.4.1.1 - Généralités sur les lettres d'information Les réalisateurs de ces lettres dites confidentielles (elles ne le sont généralement pas puisqu’on s’y abonne !) sont très divers: cabinets conseils, services des ambassades, journaux (internationaux, nationaux, régionaux), tous services dont l’objectif soit de service public soit financier est de diffuser de l’information. Le principe de la lettre est généralement le suivant: un article très bref, souvent quelques lignes, présente les faits dés leur début. C’est ensuite aux lecteurs, de s'organiser pour mettre en place une stratégie pour mieux connaître ce qui se passe. Les lettres qui généralement traitent de sujets très divers, pas nécessairement présents dans les bases de données, ont comme avantage de réaliser un premier screening assez large d’un domaine, en «économisant» une partie des forces qui seraient nécessaires pour couvrir ce secteur, et en les réservant pour aller vraiment vers l’objectif. Le problème réside cependant dans la qualité de ces lettres qui peut être très variable. Le coût n’est pas vraiment un critère de décision. Le véritable critère est le contenu, et le nombre de lettres diffusées. En effet on va se situer dans ce domaine au niveau des avantages et des nécessités, il faut savoir quand le contenu de la lettre constitue un avantage, quand, par la multiplicité de sa diffusion il deviendra une nécessité (dans ce cas on trouvera la lettre facilement, sans même passer par l’émetteur). Nous n’écarterons pas les lettres du processus de collecte de l’information, mais nous conseillons d’être circonspect et de ne pas prendre comme validée une information qui mériterait plus de développement. Généralement appuyée sur des réseaux performants, elles rejoignent la préoccupation du recueil de l’information à caractère informel: comment activer au moment opportun un réseau d’information, comme avoir en permanence une veille latente qui permettra de signaler un fait particulièrement important seulement perceptible au niveau d'un signal faible. Dans le cadre des PME et des PMI, les lettres peuvent cependant constituer un élément moteur de leur information. C'est ainsi qu'Eric Giraud et Carine Dou, dans un article publié dans Humanisme et Entreprise, n°310, 1997, p.49-59, on analysé l'utilisation de la lettre Sud Info, ainsi que diverses autres lettres dans le processus d'information des PMI et PME. Citons une des conclusions de l'article: "Une bonne connaissance de ces lettres pourrait permettre à l'entreprise de faire un effort minimal de collecte, et l'information étant condensée, un effort minimum de gestion. Il est évident que ces lettres ne peuvent pas se substituer à un système d'information, mais une entreprise de quelques personnes, au regard de la conjoncture actuelle, ne peut se permettre d'investir la quantité d'argent nécessaire à l'élaboration et à la maintenance d'une cellule d'information." 5.4.1.2 - Une utilisation offensive des lettres Une utilisation offensive des lettres et autres publications générales embrassant un large champ d'activité peut être la suivante: ces publications vont donner au lecteur un panorama général dans un domaine donné. Ce panorama ne sera pas très fouillé, mais il donnera au lecteur un champ de vision élargi en lui permettant de noter ce qui peut être important pour lui. Ensuite, il approfondira la question et ira vers la source même de l'information. Prenons l'exemple suivant: Les publications de l'ADIT, servent à alerter le lecteur en décrivant de manière assez générale des sujets nouveaux ou des résultats de recherche importants. Dans bien des cas, les sources d'information utilisées sont liées aux services des Attachés Scientifiques des Ambassades françaises dans les principaux pays développés du monde. C'est donc en fait une synthèse, qui va alerter le lecteur qui n'aurait sans doute pas le temps de faire le point et d'accéder à toutes ces sources d'information une par une. Une des démarches possibles serait la suivante: à partir de la lecture d'une publication de l'ADIT, on est alerté par la description d'un matériau nouveau qui pourrait être intéressant pour certaines activités de l'entreprise. Ce fait nous conduit à approfondir la source d'information, pour constater que c'est le service du CAST de l'Ambassade de France à Washington, qui dans sa lettre sur les matériaux a donné cette information. On peut alors s'adresser directement à l'Ambassade pour recevoir la lettre en question, ou mieux, pour s'apercevoir que celle-ci fait l'objet d'une publication sur l'Internet, et que c'est avec ce format que l'on obtient le plus d'informations. 5.4.1.2.1 - Extraits de la lettre sur les matériaux (lettre Internet) LA LETTRE MATERIAUX DE WASHINGTON, No 41, ( 1 novembre 1997) DES THERMOELECTRIQUES DANS LES REFRIGERATEURS DE DEMAIN Le Financial Times se penche sur le potentiel des matériaux capables de convertir l'énergie thermique en électricité et qui sont appelés thermoélectriques. Bien que découverts il y a plus de 100 ans, les applications de ces matériaux sont restées très limitées, la plus connue a ce jour ayant été leur utilisation comme source de courant dans les satellites Pioneer 10 et 11 de la NASA. Paradoxalement c'est dans les systèmes de réfrigération que les matériaux thermoélectriques pourraient être promis a un brillant avenir depuis l'interdiction des CFC. A l'Université du Tennessee a Knoxille, les chercheurs travaillent sur des matériaux thermoélectriques, les skutterudites, dont les mécanismes de conversion de la chaleur en électricité restent encore inexpliqués. Les premiers prototypes de réfrigérateurs a base de skutterudites pourraient faire leur apparition dans 5 ans. Source: Financial Times, 7 octobre 1997 NOUVEAU PROCEDE DE DEPOT DE REVETEMENTS Un nouveau procédé de dépôt de revêtements sur des systèmes électroniques a été développe a l'Université de New-York a Buffalo. Ces revêtements sont produits a des températures supérieures a 20000K et sont ensuite refroidis a la température ambiante avant être déposés. La méthode, appelée "Laser assisted molecular beam deposition" (LAMBD), est une technique hybride qui associe les avantages de l'ablation laser et de l'épitaxie par faisceau moléculaire. Le LAMBD évite les grandes températures qui peuvent endommager les puces d'ordinateur, un inconvénient majeur pour la fabrication de puces pour superordinateurs. Cette technique aurait une grande variété d'applications dans l'électronique et l'optoélectronique. Source: ACerS, septembre 1997 Deux rapports auxquels la Mission a contribué sont disponibles auprès de l'ADIT: "L'AGILITE OU LA REINDUSTRIALISATION DES ETATS-UNIS" Maud FAIVRE et Christian DUPONT Mai 1997 "LES POLYMERES CONDUCTEURS: SITUATION DE LA R&D AUX ETATS-UNIS" Christian AUBLE et Dr Denis FICHOU Juillet 1997 5. REVUE DE PRESSE La Mission Scientifique et Technologique de l'Ambassade de France aux Etats-Unis édite chaque jour une synthèse de l'actualité américaine en science et technologie. Vous pouvez la consulter et vous y abonner sur http://www.france-science.org Noter aussi qu'il existe une lettre des matériaux émanant de l'Ambassade de France à Tokyo. Japon matériaux - Service pour la Science et la Technologie, Ambassade de France, 4-11-44 Minami Azabu, Minato-ku, Tokyo 106, Japon Il existe aussi des lettres électroniques réalisées par des organismes internationaux, telle par exemple la lettre produite par le NESDA (Network for Environment Sustainable Development in Africa), qui est publiée en français et en anglais: http://www.rri.org/nesda Mais, il va nous falloir aller plus loin, c'est à dire connaître quelles étaient les sources de l'Attaché Scientifique, en quelques sorte à partir de quels travaux a-t-il eu connaissance de ces informations. Si on ne peut pas avoir directement l'information, savoir que c'est aux USA que cette information a pris naissance, et savoir aussi la décliner à partir du contenu de la lettre en mots clés, permettra une recherche dans des banques de données de publications, de brevets ou de congrès pour approcher de la source. Les laboratoires étant identifiés, on essaiera de savoir si ces derniers décrivent une partie de leurs activités sur l'Internet (on pourra aussi utiliser les mêmes mots clés sur l'Internet sans passer pas les banques de données), ceci étant une autre possibilité. On aura alors un certain nombre d'informations, et on essaiera alors de remonter jusqu'aux chercheurs. A partir de leur noms, on pourra rechercher s'ils ont un e-mail et, connaissant leurs travaux, on pourra par cet intermédiaire les contacter pour en "savoir plus". Ainsi, à partir d'une publication générale mais embrassant un grand champ de connaissances, on pourra détecter les orientations intéressantes, puis aller par des chemins divers le plus prés de la source d'information pour connaître plus de choses, en évitant la majorité des intermédiaires et en jouant sur le facteur temps. Cette manière de travailler est schématisée dans la figure suivante: Aller toujours plus près de la source des informations Publication généraliste, large horizon Domaines sensibles Source primaire Emetteur secondaire Emetteur principal CRRM Rechercher toujours l'émetteur principal pour gagner du temps et en "savoir plus" Exemple: Dans la lettre de Washington, citée ci-dessus, est indiquée une bibliographie sur les matériaux issues de la base de données NTIS (National Technical Information Service). Dans cette bibliographie supposons que l'on soit intéressé par un titre particulier: "Evaluation of Ikon-12 Refrigerant for Moter Vehicle Air Conditioning" On interroge alors la base de données du NTIS (serveur Questel-Orbit): Question: Evaluation and ikon and motor Réponse: 1 -1- (NTIS) AN - PB97-192850/XAB TI - Evaluation of Ikon-12 (Trade Name) Refrigerant for Motor Vehicle Air Conditioning. AU - Jetter, J. J.; Smith, N. D.; Ratanaphruks, K.; Ng, M. S.; Tufts, M. W. OS - Acurex Environmental Corp., Research Triangle Park, NC.; *Environmental Protection Agency, Research Triangle Park, NC. Air Pollution Prevention and Control Div. SO - 1997; 8p Presented at the SAE International Congress and Exposition, Detroit, MI., February 24-27, 1997. Sponsored by Environmental Protection Agency, Research Triangle Park, NC. Air Pollution Prevention and Control Div. This product may be ordered from NTIS by phone at (703)487-4650; by fax at (703)321-8547; and by email at 'orders ntis.fedworld.gov'. NTIS is located at 5285 Port Royal Road, Springfield, VA, 22161, USA. On interroge alors la base de données des Chemical Abstracts, en utilisant le terme Acurex présent dans l'adresse (champ OS, Organizational Source). Il y a 413 réponses. On peut ainsi sélectionner dans les travaux publiés par cette entreprise d'autres références intéressantes comme la référence suivante: -1- (CASM) COPYRIGHT 1997 ACS. AN - CA127-177953(13) TI - Chlorine-free alternatives for CFC-114: theoretical and experimental investigations AU - Kazachki G S; Gage C L; Hendriks R V SO - Proc Int Congr Refrig 19th, 4B, 95.00.00, 874-881 PY - 1995 JC - 64VHAQ PU - Institut International du Froid, Paris, Fr OS - Acurex Environmental Corp, Research Triagle Park, NC, 27709, USA (US) DT - Conference proceedings (C) LA - English (EN) MCC - 45-05: Industrial Organic Chemicals, Leather, Fats, and Waxes FS - Macromolecular Chemistry (Macromol) UP - 9739 Puis déterminer les différents travaux publiés par les auteurs: SS 3? kazachki G S/au or gage C L/au or Hendriks R V/au SS 3 RESULT (12) Imprimer les 12 titres: TI - Chlorine-free alternatives for CFC-114: theoretical and experimental investigations TI - Performance testing of a semi-hermetic compressor with HFC-236a and CFC-114 at chiller conditions TI - Investigation of HFC-236ea and HFC-236fa as CFC-114 replacements in high-temperature heat pumps TI - Investigation of HFC-236ea and HFC-236fa as CFC-114 replacements in high-temperature heat pumps TI - Prediction of properties of new working fluids for heat pipes TI - Simulation of nonazeotropic refrigerant mixtures for use in a dual-circuit refrigerator/freezer with countercurrent heat exchanges TI - Environmentally acceptable specialty lubricants. An interpretation of the Environmental Regulations of the North Sea (World) TI - Thermodynamic evaluation of predicted fluorinated ether, ethane, and propane azeotropes TI - Predictions of azeotropes formed from fluorinated ethers, ethanes, and propanes TI - Thermodynamic evaluation of five alternative refrigerants in vapor-compression cycles TI - Initial test results of the Limestone Injection Multistage Burner (LIMB) Demonstration Project TI - Calcium-based sorbents in the LIMB (limestone injection multistage burner) process Analyser l'ensemble des auteurs concernés par ces 12 travaux, etc...(Commande GET) THERE ARE 13 UNIQUE VALUES. OCCURRENCES PERCENT TERM 8 66.66% KAZACHKI G S 7 58.33% GAGE C L 7 58.33% HENDRIKS R V 2 16.66% RHODES W J 1 8.33% BARE J C 1 8.33% BOGDANOV A T 1 8.33% JACOBS NORMAN L 1 8.33% JUNG D S 1 8.33% KAPLAN N 1 8.33% KIRCHGESSNER D A 1 8.33% NOLAN P S 1 8.33% RADERMACHER R 1 8.33% STRINGFELLOW WILLIAM D Ensuite, on ira voir sur l'Internet si la société est présente sur un serveur, et si les personnes qui nous concernent particulièrement ont un e-mail. Ceci permettra de les contacter, etc. (Le serveur utilisé dans cet example est le serveur Questel-Orbit). 5.4.1.2.2 - Des données formelles à l'Internet L'Internet, va nous permettre, aprés avoir obtenu des cibles par analyse de l'information formelle, de nous rapprocher de la source ou des sources émétrices et de compléter notre information. Exemple: La consultation via AltaVista (http://altavista.digital.com) de l'internet en utilisant ACUREX conduit à: 1. Acurex Tech-Rentals' Catalogue. Catalogue entry point. Back one level. Acurex. Test & Measurement Equipment. FOR SALE ( 1 item. ) ACU,7000 ACUREX 7000 II... http://www.techrentals.com.au/testmeas/sale/manufact/54e3d70a.htm - size 2K - 1-Sep-97 - English 2. ACUREX i Bollnäs AB AFFÄRSIDÉN. Vi skall vara en tillgång för försäkringsgivare, i deras strävanden, att effektivisera sina insatser i skadeförbyggande syfte och som leder... http://home3.swipnet.se/~w-35395/ - size 4K - 21-Sep-97 - Swedish 3. Welcome to ACUREX ENVIRONMENTAL CORPORATION Page contains data on ACUREX ENVIRONMENTAL CORPORATION http://www.constructionnet.net/companies/acurexenvironmentalc94.html size 3K - 9-Oct-97 - English 4. Geraghty and Miller: Acurex History CORPORATE PROFILE. Founded in 1973 as a group within Acurex Corporation, a former parent company, Acurex Environmental is a leader in technology... http://www.gmgw.com/Acurex/history.html - size 3K - 12-Jun-97 - English 5. Geraghty and Miller: Acurex Locations OFFICES. Acurex Environmental occupies offices and laboratories at three U.S. locations. Our Mountain View, California location is our headquarters and... http://www.gmgw.com/Acurex/Offices.html - size 3K - 12-Jun-97 - English 6. Welcome Acurex Environmental Sensible Solutions through Innovative Technologies. 555 Clyde Avenue Mountain View, CA 94043 V: (415) 961-5700 F: (415) 254-2497. History. Mission.... http://www.gmgw.com/Acurex/ - size 2K - 6-Sep-97 - English 7. Welcome to ACUREX ENVIRONMENTALA Page contains data on ACUREX ENVIRONMENTALA http://www.constructionnet.net/companies/acurexenvironmentala91.html size 3K - 5-Oct-97 - English 8. Geraghty and Miller: Acurex Mission OUR MISSION. Industry today is increasingly in need of a competitive edge to address stiff global competition. To achieve this competitive edge, industry.. http://www.gmgw.com/Acurex/Mission.html - size 12K - 12-Jun-97 - English ................ 14. PSA: Call for Proposals Access to 'Plataforma Solar de Almería' the European Test Centre for Solar Thermal Energy Applications. supported by the European Commission under.. http://psaxp.psa.es/convoc/tmrcall.html - size 20K - 29-Aug-97 - English 15. No Title Waste Management. [A][B][C][D][E][F][G][H][I][J][K][L][M][N][O][P][Q][R][S][T][U][V][W][X] [Y] [Z] Acurex Corporation, Environmental Systems Division AEA... http://www.awma.org/consult/waste.htm - size 9K - 17-Mar-97 - English 16. August 31, 1995 September 8, 1995. South Coast Air Quality. Management District Board. Mobile Source Air Pollution Reduction Review Committee Report. August 24, 1995,... Parmi ces références, les liens 3, 4 et 15 nous paraissent importants. Le lien 15 qui comprend une liste de thèmes, paraît devoir être consulté, c'est sans doute quelque chose qui pourrait être intéressant. Voilà ce qui est obtenu en cliquant sur le lien 15. C'est la liste des Sociétés américaines travaillant dans un domaine identique ou proche de la société ACUREX: Acurex Corporation, Environmental Systems Division AGES ATEC Associates, Inc. Acurex Corporation, Environment Systems Division Advent Group, The Alfred Crew/Donohue Alliance Technologies Corporation Applied Environmental Technologies Applied Science & Technology Atec Environmental Consultants Avatar Group B.H. Levelton & Associates, Inc. Barakat & Chamberlin, Inc. Baxter & Woodman, Inc. Beltran Associates, Inc. Bergmann Associates Black & Veatch Boelter Environmental Associates Braithwaite Consultants, Inc. Brice, Petrides-Donohue Company Bruderly Engineering & Associates Buchart-Horn, Inc. Burns & McDonnell Engineering CANVIRO Analytical Laboratories CH2M Hill Cadmus Group Inc., The Camp Dresser & McKee Capaccio Environmental Engineering, Inc. Center for Hazardous Materials Research Charles R. Velzy Associates, Inc. Chester Environmental Group Clayton Environmental Consultants Consulting Engineers, Inc. Cross/Tessitore & Associates DMG Environmental, Inc. Dames & Moore Donohue & Associates, Inc. Du Pont E. C. Jordon Company E.E.& S. EA Engineering Science and Technology EEC Environmental, Inc. ENPRO Consulting Group, Inc. ENSR Consulting & Engineering EarthInfo, Inc. AEA Technology ATC, Inc. ASI Environmental Technologies Advent Environmental Aerocomp, Inc. Alternative Resources, Inc. Applied Environmental Consultants Applied Hydrology Associates, Inc. Aqua Terra Technologies (ATT) Autumn Industries B & V Waste Management Baker Environmental, Inc. Barer Engineering, P.A. Beck, Curt B. - P.E. Bennett Environmental Group Bison Engineering, Inc. Blasland, Bouck & Lee Booz, Allen & Hamilton, Inc. Brian W. Doyle Engineering, P.E. Brown & Caldwell Bryson Industrial Services, Inc. Burgess & Niple, Ltd. Burns and Roe Enterprises, Inc. C K Associates, Inc. CRC & Associates, Inc. Cambridge Analytical Associates Camp and Associates, Inc. Carleton Engineers & Consultants Charles Licht Engineering Associates Chas T. Main, Inc. Civil & Environmental Consultants, Inc. Concord Environmental Services, Inc. Cremer & Warner Custom Environmental Services DPRA, Inc. Deuel & Associates, Inc. Donohue/JRP E. Roberts Alley & Associates, Inc. E. H. Pechan & Associates E.R. Carpenter Company, Inc. EAS Laboratories EMCOM Associates ENSCO ERM Southeast, Inc. Earth Sciences Consultants, Inc. Ebasco Environmental Ecology and Environment, Inc. Energy and Environmental Engineering-Science Enviro-Sciences, Inc. Environmental Associates, Inc. Environmental Exploration, Inc. Environmental Management International, Inc. Environmental Science Associates Environmental Technologies International Environmental Waste Technologies, Inc. Envirosphere Company Envisage Environmental, Inc. EraTech, Inc. Fay, Spofford & Thorndike Focus Environmental, Inc. Foth & Van Dyke And Associates Free-Col Laboratories Fuss & O’Neill, Inc. GAI Consultants, Inc. Gabbard Environmental Services Galson Corporation Gannett Fleming, Inc. GeoResearch Gimm Consultants Goldman Environmental Consultants Gossman Consulting, Inc. Graseby RTL H&W Management Science Consultants HGM Associates Handex Environmental Management Hanson Engineers, Inc. Hart Environmental Management Corporation Hatch Associates, Ltd. Hayden Environmental Group Hesketh, Howard E. - Ph.D., P.E. Hoydysh, Walter G. - Ph.D. IHI Environmental IT Corporation Industrial Analytical Laboratory Intera Information Technology Intex, Inc. Jack Faucett Associates John Mathes & Associates, Inc. Kennedy, Jenks Consultants Keystone Environmental Klohn Leonoff, Ltd. Kramer & Associates LAN Associates, Inc. Lake Engineering, Inc. LifeLiner Technology, Inc. Lowenstein & Associates M & L Environmental Consultant Mabbett, Capaccio & Associates Mark Group, The - Air Technology Division Med-Tox Associates Metcalf & Eddy, Inc. Eckenfelder, Inc. Eder Associates Engineered Systems International Entek Environment One, Inc. Environmental Consultants Association Environmental Management Environmental Science and Engineering Environmental Standards, Inc. Environmental Toxicology International Enviroplan, Inc. Envirosystems, Inc. Environmental Resources Management Falmouth Associates, Inc. Fluor Daniel Ford Bacon & Davis Inc. Four Nines, Inc. Frumerman Associates, Inc. G2 Environmental, Inc. GeoResearch, Inc. Gale/Jordan Associated, Inc. Galson Technical Services, Inc. Garden State Environmental, Inc. Gershman, Brickner & Bratton Golder Associates Goodfellow Consultants, Inc. Gradient Corporation Groundwater Technology, Inc. HDR Engineering, Inc. HZM Group Haniel Environmental Services, Inc. Harding Lawson Associates Hatch Associates Consultants Havens & Emerson Hayes, Seay, Mattern & Mattern Holcomb Environmental Services ICF, Inc. IT Corporation/Princeton Aqua Science Independence Institute Institute of Economic Problems Interscience, Inc. JACA Corporation James M. Montgomery Consulting Jordan, Jones & Goulding, Inc. Kenvirons, Inc. Killam Associates Koogler & Associates L. Robert Kimball & Associates Inc LaBella Associates, PC Law Environmental, Inc. Lockwood Greene Engineers, Inc. Luft Environmental Consulting MEI-Charlton, Inc. Malcolm Pirnie, Inc. McLaren/Hart Environmental Engineering Corporation Meredith/Boli Associates, Inc. Meteorological Evaluation Services Co., Inc. Microbac Laboratories, Inc. N-Viro Energy Systems, Ltd. National Laboratories, Inc. Northwest Engineering, Inc. OMC Environmental, Inc. Occusafe, Inc. Ontario Research Foundation PACE, Inc. PSARA Technologies, Inc. Pacific Geotechnical Associates, Inc. Paul Rizzo & Associates Penta Engineering Corporation Peter Barrett Consultants Phoenix Safety Associates, Ltd. Pintlar Engineering & Processing Corporation Princeton Testing Laboratory Project Catalyst RAM TRAC Corporation Ralph Stone & Company, Inc. Recon Systems, Inc. Rigo & Rigo Associates, Inc. SBE Environmental Corp. SE Technologies, Inc. Science & Technology Management, Inc. Senes Consultants, Ltd. Shredding Systems, Inc. Skelly and Loy, Inc. Solmar Corporation Steimle & Associates, Inc. Sverdrup Environmental, Inc. TRC Environmental Corporation Tencon, Inc. Terran Corporation Thomas M. Laronge, Inc. TransPacific Enterprise Truesdail Laboratories, Inc. United States Testing Company Walli Engineering, Inc. Waste Resource Associates, Inc. Westinghouse Resource En. Sys. Woodward-Clyde Consultants XCG Consultants, Ltd. Mill Creek Company, The Nardi Group, The New York Testing Laboratories O’Brien & Gere Engineers ORTECH Corporation Olver, Inc. Outokumpu Engineering Services PEI Associates, Inc. Pacific Environmental Services Parsons Brinckerhoff Energy Peake Engineering, Inc. Peoria Disposal Company Phoenix Chemical Laboratory, Inc. Pickard and Anderson Pollutech Environmental, Ltd. Proctor & Redfern, Ltd. R. Butler and Associates, P.E. RMT, Inc Reach Associates, Inc. Remcor, Inc. Rogers, Golden & Halpern SCS Engineers Sci-Tech, Inc. Scott, Allard & Bohannan, Inc. Shell Engineering & Associates Simon-EEI Inc, Toxcon Division Slosky & Company, Inc. Sound Resource Management Suburban Laboratories, Inc. TBF Toscano-Bernardi-Frey Ag Talem, Inc. Terracon Environmental, Inc. Tetra Tech, Inc. Thornton Laboratories, Inc. Trow Consulting Engineers, Ltd. Twin City Testing WCM Group, Inc. Warzyn, Inc. Wehran EMCON Wingra Associates Woodward-Clyde International York Laboratories Division Tableau accessible via le lien n°15: Waste Management. Nous avons laissé volontairement le texte du tableau dans sa totalité pour mettre en évidence la richesse de l'information dispensée. Une telle liste, obtenue par simple clic de souris, et qui plus est gratuitement est une source d'information importante, puisque l'on peut, à volonté, interroger à nouveau Internet (via AltaVista par exemple), pour essayer d'obtenir des informations sur ces diverses sociétés. 5.4.1.2.3 - Profils des sociétés et Internet On passe ensuite à l'exploitation du lien n°3, ACUREX. On obtient ainsi le profil de la société qui est le suivant: Home page de la soiété ACUREX "CORPORATE PROFILE Founded in 1973 as a group within Acurex Corporation, a former parent.company, Acurex Environmental is a leader in technology development, demonstration, and implementation. Over the years, Acurex Environmental has developed broad capabilities in industrial processes, advanced power generation systems, multimedia pollution prevention and environmental compliance, hazardous waste treatment and destruction, alternative fuels implementation and use, and transportation planning. Acurex Environmental is internationally recognized for cost-effective and sensible solutions for industry and government. In early 1993, Acurex Environmental Corporation and Geraghty & Miller, Inc., two of the nation's top environmental firms, combined their considerable resources and expertise through a corporate merger. Our capabilities were further enhanced in late 1993, when we joined Heidemij NV of the Netherlands, one of the world's preeminent international environmental and infrastructure firms, with projects in more than 80 nations. In early 1996, Piedmont Olsen Hensley, Inc., joined Geraghty & Miller, further expanding the engineering and architecture capabilities of our family of companies. We have 140 offices throughout the world. As a result, we now provide our clients with a broad array of capabilities of the highest caliber worldwide." Ce profil contient aussi des liens avec GERAGHTY & MILLER, ainsi qu'avec deux autres Sociétés. On constate ainsi, que simplement par l'Internet, on peut reconstituer le groupe, alors que ces informations n'étaient pas présentes dans les bases de données ni dans l'indication fournie dans la lettre d'information. On illustre bien ici, la notion de point de départ, puis à partir de celui-ci une possibilité de remontée vers les informations sources. On peut alors accéder à une description de la société GERAGHTY & MILLER en utilisant le lien, etc... Home page de la Société GERAGHTY & MILLER Poursuite de la recherche, montrant que la Société Geraghty & Miller a une société "mère" qui se nomme ARCADIS .... Après avoir exploité les possibilité de l'Internet pour faire "le tour" des sociétés qui gravitent dans le groupe où se trouve la Société ACUREX, il ne nous reste plus, toujours avec l'Internet que de nous renseigner sur les brevets qui pourraient avoir été déposés par ces divers sociétés. Pour cela nous allons faire appel au serveur IBM, et nous procéderons alors soit avec le nom du produit: Ikon, soit par le nom de la ou des sociétés: Home page du serveur de brevet d'IBM On voit ainsi comment de proche en proche, en utilisant un ensemble de sources d'informations, on pourra soigneusement avoir une vision de plus en plus précise de l'information. Ce travail préliminaire sera ensuite terminé si cela est nécessaire par des informations de terrain, mais on sera dans les meilleurs conditions pour fixer des cibles et essayer d'obtenir des informations pertinentes, complétant les précédentes. 6 - Le triptyque stratégique dans le système d’information Nous venons de voir certaines constantes dans les différents types d’information que nous avons abordés. Nous allons voir maintenant les étapes principales qui vont permettre la création d’un système d’information efficace, apte à seconder les firmes hypercompétitives. Les actions a mener reposent sur un triptyque que nous qualifions de stratégique, car il va soustendre toute l’architecture du système. Il permettra aussi de situer tous les éléments qui devront travailler ensembles dans celui-ci en spécifiant dans les grandes lignes leur positionnement. La figure suivante expose les 3 points principaux de l’organisation d’un système d’hyperinformation, avec un préalable, la définition des objectifs stratégiques. Cette définition est généralement le fait des centres de décision élevés, généralement avec l’aide d’experts. On rapprochera cette figure de celle qui est indiquée dans les chapitres précédents et qui touche au plan de renseignement. La plan de renseignement, la collecte, la validation et la transmission explicitent au niveau du renseignement ce qui ici est plus formel et s'adresse à des services de l'entreprise plus "cristallisés" et plus lisibles. Les points principaux du système d'hyperinformation Objectifs stratégiques EXP ERT S Méthode Collecte des informations formelles et informelles Outi Analyse et gestion des informations ls Produits d'information Comprendre les intéractions mises à jour au cours de l'analyse. Le triptyque stratégique dans la mise en place d'un service de renseignement Un point préalable, puisque tout ne peut pas être observé: définir des objectifs stratégiques. est un point important qu'il ne faudra jamais négliger. Connaître les thèmes, les domaines (on appelle cela les Facteurs Critiques de Succès (cf. F. Jakobiak, déjà cité, et Chief Executives define their own data needs, Rockart J.F.C., Harvard Business Review, March-April 1975, pp.81-93) qui permettent à l'entreprise de maintenir ou d'améliorer sa place dans la compétition (nationale, internationale) est un exercice qui doit être fait périodiquement par les décideurs. De même, la définition de ces facteurs critiques, ainsi que l'usage qui sera fait de l'hyperinformation résultant de l'ensemble des mécanismes que nous avons ou allons décrire est indissociable d'une stratégie d'entreprise, généralement à moyen et long terme. 6.1 - Les étapes principales * Collecte des informations, en tenant compte des divers types d’informations de leur constantes de temps, des méthodes de collecte. Cela va nécessiter différentes stratégies, des acteurs et générer des coûts. * Management de ces informations et analyses de ces dernières. Il faut donc stocker, accéder, distribuer, analyser les informations, généralement par des systèmes automatiques ou semi-automatiques, voire manuels. * Comprendre les relations entres informations, thèmes, individus, entreprises mises à jour dans l’étape d’analyse. Cette compréhension est une étape clé. Elle est généralement axée sur le présent et le futur proche. Elle met en jeu des groupes d’experts d'origine diverse selon les objectifs poursuivis. Un corollaire: créer des produits d’information stratégiques (informatiques ou non) adaptés aux décideurs. Ces trois étapes essentielles s’accompliront avec l’aide d’un certain nombre de méthodologies et d’outils spécifiques qui seront mises en oeuvre: la gestion des informations, la production d’informations nouvelles par analyses manuelles ou automatiques, leur diffusion, la gestion des groupes d’experts et les méthodologies de travail à utiliser (par exemple l'utilisation de scénarios). Enfin, un point important: l’animation du système qui devra être confiée à une ou plusieurs personnes spécialisées dans ce domaine encore flou, celui des systèmes d’hyperinformation pour les entreprises. 6.2 - La mise en perspective Revenons brièvement à la notion de compréhension. Certains verrons, dans cette démarche la compréhension de graphes complexes ou des corrélations entre données, par exemples des données conduisant à des matrices (qui fait quoi par exemple). Ceci est simplement le premier stade. Comprendre signifie replacer le "qui fait quoi" au niveau des menaces ou des opportunités pour l'entreprise. Savoir qui fait quoi c'est très bien, savoir pourquoi est encore mieux. Souvent, essayer de comprendre c'est aussi simplement rapprocher deux événements et s'interroger sur leurs relations. On n'est pas toujours habitué, dans les pays latins à procéder de la sorte. Témoin en est la photographie ci-dessous, extraite du Financial Times du 17 Mars 1997. Présentation par le Financial Times de l'affaire Renault - Vilvorde Ce numéro du Financial Times est paru dans la semaine qui a suivi l'annonce par Renault de la fermeture de son usine de Belgique, annonce qui a fait beaucoup de bruit et a déclenché de nombreuses manifestations, syndicales et politiques. Mais, dans ce bruit de fond et bien qu'écoutant la radio, regardant la télévision et lisant les journaux nationaux, je n'ai pas vu de façon aussi marquée la présentation des faits relatés dans le Financial Times Une manifestation d'un côté, de l'autre un investissement important de Toyota pour créer (à Lens, Valencienne ?), en France une usine qui permettra d'accroître considérablement la production de ce constructeur en Europe. Cette présentation, au-delà du sensationnel nous incite à essayer de comprendre, comment en sommes nous venus là et pourquoi ? 6.3 - Les scénarios, les "shadow teams" Lorsqu'une décision, doit être prise, elle va être une dernière fois passée au crible de certaines méthodes pour permettre d'estimer l'impact de celle-ci sur l'activité de l'entreprise et sur son environnement. Parmi les méthodes possibles, la méthode des scénarios et celle qui utilise les "shadow teams", sont particulièrement efficaces. 6.3.1 - Les Scénarios C'est une méthode très utile, à la fois pour stimuler un groupe et aussi pour envisager les répercussions d'une décision. Selon la manière dont le scénario est conçu et selon le domaine auquel il se rapporte, il peut concerner des attitudes réactives ou proactives. On distingue des scénarios qui s'appliquent à des domaines trés précis, ainsi que des scénarios qui concernent des domaines beaucoup plus larges. Les types d'informations qui pourront être pris en compte seront de ce fait différents. Technology Watch and Competitive Intelligence Analye d'un scénario Paul E. MacCosbe, GlaxoWellcome Inc. Triangle Park, NC DATA ---> Information --> CTI --> Scenario --> Développement stratégique --> Actions au niveau du groupe Exemples: groupes pour lancer un nouveau produit Alliances (licensing, alliance stratégique...) Stratégie du groupe pour lancer de nouvelles actions ou pour choisir de nouvelles directions Procédure: Definir les objectifs -- Collecter CTI Developper les theories -- Identifier les problèmes -- travailler et affiner les résultats .... C.R.R.M. Un scénario peut être réactif ou proactif. Exemple de processus pour la conduite d'un scénario Technology Watch and Competitive Intelligence Analyses de scénarios Paul E. MacCosbe, GlaxoWellcome Inc. Triangle Park, NC NIVEAU M iCRO Collecte permanente des données Organisation et analyse Gestion des données Groupes de projets, résultats possibles Scenario Menaces potentielles Opportunités potentielles Developper et implémenter le stratégie C.R.R.M. C.R.R.M. Exemple d'un scénario au niveau micro Technology Watch and Competitive Intelligence Analyse de scénarios Paul E. MacCosbe, GlaxoWellcome Inc. Triangle Park, NC Niveau Macro CT I Etude de marchés besoins des cleints Potentialité des concurrents Objectifs du groupe proactive Information économique état économique Affaires générales politique, règlementations scenario Menaces potentielles Opportunités potentielles Commerce, Besoins réaction Développement et implémentation de la stratégie C.R.R.M. Exemple d'un scénario au niveau macro Il faudra veiller à ce que le système d'information global soit réalisé de telle sorte qu'il puisse être utilisé en temps que de besoin lors de la conduite d'un scénario. Généralement les scénarios sont conduits soit en réunion, soit en délocalisé, mais de toute façon dans des intervalles de temps relativement courts. Ceci montre bien l'importance de l'accès aux bonnes informations en temps quasi réel, ainsi que de bien préparer le scénario sur le plan des dossiers d'informations. 6.3.2 - Les "shadow teams" Souvent, comme le fait remarquer Babette Bensoussan (MindShifts Matters, A publication of the Mindshifts Group Pty Limited (A.C.N. 057215 022), Novembre 1997) très souvent les directeurs des services d'Intelligence Compétitive sont envahis par une masse d'informations internes et externes. Même avec l'aide de systèmes d'analyse automatique associés à des réseaux informatiques "intelligents", on ne parvient plus à réaliser des analyses opérationnelles dans un laps de temps raisonnable. C'est pourquoi, des "shadow teams" se développent. Leur rôle est de connaître parfaitement en utilisant tous les types d'informations possibles, le ou les concurrents et apprendre ainsi à réagir comme eux. Cette équipe servira alors "d'avocat du diable", lorsque des décisions devront être prises. Connaissant parfaitement le concurrent, l'équipe aura appris à réagir comme lui et ainsi elle permettra d'apprécier certaines réponses stratégiques. Cette équipe, selon sa composition (liée aux besoins directs de l'entreprise) pourra être utilisée dans les domaines techniques, économiques, de marketing et financier. Bien connaître les concurrents en ayant développé de façon spécifique cette capacité en interne, constitue pour l'entreprise un atout majeur, spécialement dans les environnements perturbés qui sont une des dominantes actuelles. 7 - La collecte des informations formelles Nous allons brièvement reprendre avant d’aborder en détail la collecte des informations et sa stratégie, la typologie des informations. Celle-ci a été publiée de nombreuses fois, mais il est nécessaire, dans le contexte qui nous intéresse de la rappeler: Le table suivante met en évidence les quatre principales typologies de l’information. Soulignons, bien que les proportions (en volume) soient variables selon les domaines dans lesquels on travaille, que l’information formelle ne peut en aucun cas constituer l’ensemble des informations essentielles. Elle doit impérativement être complétée par de l’information informelle plus récente et plus tournée vers le futur, ainsi que par les informations des foires et salons et des experts de l’entreprise. Les principales typologies de l'Information Informations Formelles, sur supports, Publications, Brevets, Livres, Bases et banques de données ... 40% en volume Informations floues ou Informelles, pas nécessairement sur un support, démarche active pour aller les recueillir à l'extérieur de l'entreprise. 40% en volume Mémoire d'entreprise, Experts, Savoir Faire 10% en volume Foires, Salons, Expositions scientifiques, certains Colloques... 10% en volume CRRM Typologie des informations On souligne à nouveau la pluralité des informations nécessaires à la décision ainsi que les caractéristiques qui leurs sont propres et qui vont nécessairement induire des acteurs particuliers ainsi que des stratégies particulière de collecte. (Le renseignement stratégique au service de votre entreprise, Hunt C., Zartarian V., Paris Ed. First, 1990) 7.1. - La collecte des informations formelles C’est sans doute le domaine où un effort important a été réalisé, on pourrait même dire depuis les premiers papyrus l'information formelle a été classée, conservée. Ceci à conduit à mettre en place des écoles, des services, des bâtiments et plus récemment des systèmes informatiques pour la gestion, l’accès, voire la diffusion de ces informations. Mais, la caractéristique principale de cet ensemble, c’est qu’étant formalisé, il a tendance à rester lié à ses techniques et souvent à ne pas évoluer vers des recueils d’informations très différentes, pourtant vitales pour l’entreprise. La vision taylorienne de ce système a conduit bien des entreprises industrielles à positionner le service d’information documentaire en dehors des circuits de décision. En fait, agissant en tant que de besoin, il fournit les informations demandées ou les synthèses. Il peut aussi gérer une ou des bases de données internes, diffuser des profils documentaires, etc., mais il ne participera pas directement à l'analyse des contenus. Création d'un service de Veille • Le positionnement des acteurs Autres services possédant leurs informations Decision S.I.D. P Info. Texte BD, Normes etc... Dev. FLOUE Rech tactique CRRM opérationnelle Le positionnement du service d'information documentaire La figure précédente montre les différents positionnement possibles du service d’information documentaire par rapport aux informations pour décision nécessaires à l’entreprise. On verra par la suite, que pour rapprocher le Service d’Information Documentaire de la décision, il faut que ce dernier gagne en agressivité et en dynamisme. Cela veut dire aussi que ses missions et les moyens adéquats devraient être redéfinis en fonction de ces nouveaux objectifs. Parmi ces derniers une jonction très forte entre le système documentaire et le service brevet s’impose. Nés dans le cadre juridique, les brevets deviennent de plus en plus un élément de comparaison (bench-marking) ou de recherche de technologies existantes. En outre une connaissance poussée de la Classification Internationale des Brevets (CIB) et des outils susceptibles d’y accéder localement en texte intégral, permet d’analyser finement les alternatives technologiques, les applications. Une autre façon de faire, pour rapprocher le service d’information documentaire des centres de décisions réside dans les analyses globales que peuvent effectuer les services d’information documentaire, dotés des logiciels d’analyse automatique et de représentations infographiques des données. Ce sont des actions de ce type qui éviteront que ne se substitue de plus en plus des services parallèles, plus proches des systèmes de décision de l’entreprise, et permettant, sans être spécialiste d'accéder à une information récente, formalisée et souvent intégrée directement, dés le télédéchargement dans un logiciel de traitement de texte. C'est par exemple le cas pour le système MAID ou pour des données venant de l'Internet. Cette dualité devient de plus en plus visible, si on analyse les systèmes d’accès à l’information. De plus en plus conviviaux, ils vont permettre de constituer des rapports en intégrant directement les données dans votre traitement de texte, en transférant des séries directement dans Excel, etc.. (Exemples de Maid ou de Reuters). Incontestablement, la mutation des informations nécessaires, tant au niveau de la forme que des contenus va générer de nouvelles tâches. Par qui seront elles réalisées, sans doute par des experts ayant une double ou triple compétence. De nouveaux métiers sont entrain de se créer, localisés dans les grandes entreprises, externalisés en temps partagé pour les plus petites, ils globaliseront l'information, analyseront les données les plus pertinentes et fourniront aux experts de l'entreprise les données stratégiques nécessaires à leur réflexion. 7.2 - La stratégie d’accès aux informations issues de bases et de banques de données Les bases et les banques de données ont constitué de tous temps un réservoir d’information très important. De plus en plus les producteurs offrent l’accès à des bases de données variées. Le formalisme et l'accès à ces bases, qui a été et reste popularisé par tout un ensemble d’acteurs, au niveau de la télématique est entrain de se transformer. Certes, l'accès télématique constitue encore l’outil privilégié de consultation, mais de plus en plus des supports différents apparaissent. Dans certains cas l’équivalent en ligne n’existe pas. L’apparition de l’Internet a conduit aussi à l’avènement d’informations d’une autre nature. On citera pour exemple les plaquettes informatiques des sociétés concurrentes qui deviennent disponibles à l’échelle mondiale. Elles étaient évidement consultées lorsqu’elles n’apparaissaient que sous forme de produit papier, mais il fallait un système relativement lourd de collecte et de gestion alors qu’actuellement lorsqu’elles sont sous forme informatisée, le simple accès à l’internet permet de les consulter, de les archiver au niveau planétaire. Cela va nécessiter une certaine mutation dans les services documentaires qui devront acquérir une expérience nouvelle et une nouvelle façon de décoder les messages contenus dans ces nouveaux supports. On ne peut pas tout regarder. Ceci est applicable au niveau de la mise en place de systèmes de Veilles, et reste aussi valable dans le cadre de l’information. Il serait vain de vouloir tout atteindre, car cela coûterait trop cher et nécessiterait trop de moyens. En outre l’abondance de l’information serait telle qu’il serait impossible de tout lire et de tout analyser. Il faut donc chercher à situer l’action de collecte au plan stratégique afin de déterminer comment on va organiser celle-ci. L’ensemble des bases de données mondiales est très large. Elles se recoupent entre elles et souvent leur couverture est très variables. Rappelons que s’il existe plusieurs milliers de bases de données disponibles, plus de 80% du chiffre d’affaire est réalisé par un très petit nombre de bases de données. Les mêmes lois que les lois bibliométriques (La Bibliométrie et ses techniques, H. Rostaing, Co-édition Sciences de la Société, Centre de Recherche Rétrospective de Marseille CRRM, Marseille 1996) s’appliquent dans ce domaine. Ceci ne veut pas dire que les autres bases de données ne valent rien ou n’ont pas la qualité suffisante, mais simplement qu’un ensemble restreint de bases de données couvre une grande partie des connaissances nécessaires. Mais, dans l’option stratégique qui est la notre cela est-il suffisant ? 7.3 - Quelles sources rechercher Rappelons nous ce qui a été dit dans les chapitres précédents, tant au niveau des avantages, des constantes de temps et de l’anticipation. Il est évident, que si on se repose uniquement sur les bases de données principales (on dit souvent qu’il faut interroger 3 bases de données pour réaliser une bonne recherche documentaire), on sera dans le domaine des nécessités, mais pas dans celui des avantages. En fait que recherchons nous ? Nous voulons en un premier temps connaître ce que les autres connaissent. C’est le but de l’utilisation des bases de données principales. Mais, en outre, nous voulons essayer de nous différencier par rapport à nos concurrents, de nous donner les moyens de penser à la fois comme eux, mais aussi autrement. C’est là qu’une stratégie est nécessaire. Elle doit nous permettre par l’analyse des serveurs, des bases présentées, (nous verrons ensuite les contenus) d’essayer de voir comment on peut se différencier des concurrents, existe-t-il des sources d’informations différentes, des bases en CD-ROM ou des serveurs que nous ne consultons pas systématiquement, pourquoi ? Devons nous toujours aller au supermarché, dans certains cas pourquoi ne pas se laisser tenter par les boutiques spécialisées. CRRM Analyse de l'Information Texte • Répartition Sources et serveurs Brevets Info. Sci Presse Normes Colloques Lit. Tech. générale Orbit où qui prix Dialog où qui prix Questel où qui prix CD-ROM où En même temps une analyse des volumes estimés, des bases de données disponibles et du budget prévisionnel est nécessaire Analyse des sources d'informations formelles sur un sujet Evidement il faudra toujours associer à cette démarche une analyse de coût, ce qui constitue la meilleure façon de demander les moyens nécessaires en mettant en évidence ce qui ne sera pas regardé et analysé. Il faudra ainsi, dans l’espace informationnel qui nous est offert, effectuer en permanence une analyse critique des sources, non pas en considérant uniquement les bases de données principales (dans ce cas tout le monde le fait, et on est dans le cadre des nécessités) mais au contraire quelles sont les données, les bases, qui nous permettrons d’acquérir un avantage par rapport aux concurrents. Il faut donc regarder l’information, même formelle avec une attitude nouvelle: je dois connaître ce que tout le monde connaît, mais par contre je ne dois pas me contenter de cela uniquement. Je dois aussi en fonction des objectifs de l'entreprise, des menaces potentielles, essayer de localiser les sources d’informations qui nous donnerons un avantage, même si celui-ci ne dure pas longtemps. Dans ces analyses, certains font aussi entrer en compte une appréciation des coûts, à la fois au niveau de la recherche et de l'utilisation des bases de données formelles, mais aussi dans certains cas pour mettre en place ou non, ou pour estimer les coûts d'une base de données informelle à créer. Nous n'aborderons pas, dans ce cadre l'économie de l'information, mais pour plus de renseignements sur le sujet, nous conseillons aux lecteurs de lire: Economie de l'Information Spécialisée, Valeur, Usages Professionnels, Marchés, par Daniel Confland, Editions ADBS, 1997, ISSN 1160-2376. 7.4 - Quels sont les vecteurs d’informations formelles dans le champ de mes préoccupations Une bonne pratique avant de commencer à collecter de l’information est d’essayer d’analyser quels sont les supports de cette information. Que doit on lire, quels abonnements souscrire (si cela est strictement nécessaire), en bref, comment se font dans le domaine qui nous préoccupe les transferts d’information. On peut, pour arriver à cet objectif, interroger des experts. C’est une bonne pratique, mais les experts ne peuvent pas être au courant de tout. Comment alors opérer ? On peut, à partir des grandes bases de données avoir une première approche. Une fois définie le sujet à aborder (cette définition doit être réalisée avec un spécialiste d’information documentaire et on doit prendre soin de tester les résultats pour être sûr de ne pas laisser de côté des pans entiers d’information), il sera facile de réaliser des interrogations successives, puis de délimiter dans chacune de ces interrogations la répartition statistique des sources, et le nombre de références quelles contiennent. Cela donnera une idée bien plus claire que certaines affirmations péremptoires d’experts. Ces données seront facilement déterminées en sériant un corpus par un certain nombre de mots clés ou autres paramètres d'interrogation, puis en appliquant sur le nombre de références sélectionnées une commande du type GET (serveur Questel - Orbit) ou RANK (Serveur Dialog), ou MEM (serveur Questel)...sur le champ type de document. Cela évitera par exemple de prendre pour argent comptant l’affirmation d’un expert citant quelques journaux scientifiques et quelques thèses de son domaine de travail, et omettant de signaler que plus de 60% des travaux apparaissent dans des brevets ( rarement republiés dans des journaux scientifiques) ou dans des journaux non conventionnels. Avant de commencer un suivi devant conduire à des analyses stratégiques, il devient de plus en plus nécessaire d’avoir la meilleure vision possible du panorama des supports et des systèmes de diffusion. Dans certains cas, cette analyse pourra être complétée par une analyse encore plus fine des laboratoires, des acteurs, des thèmes et de leurs relations etc. La même analyse pourra être réalisée sur un groupe de références représentatives de la production scientifique d'un groupe de personnes, d'une ville. L'exemple suivant montre les principales revues et sources de publications d'une recherche réalisées sur la production dans le domaine de la Chimie, à partir des Chemical Abstracts, de la Ville de Marseille (ce qui est indiqué ici n'est qu'un extrait représentatif). Le listing est réalisé par extraction et comptage du champ source dans lequel on isole (Dataview) le titre du Journal ou le nom de la source de publication. Sources de publications par classées par Sources de publications classées par ordre fréquences alphabétique 7 5 4 7 5 4 7 5 4 3 3 3 3 3 3 3 3 3 2 2 2 2 2 2 2 2 2 Biol Tumeurs Cereb Gliales Eur J Biochem Shock Waves Proc Int Symp 20th Polycyclic Aromat Compd Ann Falsif Expert Chim Toxicol Adv Concepts Tech Therm Modell Proc Eurotherm Semin 36th Process Technol Proc Proc Rencontre Moriond Phys Chem Liq 1 1 3 3 1 1 2 1 3 1 1 1 1 2 1 3 1 1 1 Acta Crystallogr Sect C: Cryst Struct Commun 3 Adv Concepts Tech Therm Modell Proc Eurotherm Semin 36th 1 Adv Exp Med Biol 1 Am J Trop Med Hyg 2 Analusis 1 Ann Biol Clin 3 Ann Falsif Expert Chim Toxicol 1 Ann Med Interne 1 Annu Rep Conf Electr Insul Dielectr Phenom J Phys IV 1 1 1 Anticancer Res EMBO J 1 1 1 Appl Radiat Isot Conf Rec IEEE Photovoltaic 1 1 1 Arch Oral Biol Spec Conf 1 1 1 Biochem J 2 2 2 Analusis 7 7 7 Biol Tumeurs Cereb Gliales 1 1 1 e+e Collisions TeV Energ: Phys 1 1 1 Bull Inst Pasteur (Paris) Potential Proc Workshop 1 1 1 Bull Soc Chim Fr 1 1 1 Transm Subacute Spongiform 1 1 1 Cell Pharmacol Encephalopathies: Prion Dis Int 1 1 1 Clin Mol Pathol Symp 3rd 1 1 1 Combust Sci Technol 1 1 1 Toxicol Environ Chem 1 1 1 Comput Appl Biosci 1 1 1 Tenside Surfactants Deterg 1 1 1 TOPSEAL 96 Int Top Meet 2 2 2 Conf Rec IEEE Photovoltaic Demonstr Pract Achiev Nucl Spec Conf 2 2 2 EMBO J Waste Manage Disposal 1 1 1 Electrochim Acta 1 1 1 Semicond Insul Mater 1996 1 1 1 Endothelium Proc 5 5 5 Eur J Biochem Conf 9th 1 1 1 Eur J Clin Pharmacol 1 1 1 Rev Sci Instrum 1 1 1 Eur J Drug Metab Pharmacokinet 1 1 1 Quarks Colliders Proc Lake 1 1 1 Eur J Hum Genet Louise Winter Inst 10th 1 1 1 Eur J Immunol 1 1 1 Pure Appl Opt 1 1 1 Protein Eng 1 1 1 Eur Space Agency [Spec Publ] 1 1 1 Photochem Photobiol ESA SP 1 1 1 Europhys Lett 1 1 1 Pharmacology 1 1 1 Experientia 1 1 1 Pathol Oncol Res 1 1 1 Food Technol Biotechnol 1 1 1 Pain 1 1 1 Origin Evol Biol Energy Convers 1 1 1 Fullerenes Fullerene Nanostruct 1 1 1 Org Geochem Proc Int Wintersch Electron 1 1 1 Numer Heat Transfer Part A Prop Novel Mater 10th 1 1 1 Nucl Phys B Proc Suppl 1 1 1 Gene Delivery Syst [OECD 1 1 1 Neurosci Lett Ottawa 95 Workshop] ....................................................... ..................................................... 2 2 2 2 2 2 2 2 2 On constate, dans ce tableau qui n'a été effectué que sur un extrait de 100 travaux publiés pris au hasard sur environ 900 au total (travaux publiés en 1996), la forte dispersion des sources, ce qui est classique en bibliométrie (La Bibliométrie et ses Techniques, Hervé Rostaing, Coédition Sciences de la Société-CRRM, Marseille, 1996). On constate aussi la présence de Conférences (en gras dans le tableau), du moins celles indexées par Chemical Abstracts, ce qui montre que la publication est loin d'être le seul vecteur de transmission des connaissances dans certains domaines. Le tableau suivant met en évidence les différentes opérations d'analyses bibliométriques qui peuvent être réalisées sur un corpus d'informations structurées. Graphical pair lexicon Graphical form lexicon Edition Contingency Tables Frequency lists Presence - Absence tables Symetric tables Network A14G03B02D21B05C07P34S05B01P32 D22A96B07 1 1 1 1 1 1 Classification 1 1 1 1 1 1 1 1 1 Sériation 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 Inertial analysis 1 Principaux types d'analyses et visualisation des résultats Le diagramme ci-dessus montre les différents types de traitements qui peuvent être utilisés dans le cadre d’une analyse automatique de l’information (qu’elle soit formelle ou informelle). A partir de ces analyses on met en évidence des cibles particulièrement intéressantes qui permettent aux experts de réagir, et qui signalent aussi clairement les personnes, lieux, thèmes, où il faut essayer de recueillir plus d’informations, récentes, informelles dans la majorité des cas. Nous reviendrons plus en détail sur ces types d'analyses automatiques. Enfin, il faudra, en fonction du nombre de travaux publiés, commencer une étude de coût et examiner avec des experts comment donner si cela est possible un ordre de pertinence. Mais, n’oublions pas, que nous voulons savoir ce qui se passe, et que ce qui est réellement intéressant est l’idée de départ. La littérature formelle nous permet, par le biais des bases de données d’accéder à des ensembles de données de plus en plus importants. Les restreindre en supposant que ce qui est publié dans certains journaux est meilleur que dans d’autres est dans le cas de la recherche d’idée un non sens. Une idée nouvelle ne naît pas nécessairement dans un journal où les travaux publiés sont figés par les a priori, les examinateurs, et l’ensemble des lecteurs. Ainsi, de proche en proche on arrivera à une vision claire du domaine, des transferts d’information et des stratégies de collecte et d’accès nécessaires. Cette méthodologie, ici plus axée sur l’informatique et l’analyse, sera aussi utilisée, mais avec des variantes pour l’information informelle. 8 - La collecte des informations informelles Définissons tout d’abord ce qui peut caractériser une information informelle. Certains diront qu’elle n’a pas de support, d’autres qu’elle peut apparaître sur un support, mais de façon aléatoire. Des définitions différentes feront appel à la nécessité d’aller chercher ces informations sur le terrain, avec des spécialistes de cette forme de collecte et en organisant cet ensemble. Je pencherai plus particulièrement vers cette dernière définition. En effet si je peux, directement de mon bureau accéder à une base de données et réaliser certaines extractions d’informations, il n’en va pas de même si je veux connaître l’avis des représentants sur un produit concurrent dans un secteur géographique donné. Dans le premier cas je vais faire appel à des spécialistes de l’information documentaire, dans le second cas il va falloir formuler une demande en mettant en avant ce que l’on recherche (phase briefing), puis il faudra réaliser l’opération sur le terrain et «consolider» les résultats (c’est la phase du debriefing). On va ainsi, dans le second cas, hors de son espace géographique, hors de l’entreprise, et c’est sur le terrain que les informations sont récoltées. Il est donc évident, si on se place dans cette hypothèse, que divers services de l’entreprise possèdent de par leur fonction des éléments d’informations informelles. Il faudra donc, en un premier temps faire en sorte que les différents services de l’entreprise communiquent, c’est le premier point, mais soient aussi engagés dans la recherche des informations informelles et connaissent clairement l’enjeu de cette recherche. La figure suivante fournie à titre indicatif un début d'analyse sur les sources d'informations informelles qui seraient les plus utiles et en même temps les stratégies à mettre en oeuvre et les questions de base à se poser. Analyse des sources informelles Données indiquées à titre indicatif • . Lobbying Competiteurs Fournisseurs ++ ++++ +++++ Clients Les gens ++++ + Meetings +++ Universités + Presse ++ STRATEGIE Qui va rechercher les informations ? Où, Quand, Comment ? Quels seront les services concernés ? Quelle sera la constante de temps ? Qui gerera les informations CRRM Présentation d'une analyse simple des sources d'information informelles On a coutume de dire que c’est à l’interface de la R&D et du marketing que certaines "choses" se passent. Dans le cadre de l’hyperinformation, nous étendrons cela à tous les services de l’entreprise susceptibles d’être en relation avec l’extérieur (achat, contretypage, service après vente, service commercial, agence de voyage, participants à des expositions à des colloques ...) Bien évidemment, selon les pays, les entreprises, les habitudes, la rétention d’information va jouer son rôle. Si cela est la cas, il faudra essayer de changer les comportements. On ne pourra plus assurer son avancement si l’entreprise fait faillite. Or, un bon système d’information est une assurance contre l’adversité. Remarquons simplement qu’au Japon, la rétention d’information, si elle est vérifiée peut être une cause de rétrogradation, voire de licenciement. N’oublions pas, non plus, que dans un système hypercompétitif, ce n’est pas en se pénalisant soi-même par une rétention interne d’information que l’on progressera, mais au contraire par une action globale, orientée vers le développement d’avantages compétitifs pour l'entreprise. 8.1 - Les capteurs d'informations externes Il y a généralement beaucoup de services, de personnes, qui par leurs activités sont en contact avec l'extérieur de l'entreprise. Une analyse rapide doit permettre de délimiter les services, les personnes, et les champs d'information qui sont susceptibles d'être balayés. Cette analyse est généralement faite avec les services du personnel de l'entreprise et nécessite une bonne connaissance de l'organigramme général ainsi que des fonctions attachées à chaque service, et dans ces derniers les responsables de ces fonctions. Il sera ainsi possible de réaliser une cartographie (le terme n'est pas ici une image, mais une réalité), car au delà de la simple fonction se juxtapose la notion de territoire géographique couverts par ces différents services. Ensuite, on essaiera et si cela est possible avec leur responsable, de mieux connaître les types d'informations qui pourront être rassemblées. Par exemple, le service achat, en étant en contact avec des fabricants de machines, ou des pourvoyeurs en matières premières est susceptible d'interroger ces derniers sur l'état de l'art dans les produits ou composés de substitution, des essais et orientations éventuellement prises par les concurrents, leurs fréquences de livraisons dans la région, ... De même, les représentants, avec leurs multiples contacts, sont des capteurs privilégiés. Un autre élément important d'information est fourni par l'analyse des lieux (expositions, manifestations professionnelles, réunions de syndicats professionnels, colloques, congrès...) où on peut être en contact avec les concurrents ou les utilisateurs potentiels. Cet aspect est important. Il est conseillé de réaliser une liste relativement exhaustive puis d'essayer de déterminer les niveaux d'intérêt (pour notre entreprise) de ces manifestations. Quant on parle ici de niveau d'intérêt, c'est au plan du recueil d'informations, d'indices, que l'on se place. Une fois cette étape réalisée, il faudra s'organiser, déterminer en tenant compte des forces financières et en personnel disponible ce qui pourra être suivi et analysé. Lorsque cela est possible on peut trouver des spécialistes qui, pour plusieurs entreprises peuvent visiter des salons, aller à des manifestations scientifiques (les colloques de l'ACS (American Chemical Society) aux USA regroupent plusieurs milliers de personnes avec des centaines de communications et des expositions) et rechercher des informations. Dans ce cas la déontologie du partenaire choisi doit être prise en compte. Mais, comme l'on ne peut pas tout faire, un travail en "pool" est souvent un palliatif intéressant. Une représentation possible de cet ensemble de capteurs pourrait être faite de la façon suivante: CRRM Relations extérieures état au xxx-xxx-1997 Un clic sur service achat conduit à l'ouverture de fenêtres de produits et de services, puis au nom et tel. des personnes concernées R&D recherche service achats ANIMATEUR Marketing Stagiaires DRH un clic sur personnes concernées va nous donner accés aux derniers rapports ou thèmes abordés. Contentieux Rapports et autres Informations Exemple de système élaboré de dissémination de l'information La figure précédente est une vision fragmentaire d'un travail réalisé par le CRRM pour un tiers. La réalisation en hypertexte est faite sous Acrobat d'Adobe. Les produits obtenus peuvent aussi être diffusés à l'intérieur de l'entreprise sous un Intranet ou sur tout autre support. La mise à jour est faite tous les six mois. Un CD-ROM est gravé avant chaque mise à jour. Ce qui est le plus ardu dans une telle approche, ce n'est pas nécessairement le coût, mais la constance dans la mise à jour, le maintien des données, en un mot la qualité du système d'information mis en place. On peut aussi par grand thèmes, réaliser une base de données sur les contacts extérieurs, les manifestations, les personnes susceptibles de se déplacer, etc. De toute façon, ces sources d'informations extérieures ne peuvent pas être négligées. Soit on s'implique directement si la société en a les moyens, soit on essaie de s'organiser pour mieux cibler ce qui se passe, non pas en attendant le compte rendu de la manifestation qui peut au plan scientifique apparaître dans des bases de données avec plusieurs mois voire une année de retard, mais en essayant d'obtenir une information fraîche. Pour cela on peut s'inscrire à un colloque sans y aller physiquement (on aura alors en retour les comptes rendus qui seront envoyés, et on apparaîtra sur la liste des présents), soit on peut utiliser une autre tactique. Par exemple, pour en revenir aux Colloques de l'ACS, on peut essayer de savoir quels sont les laboratoires français qui participent à cette manifestation, et demander à la ou les personnes qui vont y aller de regarder certains aspects au niveau des communications ou de l'exposition, moyennant une contrepartie financière. Ainsi, avant de se lancer dans l'analyse de ce qui va être collecté, des cibles à aborder, etc... on essaie d'avoir la meilleure vision possible des capteurs de l'entreprise sur le terrain. On y associe aussi une notion des coûts et des performances, ainsi que de la notion de temps (fraîcheur de l'information). 8.2 - Que collecter, comment fixer les cibles Collecter l’information informelle suppose un objectif précis. On peut distinguer deux aspects de la collecte: une collecte tous azimuts pour les personnes curieuses allant hors de l’entreprise (au terme tous azimuts, je préférerai le terme de secteur d’activité ou de produits, afin de mieux focaliser les énergies et d’être plus performant en dispersant moins les efforts), puis une collecte finalisée, où certaines personnes, mieux entraînées que les autres et ayant plus d’expérience vont essayer d’obtenir des réponses précises à certaines questions. Il va donc falloir, de même qu’en Veille Technologique on approche un problème par le biais des Facteurs Critiques de Succès, des dossiers généraux d’information puis de l’information critique à réactualiser, focaliser la demande en organisant pour ce qui est stratégique des consultations internes avec des experts. On préférera la constitution de groupes restreints de personnes, d’origines diverses qui prendront en charge tous les aspects informationnels du problème et qui développeront, cette fois-ci avec les experts en hyperinformation les stratégies à mettre en place. On pourrait, pour mieux fixer les idées, non pas comparer ces groupes aux groupes de projets (trop finalisés vers un produit), mais aux groupes chargés du reengineering d’un process ou d’une activité . L'analyse de l'information formelle, des "on dits" encore pas trop précis, des "sentiments ou impressions" exprimés par les experts, conduisent à nous indiquer un certain nombre de cibles, encore floues, mais potentiellement intéressantes ou menaçantes pour l'activité de l'entreprise. L'étape précédente nous a permis de mieux connaître les potentialités de contact de l'entreprise avec le monde extérieur. Il va donc falloir, dans cette étape, essayer en travaillant avec le groupe de personnes restreint associé à l'information informelle, de transposer au niveau des cibles, l'analyse des moyens de contacts et de pénétration. 8.3 - Se mettre à la place de l'autre Il s'agit ici de travailler sur la manière dont notre concurrent assure ses contacts avec l'extérieur, qu'elles sont ses interfaces, quels sont les services qui jouent ce rôle qui sont les personnes les plus actives, etc. On travaillera par symétrie avec sa propre organisation, en essayant de voir si avec nos connaissances on peut remplir un certain nombre de cases relatives à cette analyse. En effet, l'objectif est évident: * pour recueillir de l'information informelle par des voies tout à fait légales, il est nécessaire de rencontrer, d'obtenir par écrit (publications, articles de presse, ... interviews) ou oralement (communications, écoutes dans certains lieux publics....), ou par des tiers en contact avec nos cibles potentielles, le maximum d'informations sur les sujets qui nous intéressent. La représentation suivante illustre la méthode utilisée. Nous connaissons les objectifs à atteindre et les informations que nous voudrions connaître NOUS CRRM Interface de contact à organiser Nous devons imaginer, représenter connaître l'interface extérieures de nos concurrents EUX Nous connaissons nos capteurs externes La diminution des barrières de perception 8.4 - Que pouvons nous divulguer Il est évident que participer à des échanges d'information, avoir une position active dans ce milieu va impliquer des échanges. Une grande règle c'est que si l'on demande toujours sans jamais donner, on n'obtient après une certaine période que peu ou pas d'informations. Il existe donc pour une entreprise une stratégie de contacts extérieurs. Cette stratégie se fait en relation avec les personnes de la communication, puisqu'une partie de leur travail consiste par la communication à donner une image positive, dynamique, high tech, "écologique", sociale .... de l'entreprise. Compte tenu des missions qui vont être fixées aux "capteurs" extérieurs, il faudra leur indiquer dans quelle direction la communication doit se faire, ce qui peut être dit et qui permettra des échanges et donc la collecte d'informations potentiellement utiles. Cette organisation, à l'encontre de ce que l'on pourrait penser n'est pas lourde. Elle implique seulement des réunions ou des contacts périodiques avec l'ensemble des personnes concernées ou leurs représentants, à condition que ces derniers relaient l'information vers les utilisateurs finaux. Cette approche est surtout importante dans les services de R&D, où les personnes concernées, issues du domaine de la recherche ont eu pour habitude d'échanger des informations au cours de leur thèse et de leurs travaux scientifiques antérieurs. Dans ces conditions, il sera nécessaire de savoir ce qui peut être dit, et ce qui ne doit pas être dit. A nouveau, la politique de ne rien dire n'est pas une bonne politique. A une époque où le passage des résultats de recherche au développement puis à la production va très vite, participer aux avancées scientifiques et à la mouvance qui les accompagne est un bon moyen de progresser. Encore faut il que cette bonne intention ne se retourne pas contre soi, d'où une certaine réflexion sur ce qui peut être ou doit être dit. 9 - Les informations d'influence, le lobbying Dans les chapitres précédents, nous avons essentiellement axé notre propos sur les informations plus ou moins reliées à la science, à la technologie, à la technique, au commercial à la connaissance des concurrents. Mais, dans le fond, nous sommes restés assez académiques dans les types d'informations recherchées, même si le niveau des personnes peut et doit être abordé dans certains cas. Dans cette partie, nous aborderons plus particulièrement deux types d'informations qui sont importantes et qui se complètent le plus souvent. Ce sont les informations d'influence, et ce qui gravite autour du lobbying. Nous ne voulons pas traiter complètement de ce problème, mais il doit être abordé, car il faut ôter ici un certain nombre d'idées préconçues: être capable, être au bon niveau ne suffit plus. En fait, ce qui peut être gagné sur le terrain peut être facilement perdu sur le "tapis vert". Les mécanismes de la prise de décision sont complexes, l'environnement y joue un grand rôle. Etre influent par une recherche systématique d'informations liées à l'influence et au lobbying est de nos jours un complément indispensable. Nous avons, au début de cet ouvrage, traité des définitions et entre autre nous avons utilisé pour décrire la technosphère, une image concentrique. Nous allons la regarder à nouveau en fonction de l'influence et du lobbying. 9.1 - La Technosphère de l'influence et du lobbying LA TECHNOSPHERE C'est l'environnement de l'Entreprise dans lequel on va retrouver l'ensemble des contraintes et des liaisons avec différents domaines Technosphères d'influence et de lobbying Science Formation Finance Protection Technique Technologie Entreprise Relations publiques Achats Relations clients Marketing et fournisseurs Communication CRRM Les technosphères du lobbying et de l'influence Ainsi, à la technosphère classique, celle qui est ordinairement apprise au niveau de l'enseignement traditionnel, vont se juxtaposer d'autres sphères, celles de l'influence et du lobbying. En France, il est difficile de traduire l'expression "public affairs", mais c'est bien dans ce sens qu'il faut comprendre ces nouvelles orientations. La connaissance de ces sphères est d'autant plus importantes lorsque l'on va travailler à l'international, ou que l'on va rechercher les aides et le soutien de l'Etat. Connaître les mécanismes, ne pas rester naïf lorsqu'on doit se confronter à des concurrents qui pratiquent systématiquement cette approche est un aspect essentiel du développement des entreprises. Comme pour les domaines classiques (techniques, technologiques ...), on va retrouver des méthodes, des processus d'accès aux informations, leur analyse et leur compréhension, avant d'intégrer les résultats au niveau de la stratégie. Ces sphères d'influence sont souvent étroitement liées au politique, au géopolitique, mais prennent un aspect plus large car elles vont nécessiter une connaissance des programmes de développement, des institutions, des coutumes et des acteurs. La compréhension du jeu de ces acteurs va alors devenir un point clé, déterminant pour la suite du processus. Ces brèves constatations permettront en outre de contraster l'enseignement traditionnel, entre autre scientifique: ce n'est pas en devenant de plus en plus "pointu" dans un domaine que l'on pourra accéder à de très hautes postes de responsabilité. Il faut compléter cette culture, l'Université ne le fournit que rarement. C'est pour cela que je suis maintenant partisan de partenariats mixtes, publics - privés dans certains domaines, car c'est une des seules façons en de montrer à nos étudiants qu'il faut non seulement être "bons", mais aussi savoir que deux et deux ne font plus quatre. Dans un pays très cartésien cela pourra faire sourire certains, mais s'ils analysent les postes de responsabilité au niveau simplement des diverses instances de la Communauté Européenne, je pense que, s'ils sont sincères, ils changeront d'avis. Une très forte technicité qui ne tient pas compte, dans la formation de ces contingences, conduit à instrumentaliser l'étudiant, même si cela se produit au niveau d'une Ecole d'Ingénieur. 9.2 - L'information d'influence Nous allons, pour situer les idées, donner un exemple: lors de la réalisation d'un tracé de route ou de TGV, il faut prendre en compte les normes, les règles de construction, l'ensemble des éléments techniques qui feront que cette route sera construite suivant les "canons" du pays ou de l'entreprise qui va la réaliser. Par exemple le SETRA (Service d'Etudes Techniques des Routes et Autoroutes) s'occupe plus particulièrement au plan national Français de maintenir à jour et de transférer tous les aspects techniques liés à la construction de routes, d'autoroutes, d'ouvrages d'art. Mais, pour construite une autoroute les pouvoirs publics doivent avant tout déterminer son tracé. C'est là que va se situer l'information d'influence. En effet, un tracé de route va soit gêner certaines personnes, soit utiliser des terrains, d'où expropriation et indemnisation, soit favoriser certaines villes au détriment d'autres suivant le tracé utilisé. Il y a deux méthodes pour tenir compte de l'avis des "riverains" et nous allons voir que ces deux méthodes sont très différentes. On peut agir dans le cadre de la légalité: on fait réaliser une enquête d'utilité publique où en principe tout le monde peut s'exprimer, puis ceci fait on passe à la réalisation des travaux. C'est une méthode, mais si on se borne à celle-ci, on est pratiquement assuré d'un échec. Les récents mouvements, à la fois des écologistes, des élus, des propriétaires, que ce soit pour le tracé du TGV Lyon-Marseille, ou que ce soit pour le tracé de l'autoroute Sisteron-Grenoble (il existe bien d'autre cas) en sont des exemples. Des associations se créent, des journaux sont imprimés, des manifestations ont lieu, etc.... l'atmosphère, loin d'être assainie ne permet plus un raisonnement normal et rationnel, on passe dans le domaine du passionnel. Ceci montre bien que la légalité n'est pas tout, et que dans ces affaires, il faut soigneusement analyser les oppositions possibles, les enjeux, les jeux d'acteurs, la politique du développement local. Ceci va nécessiter une forte connaissance du terrain, puis la confection d'informations ciblées diffusées avec une stratégie réfléchie, des réunions, bref, des moyens importants pour convaincre ou pour qu'une majorité se rallie au projet. On aura alors plusieurs cartographies du projet: * Celle qui est technique, avec toutes les considérations de déblais - remblais, etc... * Celle qui est cadastrale, et qui permettra de connaître les propriétaires des différentes parcelles sur lesquelles va passer le tracé, (on pourra à ce propos consulter les travaux remarquables effectués par M. Bibent dans ce domaine (Laboratoire d'Informatique Juridique, Université Montpellier I) * Celle qui est politique, afin de déterminer qui sont les élus et à quelle mouvance politique ils appartiennent, (Canton, Conseil Général, Conseil Régional, Municipalité, Sénateur) * Celle qui concerne les activités industrielles les plus proches, * Celle qui concerne les activités agricoles, * Celle qui concerne la démographie * Celle qui concerne les taux de chômage On constate ainsi la pluralité des informations nécessaires pour atteindre l'objectif fixé sans trop d'accoups. Si on prend bien en compte que chaque système a des acteurs, des associations, des règles, une bureaucratie, des intérêts très souvent non convergents, on se rend compte que les personnes qui s'occupent de ces problèmes doivent avoir une bonne coordination et ne doivent pas agir à la légère. Un système d'information efficace, intégrant l'ensemble des données devient alors indispensable ! Ceci n'est qu'une exemple, mais il est d'actualité. En effet, la perte, par les lois européennes des monopoles, vont placer EdF, GdF, France Télécom, les Compagnies distribuant l'eau, même la SNCF demain sans doute La Poste, devant de nouvelles orientations, entre autre devant la concurrence de nouveaux acteurs. Si EdF devient transporteur, sa situation ne sera pas aussi bonne que s'il est à la fois producteur, distributeur, transporteur. Garder, en dépit de la concurrence cette position au niveau géographique, nécessitera une démarche semblable à celle décrite ci-dessus. Au plan international, la vente des Air-Bus, les grands contrats de génie civil, la vente de TGV en consortium, sont reconnues par le public comme mettant en jeu tout un ensemble d'influences, à commencer par celle de l'Etat et du Président de la République lors de ses voyages. Mais, bien d'autres entreprises exportent et concluent des contrats. Elles ne sont pas nécessairement toutes au niveau de ces grandes opérations, ne serait ce que par le coût des produits qu'elles vendent. Il faut donc qu'elles se "débrouillent" et qu'elles affinent dans ce domaine une stratégie de terrain, de connaissance des pratiques et des influences locales, tout ceci pour mieux maîtriser ce nouveau type d'environnement et in fine pour mieux vendre. On retrouve bien un parallèle avec l'approche classique. On peut connaître par l'analyse politique des résultats électoraux, par l'analyse des données bancaires (banque mondiale ou autre), par les statistiques nationales, par sa démographie, son commerce international, les contenus annoncés des plans de développement ce qui constituera une information relativement formelle. Elle devra, et là on le comprend encore mieux, être complétée par une information de terrain. Ceci permettra de mettre en place des contacts ou des personnes qui affermiront localement l'influence de l'entreprise. Ce dernier aspect, principalement au niveau de l'Asie, conduira l'entreprise à recruter des personnes sûres de la nationalité du pays où l'on veut s'implanter et faire des affaires. Il faudra donc développer tout un ensemble de liens entre les différents acteurs d'une même société, souvent séparés par des barrières culturelles et linguistiques. 9.3 - Le lobbying Ce sont les anglais, qui ont le plus largement, et depuis longtemps considéré le lobbying comme une action complémentaire, nécessaire même, au développement d'une entreprise. De nombreuses références anglo-saxonnes ont traité et traitent de ce problème. (Informal strategic networks and the board of directors, Borch, Odd Jarl; Huse, Morten, Entrepreneurship: Theory & Practice, v18n1, pp. 23-36, Fall 1993 - James Henry Rowe, Broadcasting & Cable, v123n35, pp. 51, Aug 30, 1993, 1 pages, - Linking Business and Academia, Gilliam, Les, Computerworld, v22n36, pp. 73,80, Sep 5, 1988, - The Lobbyist, Davis, Nancy M., Association Mgmt, v40n7, pp. 34-38, Jul 1988) On peut considérer le lobbying de différente façons, mais l'une d'entre elle est communément admise: le lobbying permet de mieux faire connaître de certains décideurs, les acteurs de qualité. Il joue donc le rôle d'une sorte de courroie de transmission. Le lobbyiste cultive soigneusement ses contacts, leur apporte des informations, les renseigne, et en quelque sorte facilite leur tâche. C'est surtout aux USA que cette compréhension du lobbying est courante. Voir à ce sujet les références suivantes: Le lobbying: une ancienne profession redécouverte, Jan Van Heuverswyn et J.P. Schuybroek Gestion 2000, p.131-140, 1990 - Eurolobbyisme, B. Julien, Gestion 2000, p.143-153, 1990 British lessons for Euro-lobbying, M.Burrell, Gestion 2000, p.155-161, 1990 - Lobbying in Europe: an American perspective, J.P. Vernandos, Gestion 2000, p.163-170, 1990 - Le Lobbying et ses secrets, Michel Clamen, Dunod, 1995, ISBN 210002507. Les groupes de pression s'inscrivent dans un modèle d'équilibre politique avec les deux principales composantes du pouvoir que sont le Congrés et l'Administration. C'est dans ce cadre que Théodore Lowi a présenté ces intéractions suivant un modèle triangulaire (, Eurolobbyisme, Bruno Julien, Gestion 2000, p.143-153, 1990) Le pouvoir aux USA Groupes de pression Ministères Administrations Congrés Le Congrés vote les budgets et reçoit des Ministères des informations et des propositions. Le Ministère fixe les règlementations (prix... qualité) à destination des groupes de pression (producteurs, fédérations...) Le Congrés développe la législation à destination des groupes de pression qui renvoient des informations, et des soutiens politiques et financiers. Le triangle des forces Ce modèle pourrait servir de base à la compréhension du développement du lobbying Européen, spécialement au niveau des Commissions de Bruxelles. Le triangle stratégique aux USA C'est ainsi que même au niveau universitaire cette question est abordée. Dans une adresse présentée à l'Insdustrial Research Institute, le Président de l'Institut Polytechnique de Rensselaer indiquait entre autre que les universités devraient donner une priorité aux enseignements technologiques et qu'une politique effective de lobbying politique devrait être mise en place pour améliorer le financement de l'Université. Les Universités du futur devront donner plus de place à l'enseignement mais elles devront aussi développer habilement une influence politique. R Schmitt, International Journal of Continuing Engineering Education, vol 1, n°1, 1990 pp. 10-17) En France, la perception du lobbying reste encore entachée pour certains d'un malaise. On considère souvent que ce n'est pas bien, que ce qui est bon et bien est forcément autosuffisant. Mais cela n'est plus vrai. Ce n'est que récemment, avec les contrats européens, que les français se sont rendus compte qu'en plus de l'appel d'offre, il fallait préparer un dossier, trouver des partenaires, puis suivre le dossier et le "porter" à Bruxelles ou à Luxembourg. Cette situation est en outre amplifiée par la complexité des partenariats, bien souvent en outre, le texte de l'appel d'offre n'est publié que très prés de la date limite, ne laissant pas le temps nécessaire à la préparation du dossier. Il est donc essentiel, dans ce cas, d'être au courant avant, de connaître les pratiques des membres de la Commission, qu'elle est l'orientation qu'ils veulent donner aux demandes contenues dans les appels d'offre, etc. C'est ainsi que devant cette complexité et ce manque "officiel" de temps, des société se sont créées. Elles vivent principalement du montage et de la présentation et du suivi des dossiers communautaires. Elles sont généralement rémunérées au départ au montage du dossier (de l'ordre de 50.000 fr. par partenaires), puis d'un pourcentage sur la somme globale obtenue pour l'opération. Cette pratique est courante, elle constitue une bonne assurance, car pour les gros dossiers, le formalisme, le montage, le "portage" est nécessaire pour aboutir, car la concurrence à la fois au niveau national et intercommunautaire est très forte. Ceci est plus connu sous le nom d'Eurolobbyisme. Bruno Julien (Eurolobbyisme, B. Julien, Gestion 2000, p.143-153, 1990) estime que le nombre de lobbyistes installés à Bruxelles est de l'ordre de deux à trois mille Généralement, tous les grands cabinets conseil, du fait des affaires qu'ils traitent, et même si une certaine déontologie les fait se tenir sur la réserve, on des cellules de lobbying. Mais, aprés tout, on pratique généralement, à petite échelle, cette forme de contact, d'influence. Sans l'ériger au niveau d'une panacée suprême, se priver de cet atout alors que les concurrents l'utilise serait se voiler la face et peut être laisser passer de fructueuses opportunités. Un conseil cependant, le lobbying doit être bon. S'il est mauvais, où, si ce n'est pas le bon canal ou les bonnes personnes qui sont contactées, un bon dossier peut être refusé. Attention aussi à qui fait le lobbying: un bon dossier présenté par une mauvaise structure, ou une structure peu crédible est voué à l'échec. Ces remarques me font penser à une situation récente, vécue au Congrès Eurocomposites de Bordeaux, en 1997 où une table ronde sur la Veille Stratégique avait lieu. Au cours des divers exposés, a été déploré le manque d'organisation en France, et les moyens importants que les USA affectent à ce sujet, avec en outre une notion bien plus forte d'organisation. C'est un fait, il peut être constaté. Alors, certains participants se sont mis à venter la Commission Interministérielle sur l'Information Elaborée, le Comité Stratégique d'Intelligence Economique, etc., etc. Bien entendu ces nouvelles structures allaient mettre bon ordre à tout cela, on allait voir ce que l'on allait voir. ...... Sauf que, je me suis permis puisque j'étais intervenant à cette table ronde quelques remarques: membre du Comité Interministériel sur l'Information Elaborée, je suis bien placé pour évaluer son efficacité: elle a été réunie une seule fois !!! Connaissant bien les pratiques américaines, on ne peut pas aborder le problème sans parler des fondations créées souvent par des industriels, et qui, par leur poids, donc par l'intérêt financier et moral porté par l'industrie à ces structures, influence et souvent impulsent la volonté de l'Etat. Qu'en est-il en France ? J'essaie bien, de regarder autour de moi, mais je ne vois aucun signal de ce type ? Ce n'est pas en faisant reposer toutes les initiatives au niveau de l'Etat que l'impulsion nécessaire sera donnée. C'est une somme d'initiatives, regroupées dans des structures indépendantes qui donneront l'impulsion. Trop d'Etat tue l'Etat comme l'on a l'habitude de dire... Dans le même cadre de réflexion, le numéro 9/1997 des Cahiers de la Fondation pour les Etudes de Défense: Stratégies Economiques en bosnie-Herzégovine, présente l'aspect suivant: "Il n'y a aucune raison de suspecter a priori les français de déloyauté, mais leur attitude commerciale reflète sans aucun doute un manque de professionnalisme qui contraste avec l'attitude d'autres pays. Il faut pousser cette remarque plus loin encore, de l'échelon local à l'échelon national ou l'efficacité d'une stratégie suppose avant tout un changement d'état d'esprit. En effet, si l'autorité étatique continue à pratiquer une politique d'absence dans les postes internationaux importants et à raisonner en termes de dépenses à fonds perdus et non d'investissements, et si les entreprises n'attendent de l'Etat que des subventions et non un soutien à leurs propres efforts de pénétration commerciale, alors l'élaboration d'une stratégie ne sera qu'un exercice intellectuel et les agences et autres outils resteront des gadgets inutiles." 10 - Systématiser le rapport d'étonnement Le rapport d'étonnement est japonais de création. Il concerne généralement toutes visites ou déplacements hors du lieu de travail. Il est principalement utilisé lors de voyages ou de visites à l'étranger, et pas nécessairement pour le travail. C'est un rapport différent du rapport directement lié aux observations faites dans le cadre direct du travail. Ce rapport relate tout ce qui a été observé et qui est étonnant au sens strict du terme. Cela peut concerner des aspects techniques, des habitudes, des comportements, des produits ou méthodes, des aliments, des vêtements, ... 10.1 - L'intérêt de cette méthode Ce type de rapport est intéressant, car il engage directement tous les membres de l'entreprise lorsqu'ils sont en mission extérieure. Mais cela va au-delà, par exemple lors de voyages collectifs, etc. Le problème du rapport d'étonnement est lié à l'exploitation des résultats. En effet, il faut que les rapports soient lus et analysés, puis il faut que le résultat soit diffusé vers les bonnes personnes, et si le contenu est intéressant, il faudra remercier la personne qui a fait le rapport. Ceci va impliquer des efforts, un suivi, des vérifications. Systématiser les rapports d'étonnement peut surtout être fait auprès de certaines personnes, pour mettre en éveil leur perception en les motivant pour ne pas placer uniquement celles-ci au niveau du travail et de la technique, mais pour les conduire à observer l'environnement dans lequel elles se trouvent. 10.2 - Quelques précautions à prendre Si on veut généraliser le rapport d'étonnement, il faudra (cela est aussi valable pour le rapport tout court) demander un exposé très simple pouvant aller du simple contact ou coup de téléphone, l'essentiel étant de mettre en évidence ce qui semblait ou était étonnant dans ce que l'on avait vu, sans oublier la date et le lieu, son nom et son téléphone. Cela permettra de manière très simple de retrouver ou de recouper les informations et d'orienter directement un utilisateur potentiel vers la bonne personne. 11 - La validation des informations informelles Vouloir gérer informatiquement l'ensemble des rapports est certes réalisable, mais cela va demander des moyens, surtout humains, ce qui est le plus coûteux. Il faudra ensuite bâtir un vocabulaire contrôlé adapté aux problèmes et l'utiliser pour indexer les faits. Ne pas oublier si on développe un système de ce type, de rendre le champ date directement accessible pour que l'ensemble des données puisse éventuellement être géré sous forme de flux. Enfin, les informations devront être validées. Il n'y a pas de méthodes sures pour valider des informations informelles. Disons qu'il y a quelques grandes lignes générales qui peuvent être suivies. 11.1 - Une méthode simple La méthode la plus simple pour valider une information informelle est la méthode des recoupements. Si une information est corroborée par des observations diverses, faites par des personnes différentes, on augmentera à chaque recoupement la validité de cette information. Mais, attention, si la même information est signalées par des individus différents, cela ne veut pas dire que l'information est plus pertinente. En effet, il faudra vérifier, et c'est impératif, que les sources d'informations utilisées sont différentes. 11.2 - Des méthodes plus complexes Une autre méthode consiste à avoir deux échelles non pas directement de validation mais disons d'importance et de fiabilité. La première échelle consistera à utiliser une échelle (par exemple de 1 à 5) pour décrire une information de première importance (le chiffre 1) puis de moins en moins importante de 2 à 5. Ensuite sera associée à cette information une lettre par exemple A, B, C selon la qualité de l'individu transmettant l'information. En effet, certains individus sont plus fiables que d'autres, et renommés pour leurs bonnes sources de renseignement. Ainsi, une information très importante et avec une bonne probabilité de fiabilité sera cotée A1. Cela voudra dire qu'un effort particulier de validation devra être réalisé dans cette direction, afin de rendre l'information exploitable au niveau de la décision. D'autres méthodes, par utilisation de fiches avec ajout de croix successives au fur et à mesure des recoupements sont utilisées, d'autres personnes utilisent des fiches colorées, etc... Tout est possible, mais il faudra de toute façon utiliser la fréquence des recoupements et la qualité de la personne ayant recueilli l'information comme paramètres principaux de post-validation. 12 - Une observation intermédiaire: la Veille Sociale Nous avons vu, dans le cadre de l'Intelligence Compétitive, de la Veille Technologique, de l'Intelligence Economique, tout un ensemble de méthodes et de comportements destinés à maîtriser l'environnement de l'entreprise, les interactions avec le milieu économique ou technique, etc. Mais, dans cet ensemble, il va être aussi nécessaire de surveiller l'ensemble des faits sociaux qui vont concerner une entreprise, ou mieux le milieu dans lequel on se trouve. Ce type d'observation est appelé Veille Sociale. La méthode consiste, la majeure partie du temps, à analyser la presse locale ainsi que les notes syndicales, de management .... émises dans une entreprise. De nombreux auteurs ont montrés l'importance de l'analyse de la presse quotidienne et régionale sur des faits ciblés, afin de recouper un certain nombre de renseignements. Ceci a été mis en évidence lors de la deuxième guerre mondiale, mais a aussi été décrit par Dedidjer (Colloque sur l'Intelligence Economique, Rio de Janeiro, Juillet 1996, FINEP) dans des conférences récentes, où il montrait que dans les années cinquante une analyse sérieuse de la presse locale de certains pays communistes avait laissé penser qu'il se trouvait à la tête d'un service de renseignement important, tant la qualité des informations qu'il possédait était bonne. Il y a plusieurs façons de s'intéresser à la Veille Sociale: le plan politique, le plan de l'évolution des moeurs vestimentaires par exemple, on peut citer l'observatoire de l'air du temps dont le nom décrit bien l'activité, on peut aussi citer mais cela est un cas limite, l'utilisation des sondages qui donnent une photographie à un instant donné de la situation, etc. 12.1 - Une méthode simple Sans entrer dans les détails, nous citerons un article de Jean-Claude Ducatte dans Humanisme et Entreprise, 1997, p. 224: Comment mettre en place un système de veille sociale performant? Citons le résumé de la méthode: "La méthode que nous présentons peut s'apparenter à du Bench-Marking social. Pour saisir son importance, il suffit de regarder les compétitions économiques qui opposent les entreprises. Dans de nombreux secteurs économiques, les concentrations sont telles, qu'il ne restera que deux ou trois groupes à dimensions européenne et/ou mondiale avant la fin du siècle. L'enjeu est de taille. Pour faire partie du groupe de ceux qui gagneront, il est tout aussi vital de s'intéresser à la situation sociale de ses concurrents, que de connaître leurs prévisions d'investissements, et leur situation économique. La veille sociale, à l'instar de l'intelligence économique, fournit des informations comparables, mais sur le champ social, qui permettront de prendre les bonnes directions. Connaître le contenu des accords sociaux qui se signent chez la concurrence, tout comme le fonctionnement de son école de management pour ses cadres et ses commerciaux, ses orientations en matière d'organisation, les rapports de force sociaux et syndicaux, les écrits de ses dirigeants dans la presse professionnelle ou encore les perspectives de carrières offertes, devient une nécessité stratégique". 12.2 - Les valeurs de la Veille Sociale Une autre forme de Veille, qualifiée de troisième type a aussi été décrite par Jacques Antoine, dans son livre Valeurs de société et stratégies des entreprises. Dans cette présentation l'auteur indique que selon lui quatre valeurs vont dominer les prochaines décennies: l'individu, la famille, le travail et la nature. Prendre en compte ces valeurs revient à reconnaître la complexité des choses. (Une veille du 3ième type, sociale, culturelle et politique, doit s'ajouter aux veilles économiques et technologiques, J. Antoine, Management France, Septembre 1996 voir aussi du même auteur le livre "Valeurs de société et stratégies des entreprises"). "Dorénavant, toute réflexion sur le futur sera nécessairement globale et devra pendre en compte les interactions entre les facteurs démographiques, technologiques, économiques, sociaux, culturels et politiques qui les affectent." 13 - Gestion et diffusion des informations Nous allons dans ce paragraphe aborder différents systèmes de gestion et d'analyse de l'information. La gestion, est prise ici au sens informatique. En effet, la multiplicité des sources, des contacts, des informations formelles ou informelles nous conduit à la nécessité de mettre en place un système de gestion cohérent. Il ne s'agit pas ici d'un système d'archivage passif, mais d'un système actif permettant de réaliser les recherches documentaires classiques, mais aussi de gérer les images, les sons, les données de vos applications présentes sur votre disque dur (ou d'autres machines si le système est en réseau) (Word-6, Excel ...). Sur le plan de l'analyse, on peut avoir affaire, selon les volumes et la structure des informations à des systèmes automatiques et manuels. Nous privilégierons, quelque soit le cas, une approche matricielle de type Zwicky (La bibliométrie et ses techniques, H. Rostaing, co-édition Sciences de la SociétéCRRM, Marseille, 1996) qui nous paraît la plus adaptée à la recherche et à la création d'hyperinformations. Nous allons essayer de voir assez brièvement la gestion, en insistant non pas sur les systèmes de bases de données classiques, (en réseau, en relationnel....) mais en insistant sur un certain nombre de techniques et d'outils modernes qui présentent des alternatives crédibles, testées et validées. En ce qui concerne l'analyse, nous décrirons certains outils, en focalisant notre vision sur les plus récents et les plus performants afin de donner une vision globale du problème, facilitant l'adaptation du lecteur à ces méthodes. Quand nous parlons d'analyse, cela sous-entendra l'analyse d'informations structurées. Le cas de l'information en texte libre sera abordé de façon différente, car il suppose des traitements préalables. Enfin, nous dirons quelques mots de l'analyse linguistique qui reste hors du champ de cet ouvrage. Nous montrerons simplement par quelques exemples des approches complémentaires conduisant à une recherche et à une sélection documentaire de textes libres, mais pas à une analyse. 13.1 - La gestion des informations Les systèmes les plus complexes, tels que les bases de données relationnelles sous Oracle, ne seront pas traitées ici. Nous voulons simplement donner aux lecteurs quelques principes de base simples. L'application technique à grande échelle pouvant être réalisée facilement par des sociétés spécialisées. Mais, la réflexion préalable liée à la généralisation de ces méthodes, à leur potentiel et à leur influence sur la structure de l'entreprise ne sera pas faite par une société de service informatique. Le problème étant vital, c'est internement, avec sans doute quelques conseils, qu'il faut l'aborder. 13.1.1 - La saisie des informations Il faudra, et ceci est une règle fondamentale, éviter de ressaisir les informations, quelle que soit leur provenance, c'est à dire qu'elles proviennent de l'entreprise elle même, ou de sources extérieures. En effet, cette opération est coûteuse, et introduit une perte de temps ainsi que des possibilités d'erreurs. Il faudra donc, dans tout système d'information, prévoir à la fois une unicité des formats de données (lorsque cela est possible), ou pour le moins des passerelles simples permettant de transférer des données d'un système dans un autre. Ces opérations de transcodage passent généralement par des formats pivots à partir desquels ont peut aller vers diverses applications. Une qualité primordiale de tout système d'information sera de permettre facilement le passage d'un logiciel à un autre, sans avoir à réaliser une manipulation ou une transformation du format des données. Donnons un exemple: si on interroge un serveur de base de données, il sera possible de stocker ces données sur son disque dur (opération de télédéchargement). Cette opération devra conduire à un fichier tel qu'à partir de celui-ci les données pourrons automatiquement être intégrées dans un logiciel de gestion documentaire. De même, ce logiciel devra, si cela est nécessaire, restituer les données avec un format pivot permettant le passage des mêmes données sur une autre application. Pour les images, les dessins, il existe aussi des formats particuliers. Généralement, les formats les plus utilisés sont des formats du type .GIF, qui permettent la manipulation des images et des dessins sous un format relativement compressé (par rapport au format .BMP (bitmap)). Ceci sera important dans le choix des logiciels documentaires. Pour les sons, le format généralement le plus utilisé est le format .WAV. Lorsque le texte en notre possession a été imprimé et qu'il n'y a pas de saisie informatique disponible, il faudra utiliser de l'OCR (Optical Character Recognition). Cette opération consiste à scannériser le texte sous forme d'image. Ensuite un logiciel de reconnaissance de caractères, permettra, à partir de l'image d'un caractère de retranscrire celle-ci en un code ASCII représentant le même caractère, mais dans un format gérable par l'ordinateur, comme si ce caractère avait été saisi au clavier. Le problème de l'OCR est que dans certains cas toutes les lettres ne sont pas parfaitement reconnues par le système. Ainsi, soit le texte devra être corrigé, soit il faudra indexer le texte avec des erreurs, mais alors le processus de recherche sera différent des systèmes classiques. La recherche s'effectuera par un processus de reconnaissance neuronale (voir par exemple le logiciel Excalibur), qui permettra de retrouver avec une bonne probabilité les mots même lorsque des erreurs de reconnaissance de caractères auraient été commises. Une fois le texte identifié, le système de gestion documentaire présentera à l'utilisateur l'image (ce qui permettra de garder la mise en page et les photographies). Ces systèmes de gestion, fait pour de grandes masses de données n'autorisent que peu ou pas les traitements statistiques, du fait de la non corrections des erreurs. Beaucoup de transfert d'information, de messageries utilisent Lotus Notes ou des extranets ou intranets. Les mêmes principes devront s'appliquer: unicité des formats, pas de ressaisie, disponibilité des informations suivant des niveaux à déterminer (hiérarchie de diffusion, mots de passe, et enfin protection (physique au plan des réseaux), logique par cryptage des données. 13.1.2 - La présentation des résultats De plus en plus, même sur une machine isolée, la tendance générale est de créer des interfaces de présentation globales, des outils de gestion. On pourra, par exemple pour un système d'information donné, regrouper sur le même écran les catégories d'informations nécessaires, (généralement sous forme d'icônes), puis, un clic sur ces icônes permettra d'accéder directement aux informations nécessaires à l'utilisateur: accès à un fichier Word, ouverture de la bonne base de données, édition de listes, accès à un graphe dans un tableur, ouverture d'une application spécifique (vision d'images ....), écoute d'un son, accès à une messagerie, etc... Ces accès pourront être ouverts ou restreints. Les données pouvant être fixes ou modifiables. Ces interfaces d'accès étant accessibles soit en réseau, soit sur des machines isolées. On évolue donc vers des présentations de plus en plus globales, mettant à la disposition de l'utilisateur des ressources multiples, présentes sur sa machine ou sur des machines différentes (cas de réseaux d'ordinateurs). Vers une interface globale Globalisation de l'accès à divers types d'information au travers d'une interface unique La figure ci-dessus montre un interface globale de présentation d'une activité sur un ordinateur isolé. A partir du programme Activity Map (Time/system, 40 rue Jean Bleuzen, 92170 Vanves) l'utilisateur conçoit une interface qui permet une présentation globale de l'ensemble des données relatives à une partie de la production scientifique à Marseille. Ceci est issu des travaux réalisés pour le développement de l'Observatoire de la Production Scientifique en Région Provence Alpes Côte d'Azur. On remarquera l'accès global (SCI), les accés spécialisés (Physique, Chimie), et dans ces disciplines diverses approches: environnement d'un auteur, principaux thèmes, etc.. Le tout étant accompagné de notes, etc... le processus est le suivant: en cliquant sur la partie concernée, on ouvre le logiciel de gestion des données, ou de visualisation des images ... et une commande (déjà présente à partir d'Activity Map et pour le thème concerné) est exécutée. Ensuite, on ferme l'application et on retourne à l'interface de départ. On retrouvera, dans le cas d'un système de type extranet ou intranet, des stratégies identiques, avec des variantes. Par exemple à partir de l'internet, et en ligne, ouverture du "reader Acrobat" situé sur votre machine et visualisation directe d'un fichier .PDF (portable document format) distant. Dans les exemples qui seront fournis dans les études de cas, nous donnerons un exemple d'utilisation du système Acrobat d'Adobe. 13.2 - La diffusion des informations Les changements technologiques ainsi que la création de réseaux locaux, nationaux, internationaux, ont conduit à se pencher d'une façon plus précise sur les processus de diffusion de l'information. Nous ne parlerons pas ici des journaux internes, notes ou rapports, mais nous focaliserons la présentation sur des processus plus modernes, principalement liés à l'informatique et sur la constitution des dossiers de Veille Technologique et des notes d'Information Stratégiques. 13.2.1 - Principes de base, l'unicité de saisie, le choix de supports multiples. Nous avons déjà vu que l'unicité de la saisie était un principe de base, quasi intangible. Nous allons voir que ceci peut être complété par la stratégie du format unique permettant la création de supports multiples de diffusion. La figure suivante illustre ce principe. A partir d'une saisie au clavier, d'un traitement par OCR ou d'un télédéchargement en ASCII, on pourra évoluer vers des formats d'archivage, de gestion en .PDF avec ACROBAT, d'intégration dans un gestionnaire de documents, puis de création de pages HTML (pour l'internet) et en même temps la création d'un intranet et de CD-ROM. Une seule saisie, des supports multiples Saisie ou télédéchargement CD-ROM intégration dans une base de données locale réseaux Archivage Passage automatique à la norme HTML Transformation en fichiers .PDF intégration dans un Traitement de texte Internet, intranet, CD-ROM Mailings, etc... Internet Intranet CRRM Le critère de base: une seule saisie conduisant à des produits d'information différents 13.2.2 - Pour qui, comment, avec quels moyens Diffuser des produits, pose le problème de l'analyse des cibles et des pratiques de consultation. Bien que les réseaux informatiques se généralisent, ils ne sont pas nécessairement utilisés, dans une entreprise, comme vecteurs de produits d'information. Il pourront être utilisés comme support de la messagerie, comme vecteurs de fichiers (joints ou non à un message), mais cela ne veut pas dire qu'ils seront le vecteurs essentiel de toutes les informations. Ceci veut dire que le papier subsistera encore. Il est donc bon de se familiariser avec le fait qu'un rapport, qu'un produit issu d'un service de Veille, de Surveillance, devra respecter un certain nombre de grands principes: * Au plus on est à un niveau élevé de la hiérarchie, au moins on a le temps de lire. * Lorsqu'on dialogue avec des opérationnels, il faut avoir les documents de base nécessaires à la vérification complète de ce qui est avancé. Ce sont ces deux principes qui doivent toujours rester présents à l'esprit, lorsqu'une note, même brève est rédigée. Ceci est valable, à la fois au plan de la diffusion informatique ou de la diffusion papier. Un rapport comprendra plusieurs parties: La note d'alerte: une page, voire une demie page, Le quatre pages qui donne plus de détails, mais pas trop, Un corps de rapport de dix à vingt pages, Les annexes: textes de publications, analyses des sources, graphes, etc... en bref tout ce qui permet de vérifier ce qui est dit dans les parties précédentes. Pourquoi adopter ce format ? Simplement parce que quand un décideur haut placé voit arriver la note synthétique, il va simplement la lire, et être attiré ou non selon l'importance de ce qui est exposé par rapport à la stratégie générale. Si c'est positif, le dossier va aller vers une seconde personne qui devra l'analyser plus en détail, pour avoir une idée plus précise (le quatre pages pour une grande société, le corps de 10 pages pour une plus petite). Enfin, si après ce second (ou troisième crible) l'avis est toujours positif, on finira par un avis plus détaillé, prenant en compte les divers aspects informatifs ayant permis la rédaction de la note. A ce niveau ce sont de véritables experts qui réaliseront l'analyse finale. Si on estime alors le système toujours positif, on ira vers la décision: que doit on faire? On sera alors placé devant plusieurs choix décisionnels. Souvent, pour parfaire la décision et avoir une idée de ses conséquences, la méthode des scénarios sera utilisée avant la décision finale et l'action. 13.3 - La feuille d'impact stratégique Ce cheminement, qui est propre à l'intelligence, a été schématisé par la Société Conseil Kirk Tyson, à la Conférence portant sur la "Competitive Technical Intelligence", une manière d'exprimer en américain le concept de Veille Technologique Active, qui s'est tenue aux USA en 1997 (SCIP, Competitive Technical Intelligence Symposium, 20-21 Février 1997, Boston). Technology Watch and Competitive Intelligence Intelligence Hierarchy Special Intelligence Briefings Monthly Intelligence Biefings Situation Analysis Strategic Impact Worksheets Company Profiles Monthly News Bulletins Databases Public or Home Made F.C.S. - Data Gathering From Kirk Tyson 1997 C.R.R.M. Les produits d'information dans le travail de Veille et d'Intelligence Economique: la feuille d'impact stratégique On constate que ce qui est appelé "strategic impact work sheet" nait à la suite d'un processus complexe de recueil et d'analyse d'informations (nous en avons décrit les principales étapes). Ensuite, le ou les décideurs font ce que l'on nomme une analyse de situation, qui reprend les étapes liées aux différentes parties du dossier jointes à la feuille d'impact stratégique. On passera ensuite selon le niveau des préoccupations (menaces ou opportunités) aux réunions mensuelles ou à des briefings spéciaux, et ensuite à la décision qui pourra être précédée par différentes études de scénarios. 13.4 - Les produits "papier" Ils devront avoir un format particulier afin qu'ils soient parfaitement reconnus par les décideurs. L'importance du format, du titre, de la couleur, qui vont caractériser la provenance de la lettre de la note ou du rapport devront être identiques dans le temps. Il faudra créer un "look" particulier. En effet, le courrier est important. Même les notes qui transitent sur des circuits spéciaux sont nombreuses. Il faut donc créer des éléments de différenciation. C'est pour cela qu'une attention particulière devra être portée sur la forme aussi bien que sur le fond. On pourra garder dans le service les parties détaillées du rapport pour consultations ultérieures par des experts. La Feuille d'Impact Stratégique (Feuille de Synthèse Action) selon François Jakobiak (Pratique de la Veille Technologique, Editions d'Organisation, Paris, 1995), ne doit pas être produite avec une périodicité constante. Elle est faite pour alerter, il ne faut pas que l'on s'habitue trop à sa présence systématique, si non, l'intérêt diminuera. Elle ne doit pas être diffusée à tout le monde, il faut avant de travailler établir qui doit connaître les résultats d'un travail stratégique accompli sur l'information. La figure suivante montre un contenu "presque fictif", d'une Feuille d'Impact Stratégique qui est utilisé comme exemple dans le cours de Veille Technologique et d'Intelligence Compétitive du DEA de l'Université Aix-Marseille III (CRRM), est des formations de mastères du CERAM et de l'ESIM ainsi que du MBA d'IDS. Hyperinformation - One page of synthsis and action Visualization as we saw in the former slides is an help for the analysts. But, the CEO wants generally a set of informations already evalutaed by the experts. Example: The increase patent number of Company xxx, the visit of M. yyy to the Arington House supplier of high pressure ultra-waves furnaces and the paper produce par M. zzz and M. yyy of the University of Burton at the International Congress of Polymerization prompt us to think that xxx is developping a new set of high resistance polymers. This will give them a good market position an rehinforce their competition in the field of accoustic panels for express ways. We still have no action in this area. CRRM Exemple de feuille d'impact stratégique Cet exemple est écrit en anglais, pour bien souligner que dans une structure internationale, et même si les réunions ont lieu en France, la langue utilisée est l'anglais. Simplement, parce que les participants venant de différents pays il faudra un dénominateur commun. Cela sera encore plus vrai dans le cas de la diffusion des informations sur un réseau, à cause de la facilité internationale de transfert. Nous allons détailler le contenu de cette feuille: Les faits: * analyse des brevets systématiques des concurrents, d'où détection d'une augmentation du nombre des dépôts, * la visite d'un concurrent chez un fournisseur de matériel stratégique, on a du systématiquement interroger les fournisseurs et recouper les informations, * le suivi des congrès internationaux spécifiques à l'orientation de recherche et de développement. Analyse des participants et recoupement avec les noms de sociétés, Les experts et leurs analyses: * analyse des faits par les experts techniques: ils peuvent développer un nouveau polymère à haute résistance, * analyse par les spécialistes de la concurrence et du marketing: cela peut améliorer la position de notre concurrent sur un marché sensible, Commentaire: nous ne faisons encore rien dans le domaine ? C'est cet ensemble qui sera détaillé dans le quatre pages, puis dans un rapport plus conséquent, et enfin dans les annexes. L'ensemble du raisonnement devra être retracé et validé. A partir de cette information, et si elle constitue une menace, on analysera ce qui pourrait être fait, tant au plan de la recherche, que des alliances, etc... Souvent, on utilisera la méthode des scénarios pour avoir une idée possible de la résultante des décisions qui seront prises. 13.5 - Les produits informatiques Ils seront du même type que les produits papiers, mais l'utilisation des réseaux informatiques permettra une diffusion très ciblée, immédiate, et elle pourra conduire à un échange très rapide de commentaires. Ces derniers pourront en outre être inclus dans les documents, ce qui facilitera ensuite le travail d'innovation et de compréhension. En outre, il pourront avoir une présentation globale plus synthétique, avec de nombreux renvois en hypertexte, ce qui permettra de vérifier une hypothèse, de connaître les experts qui ont travaillés sur cette analyse, le nom du ou des congrès, les autres participants.... On ouvre ainsi tout un champ à la curiosité du lecteur, qui pourra, en fonction de ses préoccupations (stratégiques, économiques, techniques), parcourir le document à partir d'une arborescence hypertexte crée par les réalisateurs du document. Ceci évitera d'une part la duplication des produits (ce qui est fréquent au niveau du papier) et d'autres part les ennuis liés à leur diffusion et à la confidentialité pendant celle-ci. En même temps, le classement, l'archivage et la gestion des documents seront facilité. Cela est intéressant lorsque le raisonnement des experts, ou une analyse plus poussée conduit à des rapprochements avec ce qui a pu être fait dans un passé récent. Les facilités de transmissions permettront aussi une rapide consultation des experts, qui pourront si nécessaire accéder à l'ensemble du dossier qui sera lui aussi informatisé. Les systèmes de diffusion sont nombreux: depuis Lotus Note, jusqu'à de simples messageries, des transferts de fichiers, des produits en CD-ROM, etc.. Attention cependant, la diffusion informatique non cryptée d'informations à caractère stratégique peut être risquée. Le risque doit être évalué. Notons qu'il existe de nombreux systèmes de cryptages et qu'il valent la peine d'être utilisés. La sécurité ne sera pas absolue, mais l'accès direct aux informations sera ralenti. En outre, et on verra ceci par la suite, le développement du commerce électronique et la libéralisation du cryptage aux Etats-Unis conduira à une attitude identique dans la majorité des pays du monde. Il faut donc s'y préparer et ne pas dire naïvement on ne cryptera pas puisque cela est interdit ! Nous verrons, au niveau des études de cas, qu'il existe de nombreux logiciels de cryptage, depuis de simples freewares, en passant par des sharewares puis par des produits commerciaux plus sophistiqués. 14 - L'analyse des informations Nous entendons par analyse des informations, une analyse automatique qui permettra à l'aide de systèmes informatiques de visualiser rapidement les informations avec leurs liens et leurs fréquences. L'analyse manuelle est plus longue, mais relève du même principe. Nous dissocierons aussi ce type d'analyse globale, de l'analyse plus précise qui devra être réalisée de toute façon manuellement (on devra toujours lire, mais on lira simplement ce qui semble le plus important) lorsque le tri principal aura été réalisé et lorsque les corrélations les plus pertinentes ou inattendues auront été mises en évidence. Ce champ de recherche et de travail devient, au fur et à mesure de l'accroissement des quantités globales de données à analyser de plus en plus important. (Data Mining, State of the art, Byte, pp.81-83, Octobre 1995 - The Data Golden Rush, Byte, pp.83-90, Octobre 1995 - Data Mining Dynamite, Byte, pp.92-97, Octobre 1995) 14.1 - Principes généraux Notre objectif n'est pas de rentrer dans le détail, on pourra consulter à ce sujet les textes de publiés dans la Veille Technologique (Veille Technologique, H. Desvals, Henri Dou, Dunod, 1992), ainsi que le travail publié très récemment sur la bibliométrie et ses techniques par Hervé Rostaing. (La Bibliométrie et ses Techniques, Hervé Rostaing, co-édition Sciences de la Société-CRRM, Marseille, 1996). Il faudra, pour que l'analyse soit la plus représentative possible, que le corpus à analyser soit le plus représentatif possible du sujet. Un bon corpus donne une bonne analyse, un mauvais corpus une mauvaise analyse. Attention cependant, quand nous disons bon corpus, cela ne veut pas dire que le sujet soit restreint de façon à ne donner plus que quelques réponses! L'analyse globale, faisant apparaître des corrélations inattendues, nécessite une vision large du sujet, y compris avec du "bruit" au sens documentaire du terme. De la même façon , il ne faudra pas que la même référence apparaisse plusieurs fois, si non les relations statistiques seraient faussées. Enfin, il ne faut pas qu'il existe des erreurs typographiques ou de saisie, l'ordinateur ne pouvant pas faire la différence, ni rectifier ces erreurs systématiquement. Une fois le corpus correctement traité, l'analyse automatique va consister à réaliser à partir de celui-ci toutes les corrélations permises entre différents champs documentaires. C'est ainsi que l'on pourra réaliser le réseau des thèmes abordés dans le corpus et leurs liens entre eux par l'utilisation du champ des mots clés, le réseaux des auteurs impliqués par l'utilisateur du champ auteur, le qui fait quoi par une corrélation entre auteurs et mots clés (ou inventeurs et codes CIB dans les brevets,) etc... Le principe est de réaliser des matrices, puis de les transférer dans des logiciels de représentations ou de comparaisons. On arrive ainsi à des matrices de corrélations (très utilisées au plan des technologies, avec le support de la méthodologie de Zwicki (Discovery, invention, research: through morphological approach, Zwicky F, Toronto, MacMillan, 1969), à des graphes de liens avec leurs fréquences. On établit ainsi des groupes d'auteurs, de thèmes .... . On peut aussi, en prenant un certain nombre d'éléments de comparaisons (par exemple pour des brevets: codes CIB, code Derwent, mots du titre traités par Derwent), regrouper des références par affinités (ici des références brevets), en définissant les liens inter et intra groupes. Ce sera alors de la sériation par blocs, etc... (Blocks seriation problem: an unified approach, Marchotorchino F., Applied stochastic models and data analysis, vol.3, 1987). 14.2 - Quelques exemples La référence suivante est issue d'un télédéchargement. Un ensemble de références sera analysé par diverses méthodes en effectuant des corrélations à partir des champs PA (Patent Assignee) et IC (International Classification). LIST 27 06-01-91 09:31 MISSILE -2TI - Control of guided missile during flight - using nongravitational reference system established by inertial mechanism TT - CONTROL GUIDE MISSILE FLIGHT NON GRAVITATION REFERENCE SYSTEM ESTABLISH INERTIA MECHANISM PA - (SFIM-) SFIM SOC FAB INSTR PN - EP-420760-A 91.04.03 (9114) Example of data DC - T06 W07 Q79 R26 IC - F41G-007/36 F41G-009/02 G05D-001/10 AP - 90.09.28 90EP-402685 PR - 89.09.29 89FR-012765 Patent Reference from WPIL (Derwent). Correlation inter-fields PA (Patent Assignee) and IC (International Classes) with the software DATAVIEW. CRRM Exemple de références brevets utilisées pour les traitements suivants 14.2.1 - Exemple de corrélations matricielles Matrice made by DATAVIEW and imported within EXCEL Treshold Frequency 2 Exemple de matrice réalisée à partir du logiciel DATAVIEW et exportée vers EXCEL Même matrice représentée en trois dimensions pour permettre un accès plus visuel aux données (certaines personnes préfèrent la représentation matricielle, d'autre la représentation 3D !). Matrice, view 3D within EXCEL Exemple de représentation sous EXCEL de données matricielles après exportation de celles-ci à partir du logiciel DATAVIEW 14.2.2 - Exemple de réseau Network develop with MATRISME (CRRM - Le Pont) Exemple de réseau créé avec le logiciel MATRISME et des données exportées à partir du logiciel DATAVIEW 14.2.3 - Exemples de comparaisons de listes, et de bench-marking automatique Une liste de termes, contenues dans un champ bibliographique donné, peut être aisément obtenue par des commandes spécifiques de serveurs en ligne, ou par l'utilisation de logiciels spécifiques hors temps serveur, e.g. Dataview (Dataview est un logiciel qui a été développé au CRRM par A. Latela, L. Quoniam, H. Rostaing, il est décrit dans http://crrm.univ-mrs.fr). Nous aurons par exemple à traiter du sujet: Lubrification à haute température, dans le domaine des brevets, avec une comparaison à réaliser entre une dizaine de sociétés pétrolières. Une fois que le vocabulaire spécifique de la recherche aura été établi (par exemple high(W)lubricating(w)oil, on peut adjoindre des codes IC ou DC, etc...). On réalisera une recherche globale sur le sujet, puis on limitera celle-ci par nom de sociétés (en utilisant le champ PA). On aura pris soin de bien regrouper les noms de "patent assignees" appartenant au même groupe industriel. On aura ainsi x groupes de brevets, chacun afférent au même thème, mais pour des sociétés ou groupes de sociétés différentes. On effectuera alors pour chacun d'entre eux, une commande GET (serveur ORBIT) sur le champ des IC (classe internationale des brevets), ou sur le champs MC (manual code de Derwent) selon la finesse du bench-marking à réaliser. Chacune des listes d'IC par exemple, sera sauvegardée sur le disque dur, on pourra éventuellement ne prendre que les 4 premiers digits du code. Ceci fait, on passera alors hors temps serveur, et en utilisant un logiciel de comparaison (Datalist, comparaison simultanées de 32 listes ayant un nombre de termes infinis) (le logiciel DATALIST a été développé au CRRM par H. Dou et L. Quoniam, il est décrit dans http://crrm.univ-mrs.fr), on aura une représentation matricielle des IC communs, des IC utilisés par un seul patent assignee, etc... avec toute la gradation possible. Il sera donc aisé, à partir de cette représentation de déterminer sur le sujet donné (lubrification à haute température), les thémes de recherche communs (peu de différentiation), et les termes rares (plus de différentiation) utilisés dans les recherches effectuées par ces sociétés. Comparaisons entre différentes listes IC, MC, KW ... Les listes peuvent être obtenues en ligne (MEM, GET, ZOOM RANK) ou hors temps serveur DATAVIEW (@CRRM) List1 **** %% === ~~~ ---- List2 %% === +++ ~~~ && ---- List 3 **** List4 %% === +++ +++ ### 1 2 1 1 1 1 1 1 1 ---- ---- 1 3 4 1 1 1 1 1 1 1 1 1 1 1 La comparaison peut s'effectuer sur 32 listes de longueur illimitée. CRRM Exemple de comparaison simultanée de listes réalisées à partir du logiciel DATALIST Le même système de comparaisons a été utilisé dans le cadre de la détermination de compétences d'auteurs dans des thèmes donnés, etc.... cette méthode est extrêmement puissante, puisqu'elle conduit à représenter les avantages, les parties communes, les éléments de différentiation dans la même matrice. C'est un puissant outil facilitant une vue d'ensemble et permettant une réflexion rapide des experts sur les stratégies mises en jeu. En effet, dans le cas des experts par exemple, on regarde les compétences nécessaires pour réaliser le sujet x, puis, ceux qui les possèdent non pas dans une même publication, mais dans un intervalle de temps donné. Une autre exemple réel (extrait d'une étude réalisée entre le CRRM et l'Université de la Méditerranée (Aix-Marseille II, service recherche, M. Poupinet) est le suivant: Nous suivons, dans un laps de temps donné (généralement de l'ordre de deux ans), les orientations des principaux travaux publiés dans les Villes du Sud de l'Europe. Pour cela, nous utilisons la base de données du Science Citation Index sur le serveur DIALOG, car elle possède un champ de classement des expertises globales auxquelles la publication se réfère. On détermine la production pour chaque ville, puis on réalise sur tous ces ensembles un RANK CONT (qui signifie que l'on trie par ordre décroissant les thèmes placés dans le champ documentaire analysé). On stocke ces diverses données. Ensuite l'utilisation du logiciel DATALIST, permet de réaliser toutes les comparaisons d'un seul coup, puis de transférer les données dans EXCEL. Un extrait significatif de l'ensemble du tableau est le suivant: Barcelone BIOCHEMISTRY & MOLECULAR BIOLOGY NEUROSCIENCES IMMUNOLOGY PHYSICS ONCOLOGY MEDICINE, GENERAL & INTERNAL 586 363 294 238 246 767 Bordeaux 291 313 99 118 166 127 Grenoble 760 139 135 763 206 136 Lyon 645 387 319 303 497 247 Marseille 585 402 265 236 226 216 Milan 806 614 544 331 979 284 HEMATOLOGY CHEMISTRY, PHYSICAL CHEMISTRY, ORGANIC PHARMACOLOGY & PHARMACY GENETICS & HEREDITY MICROBIOLOGY CELL BIOLOGY MULTIDISCIPLINARY SCIENCES SURGERY ASTRONOMY & ASTROPHYSICS CLINICAL NEUROLOGY MATERIALS SCIENCE 362 257 291 391 307 185 195 70 292 86 223 198 172 199 100 129 94 76 92 82 65 46 87 170 209 417 136 108 283 76 194 148 138 171 78 835 297 460 190 227 217 184 203 149 228 112 142 344 208 191 183 176 176 171 166 165 161 161 150 145 714 264 280 563 282 132 319 92 316 162 376 193 Répartition (partielle) des thèmes scientifiques des travaux de recherche dans les villes du Sud de l'Europe Ce tableau comporte d'autres villes (Turin, Nice, Toulouse, Montpellier). On tient compte, pour déterminer l'ensemble des données publiées dans une ville, des différentes implantations universitaires (e.g. Bordeaux-Talence, Aix-Marseille, Nice-Sophia Antipolis-Valbonne.....). Dans le cas présent les données sont prises entre 1995 et Octobre 1997. On voit aisément comment un tel tableau (il y a plus de 190 entrées) peut être utilisé. En effet, il est le reflet de la capacité en sciences fondamentales "dures" des différents laboratoires des villes considérées. Selon la fréquence, il met en évidence des potentiels plus ou moins grands. Le propos ne sera pas de vérifier si les laboratoires produisent bien ou mal, mais quels sont les thèmes principaux de la production, donc en principe de l'expertise. Ces thèmes sont ils en phase avec ceux que l'on veut développer au plan régional, y-a-t-il distorsion entre ce qui est affiché et les moyens réels pour le réaliser ? Les forces d'expertises sont elles concentrées dans des thèmes générateurs d'entreprises et d'emplois ? Quels seront ces emplois: de services, réellement industriels ? Au cours des années, voit se dessiner pour certaines villes une volonté de planification ? On conçoit comment une telle approche peut à la fois donner de bonnes indications, généralement globales et inconnues de la majeure partie des experts, mais comme elle peut aussi soulever bien des inquiétudes chez certains. 14.2.4 - Exemple d'une sériation par blocs L'exemple qui va suivre est extrait de la thèse de Patrick Baldit (Thèse Sciences de l'Information, Université Aix-Marseille III, Centre de saint Jérôme, CRRM, 1995). Un ensemble de brevets a été traité par un logiciel spécifique développé par Patrick Baldit. A partir de la classification internationale des brevets, des codes Derwent, et des Manual Codes de Derwent, l'ensemble des brevets a été sérié. On a tout d'abord écarté les éléments non significatifs, puis on a réalisé la sériation qui est représentée ici sous Excel. Comme la lecture de celle-ci n'est pas possible via cette visualisation, on créé en même temps un hypertexte (format .HLP de Windows), qui permettra d'accéder facilement aux différentes classes de brevets, aux références qui les composent, puis de passer d'une classe à l'autre par les liens inter-classes. La navigation dans la classe étant réalisée par les liens intra-classe. Voir aussi à ce propos: Blocks seriation problem: an unified approach, Marccotorchino F., Applied Stochastic models and data analysis, vol.3, 1987. IC, DC, MC classes Représentation par blocks effectué visualisées sous Excel. numéros des brevets Liens inter classes Données écartées car non significatives Résultat de la représentation de la sériation sous le logiciel EXCEL La figure suivante montre l'hypertexte qui a été créé pour consulter la sériation précédente: Liens vers les références de la classe Liens intra-classes Liens inter-classes Ensemble d'une des références télédéchargées (serveur Questel-Orbit) Hypertexte (sériation précédente) Exemple de sériation présentée sous forme d'hypertexte 14.3 - L'Infographie et les représentations Les représentations que nous venons de voir entrent dans le domaine de ce que l'on appelle l'infographie. Ces représentations sont simplement une manière synthétique de représenter d'une façon compacte des données, afin de les "ranger" pour leur donner du sens. Bien des représentations font appel à de la statistique, à des traitements mathématiques, etc... Il existe de nombreux outils de représentation: TEWATCH (IBM), TEXTMINING (IBM), SAMPLER (CISI), TETRALOGIE (IRIT), LEXIMAPPE (CNRS-CERESI), MATRISME (a été développé conjointement par les laboratoires Le Pont Université de Toulon et du Var (E.Boutin) et le CRRM Université Aix-Marseille III (H. Rostaing)), AUTOCODER (Smart Software), Neurotext (Grimmer Logiciel), DATAVIEW (CRRM), ... ces logiciels intègrent à la fois un mode de représentation plus le traitement automatique des données formatées. Il ne faut pas confondre, avec les logiciels de représentation purs, ou d'autres logiciels statistiques (Statistica, Statgraphics, ....) où il faut transmettre à ces derniers les données traitées (par une fonction export, comme cela est la cas dans Dataview), ou alors développer un programme d'introduction automatique des données dans le logiciel, voire de les saisir une à une à la main. Cette connaissance de base, a amené certains auteurs à se spécialiser dans ce domaine, et une dérive est perceptible: on perd de vue la finalité des traitements pour se focaliser uniquement sur les techniques d'analyse, les représentations, les réseaux, etc. 14.3.1 - Exemples de représentations On peut représenter simplement le système de la manière suivante: Supposons qu'un professeur de gymnastique ait deux classes de Seconde de 30 élèves. Ces élèves sont classés par ordre alphabétique, comme cela est toujours le cas. Il fait faire à ces derniers une course de 100 mètres chronométrée. Il note devant chaque élève le temps mis pour parcourir les 100 mètres. Il a donc un ensemble de données, sur un cahier, suivant la liste de ces élèves. Mais, il peut faire beaucoup mieux. A partir des données précédentes, il peut créer une autre représentation: sur une échelle linéaire des temps, il placera le nom de chaque élève en fonction du temps mis pour parcourir cette distance. Il peut même le faire avec un tableur du type Excel. Le graphe suivant est obtenu: Jerome Ulrich Jean Francine Alain Pierre Série1 Amédé Jeanne Carine Georges Noémie Fernande 0 2 4 6 8 10 12 14 16 18 20 Exemple de transformation de données en graphe On constate alors que l'on peut représenter l'ensemble des élèves en deux classes principales chacune pouvant se diviser en deux sous-classes. On pourrait aussi fixer les groupes avec les élèves entre 13 et 14, puis entre 14 et 15, etc... A partir de ce graphe on voit très bien qu'il va pouvoir, pour les mêmes données, avoir une vision différente: sa classe sera divisée en un certain nombre de groupes, il pourra ainsi organiser plus facilement un entraînement ou un perfectionnement. L'évolution dans le temps de cet ensemble lui permettra de juger des progrès accomplis. Mais il peut aller plus loin, d'autres paramètres peuvent intervenir dans la représentation: l'âge, le sexe, ... ceci conduira alors non pas à une représentation linéaire, mais à des classes, des graphes tridimensionnels, etc. Mais il ne faudra jamais oublier, que l'infographie est un outil qui permet de faire gagner du temps aux analystes, c'est à dire aux experts. C'est un outil puissant, puisqu'il a une valeur synthétique forte. Sa qualité réside à la fois dans l'utilisation des couleurs, des graphes ... mais aussi et c'est sans doute le plus important dans le choix d'une méthode (de calcul, de représentation) qui ne distorde pas les résultats. En amont même, c'est le type de données utilisées qui est important. Par exemple, dans une grande société une démonstration brillante est faite sur l'analyse de brevets, sauf que, pour analyser les brevets et sérier les données, on se base sur les mots contenu dans le titre des brevets ! Tous les spécialistes en propriété industrielle vous dirons que le titre n'est que très peu représentatif du contenu, même si un indexeur (DERWENT), ajoute quelques mots supplémentaires plus significatifs. Ainsi, à grands effets, petits résultats, et si l'on persiste perte de sens dans l'analyse et désinformation interne. (C'est la pire car générée en interne en toute bonne fois, elle peut être considérée comme parfaitement fiable !) Dans les représentations les plus sophistiquées (Dataview et Matrisme, Tewatch, Leximappe, Tétralogie), On associe celles-ci avec des hypertextes qui en cliquant sur un point singulier de la représentation, conduisent à accéder directement aux contenus des références qui sont afférentes à ce point précis. Ainsi par exemple une analyse d'un graphe des technologies présentes dans une question précise, conduira à accéder aux références et à leur résumé, pour chacun des points du graphe, sans avoir à consulter diverses bases de données ou listings. Ceci conduit à un gain de temps absolument significatif pour les experts. 14.3.2 - Représentations de diverses productions scientifiques Dans les deux figures suivantes, on montre deux représentations synthétiques, utilisées par l'auteur. Elles synthétisent sur un même graphe, la production scientifique de plusieurs villes dans un même domaine, celui de la chimie, et pour une année donnée. Ceci est indiqué dans la figure suivante qui représente sur un simple graphe la production totale des Villes du Sud de l'Europe (réalisation à partir des données de la base Chemical Abstracts, serveur Questel-Orbit): Chemistry south Europe La répartition des publications en chimie (Chemical Abstracts) dans le Sud de l'Europe Nous avons sur cette figure une représentation globale de la production scientifique de différentes villes du Sud de l'Europe. Il s'agit ici d'une représentation infographique très simple, mais qui positionne bien les volumes de travaux publiés. Cependant, les contenus ne sont pas déterminés. Pour ce faire on va utiliser une représentation plus précise. Les domaines de publications (il y en a quatre vingt, sont décrits par les sections des Chemical Abstracts), ces données sont accessibles via le même serveur. On va donc utiliser une autre représentation donnant accès à la production scientifique elle même. Les 80 sections des Chemical Abstracts seront toujours représentées sur un damier de 80 cases, leur position étant toujours identiques pour faciliter le repérage rapide à la lecture. Le nombre des publications étant toujours proportionnel à la hauteur du cylindre représentant la production dans le domaine. Représentation des travaux publiés à Marseille en 1996 (extrait statistique de la base de données des Chemical Abstracts) Représentation des travaux publiés à Orsay en 1996 (extrait statistique de la base de données Chemical Abstracts) On constate ainsi le pouvoir de synthèse de ces deux représentations infographiques, qui montrent à l'évidence la différence de politique de développement entre les deux villes prises comme exemple. On peut ainsi synthétiser la représentation et la comparaison de plusieurs centaines de références sur un même graphe, si cela est nécessaire. Le logiciel automatique de représentations utilisé est Datacode (CRRM, Mapping the Scientific Network of Patent and Non-Patent Documents from Chemical Abstracts for a fast Scientometric Analysis, World Patent Information, n°2, Juin 1988)). Listes et numéros des sections utilisées dans les Chemical Abstracts 1 pharmacology 3 biochemical genetics 5 agrochemical bioregulators 7 enzymes 9 biochemical methods 11 plant biochemistry 13 mammalian biochemistry 15 imnunochemistry 17 food and feed chemistry 19 fertilizers; solids; and plant nutrition 21 general organic chemistry 23 aliphatic compounds 25 benzene; its derivates; and condensed benzoid compounds 27 heterocyclic compounds( one hetero atom) 29 organometallic and organometalloidal compounds 31 alkaloids 33 carbohydrates 35 chemistry of synthetic high polymers 37 plastics manufacture and processing 39 synthetic elastomers and natural rubber 41 dyes; organic pigments; fluorescent brighteners; and photo. sensitizers 43 cellulose; lignin; paper; and other wood products 45 industrials organic chemicals; leathers; fats; and waxes 47 apparatus and plant equipment 49 industrial inorganic chemicals 51 fossil fuels; derivatives; and related products 53 mineralogical and geological chemistry 55 ferrous metals and alloys 57 ceramics 59 61 63 65 67 air pollution and industrial hygiene water pharmaceuticals general physical chemistry catalysis; reaction kinetics; and inorganic reaction mechanisms 69 thermodynamics; thermochemistry; and thermal properties 2 mammalian hormones 4 toxycology 6 general biochemistry 8 radiation biochemistry 10 microbial biochemistry 12 nonmammalian biochemistry 14 mammalian pathological biochemistry 16 fermentation and bioindustrial chemistry 18 animal nutrition 20 history; education; and documentation 22 physical organic chemistry 24 alicyclic compounds 26 biomolecules and their synthetic analogs 28 heterocyclic compounds( more than one hetero atom) 30 terpenes and terpenoids 32 steroids 34 amino acids; peptides; and proteins 36 physical properties of synthetic high polymers 38 plastics fabrication and uses 40 textiles 42 coating; inks and related products 44 industrial carbohydrates 46 surface-active agents and detergents 48 unit operations and proceses 50 propellants and explosives 52 electrochemical; radiational; and thermal energy technology 54 extractive metallurgy 56 nonferrous metals and alloys 58 cement; concrete; and related building materials 60 waste treatment and disposal 62 essential oils and cosmetics 64 pharmaceutical analysis 66 surface chemistry and colloids 68 phase equilibriums; chemical equilibriums; and solutions 70 nuclear phenomena 71 nuclear technology 73 optical; electron; and mass spectroscopy and other related properties 75 crystallography and liquid crystals 77 magnetic phenomena 79 inorganic analytical chemistry 72 electrochemistry 74 radiation chem.; photochem.; and photo . and other reprographic processes 76 electric phenomena 78 inorganic chemicals and reactions 80 organic analytical chemistry Le problèmes du vocabulaire et de la classification est toujours très important. Dans tous les cas, si vous n'avez pas de classification ou de vocabulaire déjà utilisé, il vaut mieux repérer la base de données qui couvre le mieux votre domaine, et prendre comme vocabulaire de référence, ou comme codes, ceux qui sont utilisés dans cette base. Ceci permettra de réaliser des comparaisons et intégrera vos travaux ou vos indexations dans un ensemble cohérent. 14.3.3 - Représentations des domaines structurants Enfin, on peut aller plus loin, pour avoir une vision macroscopique des interrelations entre différents domaines de recherche (utilisation des 80 sections), ou aller si cela est nécessaire vers une vision microscopique des mêmes relations en utilisant des mots spécifiques par exemple le champ ST Supplementary Terms, des Chemical Abstracts, aussi accessible sur la même base. On pourra tracer un réseau de ces relations. Ce réseau sous-tendra la réflexion des experts ou des décideurs. Dans ce cas, les travaux centrés sur un seul thème (une seule section) n'apparaîtront plus bien évidement. Graphe des thèmes réalisé à partir des sections principales te secondaires des Chemical Abstracts, Marseille (en partie) 1996. On notera la présence des pôles structurants 10 (microbial biochemistry), 14 (mammalian pathological biochemistry), 15 (imnunochemistry), 51 (fossil fuels; derivatives; and related products), 75 (crystallography and liquid crystals). Le graphe ci-dessus ne veut pas dire que le continuum des thèmes est assuré à partir de personnes qui ont des liens entre elles, en effet, c'est un continuum virtuel. Pour avoir un continuum réel entre individus, qui se connaissent réellement, il faut réaliser le même graphe sur le champ des auteurs. On pourra consulter à ce sujet le travail suivant: Virtual research universes and research management, Dou H., Dou J.M., jr, Technology Analysis and Strategic Management, Janvier 1995. Dans la réalité de la présentation des graphes, on opère sur un ordinateur, et les experts peuvent, en cliquant avec la souris sur un des pôles du graphe, accéder au texte des références qui ont été analysées. Ceci permet une très bonne assistance au raisonnement et à l'interprétation. Nous reviendrons dans les chapitres suivants sur l'infographie. Mais notons tout de même qu'elle n'est pas limitée à des représentations en réseaux ou sous forme de graphes. En effet, les données selon leur contenu, peuvent liées à des représentations extrêmement variées, telles que par exemple les réprésentations géographiques. C'est ainsi que ArcView GIS (http://www.esri.com), l'un des logiciel leader dans le Desktop Mapping, indique dans sa présentation: "Do you have business data that have an address or can tied to a census block, city, region or country ? If your answer is yes, ArcView GIS software can help you to analyze your business data in new ways. ...... And optional extensions for Internet mapping, demographic analysis, and other applications further extend ..." On voit donc bien, que les représentations vont s'appliquer aux domaines les plus divers, l'objectif étant de faire gagner du temps au niveau de la visualisation, de la perception et du développement de nouvelles corrélations, et de nouvelles idées. 15 - Prévision Une question que l'on pose souvent est celle de la prévision. Est-il possible, à partir d'un système de Veille, d'Intelligence Economique, de prévoir ce qui va arriver ? C'est une question difficile. Il est évident que la notion d'anticipation est liée à la prévision, mais pas nécessairement comme ceux qui nous posent la questions peuvent le penser. En effet, il est hors de question de prévoir, au sens d'un tirage aléatoire. Par contre l'accumulation des données, leur traitement pourra permettre une meilleure probabilité dans les choix, en tenant compte des paramètres du jour (c'est ce que font les joueurs du tiercé, ainsi que certains parieurs sur le Football en Italie. Des bases de données traitant de ces problèmes sont mêmes accessibles sur Minitel ou sur d'autres serveurs.) Je pense, que l'Intelligence, les Veilles, conduisent avant tout à une meilleure compréhension des faits. Elles ne permettent pas directement de prévoir, mais à partir des faits recueillis, elles permettent une action, souvent la meilleure possible, compte tenu de son potentiel. Le joueur, au tiercé, n'est que parieur, il n'est pas acteur. Il peut gagner sur la probabilité du meilleur choix compte tenu du temps de la date, du terrain, etc. Mais, il ne peut pas agir sur la conduite du cheval ni sur sa préparation. C'est là que va se situer la différence principale entre la prévision, et l'action. Un certains nombre de faits vont peut être nous permettre de "voir" les prochains mouvements de nos concurrents. Mais, les stratégies ne sont pas indépendantes les unes des autres. L'Intelligence, les Veilles, au delà de la simple prévision, associe à celle-ci le renseignement d'une part, et d'autre part le mouvement interne et l'action qui vont permettre de contrecarrer les mouvements de nos concurrents. En ce sens, on ne prévoit plus, on est dans le domaine de la stratégie, et les informations, les recherches, les analyses, la compréhension des faits sont au service de notre propre stratégie qui devra intégrer les éléments du possible et tenir compte de nos propres forces. 16 - Quelle structure pour le service d'hyperinformation Doit parler de structure pour un tel service ? A notre avis pas nécessairement, encore qu'un certains nombre de moyens et de fonctions devront leurs être rattachés. Il est important à une époque où l'hypercompétitivité est devenue une règle, où le temps à tendance à se raccourcir, que le service ou l'entité génératrice des hyperinformations soit au service de cette dynamique et de ses objectifs. Elle n'est pas là pour réaliser des dossiers documentaires, ni des revues de presse ou de la gestion de normes. Elle est là pour fournir aux échelons de décision de l'entreprise, que ces derniers soient organisés sous forme matricielle ou en réseaux, des éléments d'information validés, analysés, structurés s'intégrant dans les processus de décision. Les personnes qui travailleront à plein temps ou à temps partiel dans cette structure, les experts qui seront utilisés, les personnes qui à l'extérieur de l'entreprise rechercheront puis transmettront des informations informelles et qui seront "aux aguets" devront s'intégrer et participer pleinement aux nouveaux principes d'organisation stratégiques des entreprises Dans ce cadre, l'adéquation organique au sens biologique du terme du système d'hyperinformation devient une nécessité. On quitte donc l'organisation de type bureaucratique fonctionnelle pour aller vers une intégration de plus en plus poussée dans les domaines stratégiques leaders qui auront été déterminés pour l'entreprise. Son évolution ne peut donc pas être figée, car les types d'informations à rechercher, la variabilité de leur nature en fonction des sujets et des urgences impliquent un niveau très fort d'adaptabilité et d'autonomie dans la décision. Dans certaines grandes entreprises, la tendance est à formaliser la Veille à travers de multiples outils, en lui associant un plan qualité, en créant des responsables par domaines (généralement scientifiques...). Cette organisation très structurée, peut être utilisable à un niveau strictement technique, mais à mon avis on ne fait alors que créer un échelon documentaire de plus. On ne fait donc que surveiller, on ne crée pas d'hyperinformations, on va trop lentement et on n'est pas assez mobile. En fait on ne situe plus dans le même domaine, celui de l'information pour action, liée à la stratégie de l'entreprise. Cette façon de voir et d'organiser la Veille, repose sur une culture d'entreprise ancienne et rigide, généralement née d'une position de monopole, et devra profondément se modifier pour bien saisir les changements qui vont intervenir à très courts termes. 16.1 - La nécessité d'une structure en réseau Nous avons vu dans les chapitres précédents l'importance des organisations nouvelles et leur implication dans les avantages concurrentiels des entreprises. Si on transpose ceci au niveau de l'entité devant générer dans l'entreprise de l'hyperinformation, on peut situer celle-ci prés des personnes s'occupant de la stratégie d'une part, mais aussi très proches de l'ensemble des acteurs susceptibles de rechercher des informations ciblées. Une telle structure ne peut être réalisée que par le travail en réseau. Ainsi, selon la structure de l'entreprise, son implication au niveau national, international, des correspondants ou des homologues devront travailler de concert, pour augmenter l'efficacité et les synergies, mais aussi parce que chaque entité, dans un système d'organisation en partenariat a son autonomie propre. Prenons par exemple un système de gestion évolué: celui de la Société ABB (Entreprise Suédoise et Suisse qui opère dans le monde sur plus de 140 pays). Celle-ci a su bâtir dans un système d'entreprises en réseaux et basé sur le partenariat, un ensemble informatique partagé (on peut l'appeler une base de données, bien que la réalité soit plus éloignée de ce concept), qui permet de créer les liens permanents entre tous les partenaires, en permettant une circulation de l'information particulièrement efficace, et en étant aussi le point d'entrée des ratios stratégiques qui permettront la constitution du tableau de bord global de l'entreprise. Ce système, qui a fait l'objet de multiples descriptions et analyses, montre bien que l'organisation en partenariat (sans doute l'apex vers lequel les sociétés hypercompétitives tendent) doit être complété par un ensemble de liens très élaborés. Il en ira de même pour l'entité productrice d'hyperinformations. Elle ne sera pas nécessairement centralisée en un seul lieu, elle pourra au contraire être multicéphale selon les différentes implantations de l'entreprise, l'essentiel étant que les informations (toujours focalisées sur les facteurs critiques de l'entreprise) soient recherchées, circulent, et puissent être au moment voulu mises en synergie et analysées. Cela va nécessiter une organisation à la fois au plan des personnes et de leurs relations et aussi au niveau matériel. Cette organisation devra tenir compte des mentalités et favoriser les changements nécessaires. Elles devra aussi avoir une grande souplesse, sans pour cela aller vers l'Adocratie que l'on rencontre souvent dans les petites entreprises travaillant dans la production de logiciels par exemple. Si on s'oriente tout de même vers une structure de ce type, il faudra éviter, car cela est très rapide dans un domaine foisonnant comme celui de l'information, un glissement vers l'anarchie, et la perte totale d'efficacité par une trop forte entropie. 16.2 - Changer les mentalités Dans une organisation de ce type, les mentalités jouent souvent le rôle de frein. En effet, l'entreprise, souvent marquée par des structures bureaucratiques fonctionnelles avait tout un système structurel pour transmettre les informations et les faire circuler souvent de haut en bas. Bien entendu, la nature humaine étant ce qu'elle est, et les systèmes d'avancement et de promotion ce qu'ils étaient, l'information était retenue à certains niveaux pour asseoir un pouvoir hiérarchique sans rapport avec la réalité. De nos jours, les systèmes d'organisation changent, la bureaucratie est remplacée par le management matriciel, mais devant ses contradictions, un glissement de plus en plus rapide s'effectue vers le partenariat et le management en réseau. Les grands systèmes centralisateurs sont mis au rancart, de grandes firmes comme l'Air Liquide, Schneider n'ont plus de plan stratégique informatique comme vecteur structurant. Ceci conduit à un changement des mentalités. Dans le cas des systèmes d'information modernes, la circulation interne de l'information doit s'effectuer librement. Le secret absolu est de moins en moins de mise, car les nouveaux systèmes technologiques sont tels qu'ils rendent la protection de plus en plus difficile. Les partenariats sur des projets, la concurrence sur d'autres, sont aussi des facteurs déstabilisants sur le plan de la protection de l'information. Il faudra donc appliquer ici la règle des symétries et rechercher chez les concurrents les informations qui systématiquement circulent et peuvent nous être utiles. En outre, la création de partenariats sur des objectifs précis avec des concurrents devient dans beaucoup de cas une pratique courante: contrats européens, tests cliniques pour certaines catégories de médicaments, réalisation de consortium pour emporter certains marchés, .... Tout cet ensemble va contribuer à la création de situations mouvantes, où les opportunités de s'informer et d'apprendre seront fortes. Ceci veut dire que l'ère dans ce domaine de la retenue et du "fair play" s'estompe de plus en plus devant l'âpreté de la lutte et la toute puissance de l'urgence et d'un temps de réaction de plus en plus court. L'attitude devant l'information doit changer: * ne pas faire de rétention d'information, * avoir une culture suffisante pour discerner l'important du futile, * transmettre les informations de manière à les rendre largement disponibles au sein de la structure, * participer pleinement à la collecte de ces informations et demander si nécessaire des orientations complémentaires en fonction de la progression de la collecte, * ne pas se cantonner à la vision stricte et ponctuelle du travail en cours, mais élargir son champ de vision pour être le plus possible à même de recueillir des indices dont la multiplicité deviendra stratégique, * "passer du temps" à cultiver le ou les réseaux dans lesquels on se trouve, ne pas être passif, * s'approprier les moyens de communication modernes, et apprendre à les utiliser dans le cadre de son travail (c'est le seul moyen de gommer les distances, puisque les entreprises s'installent dans la globalisation et dans des zones géographiques de plus en plus étendues). Dans un système de renseignement, l'efficacité de celui-ci peut encore être synthétisée davantage que ce que nous avons exposé au plan méthodologique dans les chapitres précédents. Pour cela regardons bien les points suivants: Pour être bien informé, il faut avant tout déterminer sur quoi s'informer et formuler la bonne question, c'est fondamental. Ensuite, lorsqu'en fonction de cela on recueille des informations (qui sont alors validées, classées par ordre d'importance), le bénéfice global pour l'entreprise ou l'institution sera de faire en sorte que des regards très différents soient portés sur ces informations, Donc qu'elles soient analysées et mises à disposition de nombreuses personnes, sélectionnées certes, mais de compétences et de sensibilités très diverses. On constate donc que la rétention d'information ira à l'inverses de l'objectif recherché. 16.3 - Utiliser les nouvelles technologies Le travail en réseau ne peut pas se concevoir à notre époque sans un système de plus en plus poussé de vecteur performant d'information. Nous avons vu, dans les chapitres précédents, que nous vivons une démocratisation de plus en plus poussée des méthodes et des outils de communication. Il faut, dans le système d'hyperinformation les utiliser pleinement afin d'en faire des avantages compétitifs par rapport à ceux qui ne feraient pas de même. Certes, cela va coûter de l'argent, généralement au départ, et on pourra toujours demander à quoi cela va-t-il servir et combien cela va-t-il rapporter. Mais, il faut opposer à cette attitude la "vision" étape décisive dans la réorganisation d'une institution, d'une entreprise. On a une vision, ou on n'en a pas, on a une bonne ou une mauvaise vision. L'utilisation de ces systèmes nouveaux, ces technologies de l'Information et de la Communication dont tout le monde parle est partie intégrante de la vision qui peut transformer une entreprise. De grands progrès technologiques ont été réalisés, d'autres sont en cours, tous contribuent à une baisse des coûts, à un fort accroissement des performances et à une simplification du système d'information. C'est ainsi qu'il est courant de trouver, même dans une PME, des ensembles d'ordinateurs en réseau, généralement sous Windows for workgroups ou pour Windows 95, avec des architectures plus ou moins complexes, les plus simples faisant appel au ressources du système d'exploitation et à un serveur Windows NT. Les performances accrues des ordinateurs (pentium 160 ou plus), des disque dur de capacités de plus en plus fortes, des lecteurs de CD-ROM, des scanners de bureau, des modems de plus en plus performants, même sur des lignes téléphoniques classiques (le RNIS ne se trouve qu'en France et nécessite l'utilisation d'un modem spécial, les autres modems standards n'étant pas utilisables) de logiciels à fortes compatibilités et très performants, permettent la réalisation d'une architecture de plus en plus sophistiquée avec des moyens somme toute limités. La communication, avec le développement de l'Internet a conduit par la normalisation des protocoles de transmission à un dialogue possible entre des machines de tous types, à une mise en forme des informations de plus en plus efficace, avec une normalisation de fait, le HTML. Enfin, l'apparition de systèmes informatisés du type ACROBAT d'ADOBE, permet de réaliser des documents multi plates-formes, accessible via l'internet, les réseaux internes, ou les CD-ROM. Outre le fait d'accéder à l'information, les messageries contribuent de plus en plus à la mise en place d'une organisation nouvelle dans les entreprises. Elles permettent des échanges permanents en temps quasi réel, et elles peuvent même dans beaucoup de cas bouleverser les schémas organisationnels rigides en "cassant" les hiérarchies. Il serait vain de vouloir structurer trop fortement la messagerie interne pour la contrôler. En effet, ce qui est fourni en "interne" est souvent moins performant que ce qui peut être accessible à domicile par n'importe quel personnel de l'entreprise, et qui lui donne une ouverture planétaire. On peut citer à ce sujet l'accés par le téléphone RTC avec Wanadoo par exemple, ou bientôt l'utilisation du cable avec des débits bien plus importants. De ce fait, on assiste à une intégration globale des informations, (texte, image, schéma, son, vidéo), à leur délocalisation sur des espaces internes (Intranet) ou externe si cela est nécessaire (Extranet, Internet). Ce foisonnement conduit à la nécessité de penser à un minimum d'organisation pratique avec un système gérant, analysant, diffusant de l'hyperinformation. La règle d'or sera la simplicité, l'adéquation des performances avec les besoins, l'unicité des logiciels et des systèmes, et surtout l'ergonomie, c'est à dire la facilité pour tout un chacun de s'approprier ces systèmes de communication et de consultation des informations. Selon le cas, un autre paramètre pourra entrer en jeu: une solution de format et de logiciel compatible à la fois avec l'internet, l'intranet, la réalisation de CD-ROM et la production de produits papier. Sur le plan même des concepts on assiste à une évolution, il y a très peu de mois, le concept de "push", dans l'accès aux informations n'était presque pas utilisé. Actuellement, avec l'arrivée de logiciels nouveaux (entre autre le dernier Netscape), ou d'add-ons télédéchargeables depuis internet, la notion d'accès en push se développe: votre ordinateur, en constante liaison avec le réseau internet reçoit les données qui vous intéressent et vous les transmets sur une bande en bas de votre écran. C'est ainsi que nous avons en direct les cours du Nasdac au laboratoire sur certains postes, sur d'autres des informations différentes immédiatement disponibles dés qu'elles arrivent sur le réseau, ceci en fonction de filtres actifs permanents créés dans votre machine, ou localisés sur un serveur distant. C'est ainsi que des cours de la bourse peuvent être disponibles, etc... Ce même concept est aussi utilisé par la télévision comme par exemple avec CNBC, où les cours de la bourse défilent en permanence sur le bas de votre écran de télévision, selon les émissions. On est ici à la limite du push, puisque vous n'êtes pas actifs. 16.3.1 Au delà des nouvelles technologies de l'information, les normes des produits d'information Le développement des technologies de transmission des informations, l'évolution des mentalités et la mondialisation, conduisent inévitablement à des méthodologies de travail différentes des méthodologies classiques utilisées localement. De nos jours le travail en réseau, la multiplicité des partenaires, conduit à une normalisation de fait des transferts d'information, mais ce qui est encore plus important dans la manière de confectionner les informations elles mêmes. C'est ainsi, que la soumission à des contrats mettant en jeux des partenaires multiples, l'entrée dans des projets complexes, conduit à présenter l'ensemble des activités que l'on aura (planning, compte rendus, réalisations, "input et output"), d'une manière cohérente pour tous les partenaires. C'est ainsi que sont nées, sous cette pression, les normes CALS. Elles ont été critiquées au départ comme devant ralentir l'ensemble des acteurs d'un projet, ceci à cause de leur complexité, mais, comme la DAO, la PAO .... elles se généraliseront sous la forme actuelle ou sous une forme plus simple. Ceci est important pour les petites et moyennes entreprises, dont la seule façon de survivre sera sans doute de passer à un niveau d'activité national, puis international et de participer à des réseaux, puis à des consortium soumissionnant sur des projets (industriels, européens, appel d'offre d'Etat, etc...). Elles doivent, dés maintenant avoir conscience que les normes de transmission des informations, aussi simples que celles nécessaires dans un appel d'offre, obéiront à un certain nombre de règles. Sans aller dans les détails, disons que par branches d'activité, elle devraient dés maintenant se tenir informées des évolutions de cette situation. On connaît généralement au niveau de la Bureautique les difficultés introduites par l'utilisation de traitements de textes différents, les difficulté introduites par des parcs d'ordinateurs disparates, entre autres les MacIntosh qui ne sont plus à conseiller, compte tenu de la très large diffusion de la norme PC. Disons que dans les méthodes du types CALS, on retrouvera ces difficultés, plus d'autres normes liées aux formats des données, etc. 16.3.2 - L'EDI L'Echange de Données Electronique, ou EDI est cité dans les 105 technologies stratégiques françaises. Cette manière de normer différents systèmes de représentation et de transmission des informations est très puissante, car elle va unifier diverses opérations, depuis la commande jusqu'à la fabrication et à la livraison. Elle sera d'autant plus utile, que diverses entreprises sont réunies par alliances ou par rachats dans une même société. La facilité de travail entre ces entreprises s'en trouvera grandement facilité. Pour donner un éclairage pratique sur ce sujet, nous fournissons à titre d'exemple un extrait du CD-ROM L'Actualité Technologique Française, produit par l'ADIT, le Ministère des Affaires Etrangères et Innovation 128. (CDROM 1997-1): LOGICIELS Innovations technologiques L'EDI entre dans le secteur du carton La société Lamirande, fabricant de cartons ondulés, a mis en place la gestion des commandes clients par EDI. Une première dans le secteur de l'emballage. Le groupe Nicollet passe environ 10 commandes par jour à la société Lamirande, spécialiste de cartonnage ondulé. Jusqu'ici le temps de traitement d'une commande était de 45 min. Nicollet devait fournir une dizaine de paramètres sur le produit commandé et la livraison se faisait à la demande. Avec la mise en place de l'Echange informatisé de données (EDI) sur le flux de commande, le fournisseur et le client se sont accordés sur un même langage, la norme internationale Edifact, pour transmettre leurs données. Le temps des correspondances commerciales est descendu à 15 min. Le délai entre l'ordre d'achat et l'ordre de production a été ramené à une heure. Les commandes sont intégrées à la gestion de production d'où un suivi du stock optimisé. Meilleur dialogue client fournisseur Enfin, les relations clients-fournisseurs se sont améliorées, les commerciaux ont davantage de temps pour dialoguer avec le client, la qualité et la sécurité des commandes est assurée. Aujourd'hui, Lamirande souhaite étendre le concept pour fidéliser au mieux ses autres clients. L'entrée dans une communauté EDI lui a permis dernièrement de remporter un marché avec la Sogedac, la centrale d'achat de PSA qui imposait l'outil EDI. Ce projet pilote développé avec l'assistance de la SSII Cazana demande un an de travail pour un investissement avoisinant le million de francs. Cette expérience réalisée chez Lamirande est en phase de généralisation à l'ensemble du groupe Giepac, quatrième groupe français de la filière carton. Afin d'intégrer l'EDI au sein de la filière, des travaux sont en cours depuis mars 95 au sein de l'Union syndicale du carton ondulé. Il s'agit pour les principaux membres du syndicat de profiter de l'application réussie chez Lamirande afin de mettre au point un langage commun propre à l'emballage au sein de la norme Edifact.C.G (Copyright C.E.P. Information et Technologie). M. Claude Gelé 16.4 - La norme HTML Actuellement, une norme de fait semble s'imposer pour la création de sites WEB (Internet ou extranet ou intranet), voire même pour la création de CD-ROM: c'est la norme HTML. Comment le HTML fonctionne Exemple <HTML> <center><a href="data.htm"><img src="logo.gif"></a> <H2>This is an example of a HTML file</H2> </center><P> Quand des catactères spéciaux sont présents on va utiliser un formalisme spécial: sa tête était coiffée, d'un bonnet ça <B>c'est vrai.</B> <BR> The text will be longer and most difficult to correct. </HTML> CRRM Le langage HTML, les marqueurs Le HTML conduit à ne pas transmettre une page formatée sur réseau. Cela demanderait trop de temps. Au contraire on va transmettre un texte en ASCII, mais incluant des marqueurs, par exemple <BR> pour aller à la ligne, <center> pour centrer, etc... La première ligne, par exemple signifie qu'en cliquant sur le logo (image stockée en format gif avec le nom de logo.gif sur l'ordinateur serveur), on accédera à la page HTML nommée data.htm sur le même serveur. Une fois le texte reçu sur votre ordinateur, il est interprété en local par un logiciel résidant, du type Netscape, Windows Internet Explorer, etc... Le résultat à partir du texte précédent et visualisé sur votre écran sera le suivant: How does the HTML system works L This is an Example of an HTML file. When texts include accents special markers must be used sa tête était coiffée d'un bonnet ça c'est vrai. The text will be longer and most difficult to correct. CRRM Résultat à l'écran de l'interpréteur HTML Il existe de nombreuse versions de HTML. Selon les versions des interpréteurs, certaines versions ne seront pas correctement lues. Il existe aussi des produits informatiques (freewares, sharewares, etc...) qui permettent à partir de textes en ASCII de transcrire ces derniers en langage HTML. Cela facilite le travail, surtout à avec les langues à caractères riches, mais une connaissance de base du HTML reste nécessaire. 16.5 - La norme ACROBAT d'ADOBE Nous avons déjà évoqué l'utilisation des produits ADOBE (le créateur du format postscript). ADOBE a conçu le système ACROBAT. Ce système est destiné à créer des fichiers à un format dit PDF (Portable Document Format), qui pourront être transformés, liés (par hypertexte) annotés, indexés à partir de programmes de travail spécialisés. Ces fichiers sont multiplateformes, donc reconnus par des systèmes tels que les systèmes PC ou UNIX. Ils seront lus en local par un programme gratuit, distribué par ADOBE: Acrobat Reader. Les fichiers pourront être réalisés soit directement à partir de textes saisis sous Winword, et contenant des images ou des graphes. On procède simplement par impression sur disque au format Acrobat à partir d'une imprimante virtuelle Acrobat installée à partir de l'ensemble des logiciels Acrobat, soit on pourra traiter des images scannérisées au format EPS (encapsulated postscript) et les transformer en fichiers PDF. ACROBAT d' ADOBE .PDF format Portable Document Format Le groupe de programmes Acrobat Par des programmes spéciaux d'Acrobate, on pourra lier les fichiers, créer des hyperliens à partir du texte ou des images, créer des imagettes, des signets, pour faciliter la consultation, etc. Dans le cas de documents imprimés (par exemples magazines) contenant du texte et des images, on scannérise le document, puis Acrobat Capture reconnaît la partie texte, la transforme en fichier PDF par OCR. Si la reconnaissance n'est pas bonne pour certains termes, ceux-ci seront laissés dans le texte sous forme d'images. Le texte ne sera donc pas altéré lors de la restitution. L'image étant traitée comme telle. Le tout est ensuite restitué à l'écran ou à l'impression dans le même format que le format original, texte avec la même police, image(s) à la même place. L'intérêt est que le fichier sera compacté (gain de place), multi-plateformes, véhiculable sur réseaux, donc internet, intégrable sur CD-ROM, et consultable car le texte pourra être indexé ce qui n'est pas possible à partir d'un simple fichier image. Exemple de fichier Acrobat avec imagettes Présentation de l'aide d'Acrobat avec imagettes, etc... Les couleurs du texte sont aussi conservées, ce qui permet d'enrichir celui-ci de multiples façons. On remarquera aussi les loupes permettant de voir des détails du texte ou des images, avec une très grande qualité, ce qui est implicite avec le format postcript. (C'est en ce sens qu'avec Adobe Capture, qui traite les textes scannérisés, le produit final est souvent meilleur que l'original !). Pour plus d'information sur les produits ADOBE, consulter: http://www.adobeshop.com. 17 - La protection des informations Nous avons beaucoup parlé de l'information, de son recueil, de son analyse, etc. Mais, ce travail ne serait pas complet s'il n'abordait pas le niveau de la protection des informations. Nous aborderons ce sujet de manière synthétique, car de nombreux ouvrages traitent de cet aspect. Nous diviserons la protection en trois parties. La première traitera des comportements. L'analyse des chapitres précédents va nous permettre de replacer un ensemble de faits dans les pratiques quotidiennes et donc dans le comportement de tous. La deuxième partie est plus technique, elle concerne la protection informatique et la protection des télécommunication. La troisième concerne les brevets, le secret et la divulgation volontaire de certains résultats. 17.1 - Les comportements Le comportement de base nous semble être le suivant: applique à toi même ce que tu appliques aux autres. Ceci veut dire que si on met en place tout un arsenal de méthodes, d'outils, de réseaux, pour accéder à de l'information, qu'elle soit formelle ou informelle, les "autres" vont agir de même. Ainsi, l'information qui sera diffusée par l'entreprise, sera collectée et analysée par les concurrents. Il faut donc être conscient que cette information (qui doit être placée dans le cadre de la communication prise au sens large) va à la fois servir l'image de l'entreprise, mais aussi constituer des points d'entrée dans celle-ci. Nous conseillons, de réaliser avec quelques personnes et si possible un spécialiste une analyse des comportements, des actions, des lieux des points où l'information peut être captée. Il ne s'agit pas que des points physiques, mais aussi avec les nouvelles technologies de communication des points virtuels. L'exemple suivant est donné à titre indicatif. Il doit être situé après qu'une sensibilisation globale des personnels ait été effectuée, en ciblant plus particulièrement les personnels exposés. La "check list" suivante pourra être réalisée: 1 - Contrôle des visiteurs: qui ils sont, qui ils vont voir. Eventuellement demander à la personne visitée ce qui lui a été demandée. 2 - La protection des locaux est des biens qui s'y trouvent est elle bien assurée ? 3 - Contrôle des stagiaires (*). Signent ils un engagement de confidentialité, de quel ordre, quel est son contenu. Vont ils accéder à de l'information confidentielle, de quel type ? Vont ils être en contact avec des personnes disposant d'informations confidentielles, ou accéder à des locaux contenant de l'information confidentielle ou importante: recueil d'information, rapports, ou expérience en marche,.... Vont ils devoir se plier à des normes de qualité, donc accéder aux manuels de qualité, lesquels? 4 - Visites: y-a-t-il un circuit de notoriété ? où va-t-on montrer ce qui peut être vu sans contrôle? 5 - Communication: qui vérifie les réponses aux appels d'offre, les publicités émises par l'entreprise, les communiqués. Les chercheurs où autres personnes devant participer à des conférences ou des colloques sont elles bien au courant des pratiques informatives des concurrents. Les textes et ce qui peut être dit ont ils fait l'objet d'une analyse ? 6 - Les textes importants, les rapports sont ils protégés, (on parle ici de produits papier, on verra la protection informatique ensuite). 7 - Les personnes qui voyagent sont elles au courant du fait que l'on ne doit pas avoir de conversations très centrées sur le travail en train ou en avion (surtout en avion du fait de la proximité des occupants), de même pour la lecture ou le travail sur des rapports particuliers? 8 - Les réponses à de multiples enquêtes sont elles bien contrôlées, la demande d'enquête est elle examinée correctement: qui l'a émise, pourquoi, dans quel but. 9 - Comment les discussions avec les fournisseurs sont elles organisées, par qui, comment, pourquoi ? 10 - A la réception des matériels, les chauffeurs des entreprises de transports signent ils, à l'entrée dans l'usine, une clause de confidentialité sur ce qu'ils verront ? ........................................................ La liste pourrait être encore plus longue, mais elle est nécessaire. Il ne s'agit pas de voir le mal partout, ni de céder à "l'espionnite" ni à un réflexe sécuritaire primaire, mais de prendre les précautions élémentaires en étant au courant de ce qui peut se passer et des pratiques de certains. (*) A propos de la protection des informations, on pourra se référer au texte de Louis J Freech Directeur du FBI. Ce texte, est accessible via l'Internet www.fbi.gov/ecespion.htm. Il est diffusé sous forme d'un Hearing on Economic Espionage, en date du 28 Février 1996, et a été présenté au Senate Select Committee on Intelligence. Citons ce qui est dit à propos des stagiaires: "Some foreign government task foreign students specifically to acquire information on a variety of economic and technical subjects. In some instances, countries recruit students before they come to the United States to study and task them to send any technologiqcal information they acquire back to their home country. Additionally, as an alternative to compulsory military service, one foreign government has an organized program to send interns abroad, often with the specific task of collecting foreign business and technological information...." 17.2 - La protection informatique L'informatique est de plus en plus utilisée dans l'entreprise. Il sera donc nécessaire de s'entourer des précautions élémentaires pour éviter une perte d'informations via ce média. D'autre part, l'informatique personnelle (ordinateurs portables dans le cas d'une entreprise) et la microinformatique, dans l'entreprise se généralisent. Dans la majeure partie des cas, cette informatique est reliée à un réseau local, voire à des réseaux beaucoup plus larges. Il sera donc nécessaire de faire une distinction entre la protection d'un site informatique central (ordinateur important relevant d'un service spécialisé), par rapport à la protection du système de mirco-informatique. Enfin, un autre aspect de l'informatique doit être protégé: celui de la transmission des données par réseau, l'internet, le fax, les messageries, les réseaux d'entreprises entrant dans ce cadre. Nous n'aborderons pas spécifiquement la destruction ou la pertes de données, car ceci ne rentre pas dans le champ, mais soulignons tout de même que compte tenu de la taille des disques durs, en micro-informatique, il faut réaliser périodiquement des sauvegardes (qui devront être mises en lieu sûr), et assurer la protection des machines par des onduleurs (ce n'est pas absolument nécessaire pour un ordinateur personnel, même au bureau, mais cela le devient pour des serveurs locaux). 17.2.1 - Le site ou les sites centraux Cette protection est liée à une expertise particulière et à la prise en compte de différents facteurs d'intrusion. Elle ne sera pas abordée ici, car elle est trop spécialisée. Le lecteur intéressé pourra consulter la série de références suivantes (Preserve , protect and defend your data, Grinthal W., Chemical Engineering, vol.100, n°11, pp.191-198,1993 ) qui lui permettra d'aborder en détail le problème. Patrick Galley (Institut Polytechnique de Lausanne), rend disponible sur le WEB http://web.1888.com/iwmag/main.html un travail important concernant le terrorisme informatique: Quels sont les risques ? Citons l'aperçu fournit par l'auteur: "Notre société est de plus en plus dépendante de l'informatique. Où que vous soyez, quoi que vous fassiez, vous risquez d'avoir affaire, directement ou indirectement à un ordinateur. ....De temps en temps, la presse dévoile aux yeux du public que des pirates informatiques se sont introduits dans tel ou tel système, ont volé des centaines de numéros de cartes de crédit.... Que se passerait-il, si une organisation ou un gouvernement réunissait les compétences de ces pirates isolés pour mener une action de grande envergure contre un Etat ? 17.2.2 - La micro-informatique Il y a dans ce domaine un certain nombre de règles qui relèvent du bon sens. Tout d'abord, il faut utiliser les précautions primaires qui consistent à utiliser la possibilité de créer des mots de passe pour accéder à votre ordinateur (windows 3.11, Windows 97, par exemple). D'autre part, quand vous êtes sur un réseau, ne partagez pas systématiquement (sauf en cas de besoin) vos fichiers. Mettez un mot de passe, ces possibilités sont courantes. D'autre part, ne laissez pas sur votre disque dur des fichiers confidentiels. Si vous en avez, stockez les sur une disquette, si le volume est trop grand, utilisez des facilités comme les disques durs amovibles, ou des unités de stockage amovibles de forte capacités (une centaine de méga octets est chose courante). Le prix de ces produits est suffisamment faible pour que ce soit le complément indispensable de votre ordinateur. En outre, ces unités de stockage pourront aussi servir de sauvegarde. Méfiez vous aussi des virus, protégez votre ordinateur en permanence. D'autre part, le prix d'un ordinateur est suffisamment faible, pour que vous ne partagiez pas avec quelqu'un un ordinateur sur lequel il peut y avoir des données sensibles. Si une personne est responsable de sa machine, toute autre personne qui l'utilise doit le faire avec son autorisation. Enfin, pour tous ceux qui utilisent leur micro ordinateur et leur modem pour accéder à des bases de données, ne mettez pas vos codes d'accès collés sur le haut de votre écran ! En ce qui concerne les données elles-mêmes, si elles sont sensibles, mieux vaut utiliser un cryptage de ces dernières, à la fois pour les véhiculer sur réseau ou pour les garder dans votre ordinateur. Compte tenu de la puissance actuelle des machines, cette opération ne prend pas beaucoup de temps. Il existe de nombreux logiciels de cryptage, depuis les freewares, et sharewares, en passant par des produits commerciaux. On pourra citer MSI sous Windows qui par simple glissé de la souris permet de crypter un fichier avec une clef de 64 bits et un mot de passe. Pour décrypter on fait la même chose. On peut aussi crypter l'ensemble des données présentes sur le disque dur avec des logiciels comme AB-Crypt par exemple. Le but n'est pas de rendre indéchiffrable le cryptage, mais de rendre l'opération de restitution du texte plus difficile et ainsi de gagner du temps. Pour les cas les plus sensibles, ont peut utiliser des systèmes de cryptage résidents sur des "puces" spéciales. 17.2.3 - Exemple d'utilisation d'un logiciel de cryptage: CONDOM Extrait du fichier associé CONDOM.TXT: Condom! Version 1.0, 06/01/90, by The Lonestar for "Safe" Data... Disclaimer: The Lonestar is NOT RESPONSIBLE for any damages from the use of Condom!. It is an extremely powerful Encryption/Decryption tool and must be used with care. DON'T FORGET YOUR PASSWORD!!! Once a file has been encrypted with Condom!, you will NEVER decrypt it without the original password EXACTLY as it was entered. Don't come crying to me, because I can't get it back either. ....... Condom! is public domain. You are free to use it and distribute it in its original, unaltered state. Exemple de fichier texte qui va être encrypté: (nom du fichier exemple) Voici un exemple de texte que nous allons traiter par le logiciel d'encryption CONDOM. Ce n'est pas un des plus modernes, puisque la version utilisée date de 1990. Il existe maintenant sous windows d'autres systèmes, permettant de travailler dans un environnement ergonomique plus souple, etc.... Processus d'encryption: commande: condom exemple Réponse du logiciel CONDOM Condom! version 1.0 Elite File Security for "Safe" Data from the Lonestar 06/01/90 Enter Password : dou Proceed (Y/N): y Résultat: Xl4!7]ç %þ¬>ɽØÖ«Ÿüªµ¾žŽÚrÒ¡~o¾MgÂ@W’,Ba$ge*å/óè0ÎðJØŠ ²ð_FŸo=ì9g— d[$05`F'DHCæY#üùxÚ÷ÈŒ£Ùî¯ ùÂÿÝŠ™Íatª~•U”1Gk; …ºòÀ‘¤²Œ›—Ô|t« 6&1&CZé!ä§1Æöµ£§ší´½ð™³Ä’ˆÖh•¸>j¯HO€/\– 7uB#M÷6åê1Š· -£Ýþ§¿é†•À +3"MFfüè#̺ߋHò Ce fichier résultat se nomme toujours exemple. Pour le régénérer, on procède de la même façon, avec le même mot de passe. On constate que le processus est simple, qu'il peut être automatisé, et que cela permettra de protéger simplement un certain nombre de textes du regard des indiscrets. Bien entendu, la même remarque que pour les codes de sécurité est à faire: ne notez pas votre mot de passe sur le haut de votre écran ! d'autres part, évitez d'utiliser différents mots de passe dans les processus d'encryption, car autrement vous ferez des erreurs (de mémoire) et vous ne régénérerez plus vos fichiers. 17.2.4 - Les TTP Actuellement, dans l'allocation de clés de codage, que l'on soit entre deux sites, ou même dans certains cas multisites, est particulièrement étudiée. Dans le commerce électronique, on fait appel à ce que l'on appelle les TTP (Trusted Third Parties in electronic commerce, Skevington P.J., Hart T.P., BT Technology Journal, v.15, n°2, Avril 1997, pp.39-44) Ce sont des institutions ou des organismes publics ou privés, qui serviront de garant à certaines transactions en les sécurisant. Par exemple en allouant les codes d'encryption. Ces troisièmes partenaires, seront admis par les deux autres (acheteur et vendeur) et ils garantiront l'intégrité de la transaction. Nous avons utilisée la stratégie suivante pour savoir plus, via l'Internet: On utilise le terme TTP dans le systèmes de recherche du AltaVista (http://altavista.digital.com) On obtient un nombre de réponses important. Il faut alors affiner la recherche en utilisant la fonction refine, qui va lister avec le pourcentages approché, les différents thèmes couverts par les réponses: Refine your search by requiring a few relevant topics, excluding irrelevant ones, and ignoring the others. 90%Ttp, task, force 25%Germantown, cloverleaf, remediation, contaminated, contaminants, contamination, situ, investigator, contaminant 22%Waste, radioactive, hanford, wastes, inel, mixed, pnl, tank, richland Anthony de Jacquier (ULB) Titre : SELTA - un animateur de specification ET-LOTOS ..... On constate que l'un de ces séminaires couvre le sujet qui nous concerne, et qu'il possède un lien avec le terme abstract (résumé). On arrive ainsi à celui-ci: Jeudi 22 octobre : Guy Leduc Titre : Specification et verification d'un protocole TTP (Trusted Third Party) pour l'acces conditionnel a des services Abstract: Specification et verification d'un protocole TTP (Trusted Third Party) pour l'acces conditionnel a des services : We use the formal language LOTOS to specify the Equicrypt protocol and verify its robustness to attacks by an intruder. We use the model-based CADP verification tools from the Eucalyptus toolbox to discover some successful attacks against this protocol. Mais, il n'y a pas d'adresse ni de e-mail. Pour ce faire, et comme cela est l'usage, en fin de l'ensemble des résumés on obtiendra les données nécessaires à une poursuite par e-mail de la recherche des informations: Markowitch Olivier Hernalsteen Christian Email : [email protected] Email : [email protected] Phone : 650.56.07 Phone : 650.50.42 Comme au départ le terme TTP nous donnait trop de réponses, on avait avec la fonction refine limité aux problèmes: trusted, encryption, keys, cryptography, escrow, cryptographic, crypto, confidentiality, encrypted. Mais on peut aussi utiliser sur cet ensemble de réponse la fonction refine, à nouveau. On obtiendra alors un ensemble de thèmes encore plus précis: Refine your search by requiring a few relevant topics, excluding irrelevant ones, and ignoring the others. 99% Ttp, encryption, trusted, cryptography, escrow, crypto, confidentiality, keys, integrity 89% Jbp, postel, xns, vmtp, zsu, satnet, hwb 86% Unassigned, udp, netrjs, sgmp, cronus, tsap, chargen, netsc, xyplex 79% Reynolds, milnet, malis, netlabs 59% Cryptographic, repudiation, security, authentication, encrypted, signatures 54% Rht, qotd, rwho, axb, bxl, hems, pcmail On remarque les thèmes: Cryptographic, repudiation, security, authentication, encrypted, signatures qui preprésentent 59% de cette nouvelle sélection. A partir de ce dernier groupe on obtiendra 90 réponses la majorité étant pertinentes. un extrait de ces réponses est le suivant: 90 documents match your query. 1. Glossary Glossary. Access Control Unit (ACU) Protocol. ACU Provider (ACUPv) Public Key Certificate. Authentication. Random Number. Certificate of Key(s)... http://okapi.igd.fhg.de:8080/glossar.htm - size 9K - 1-Sep-97 - English 2. Entrust Interactive: Download Entrust/Solo Entrust/Solo: Security on a Personal Note. Entrust/Solo, for Windows 95 and Windows NT, allows you to secure files on your PC/laptop, or send sensitive http://www.entrust.com/solo_eval.htm - size 9K - 7-Oct-97 - English 3. Entrust Interactive: Download Entrust/WebCA Entrust/WebCA, available for Windows-NT, allows you to issue Web certificates to browsers and servers capable of using SSL security. Entrust/WebCA is http://www.entrust.com/webca_eval.htm - size 7K - 7-Oct-97 - English 4. Response to DTI Proposals on Trusted Third Party Encryption Services Response to DTI Proposals on Trusted Third Party Encryption Services. Paul Rouse R-cube Systems Ltd Refuge House 2-4 Henry Street Bath BA1 1JT email:... http://www.r-cube.co.uk/dti-response.html - size 20K - 30-May-97 English 5. LICENSING OF TRUSTED THIRD PARTIES nbsp; LICENSING OF TRUSTED THIRD PARTIES. FOR THE PROVISION OF ENCRYPTION SERVICES. Public Consultation Paper. on. ... http://www.cl.cam.ac.uk/users/rja14/dti.html - size 98K - 21-Mar-97 English 6. JILT: DTI proposals for the licensing of Trusted Third Parties for the provisi This is a consultation paper published in JILT on 30 June 1997 (Originally published by the DTI) LICENSING OF TRUSTED THIRD PARTIES. FOR THE PROVISION OF.. http://elj.warwick.ac.uk/jilt/consult/ukcryp/ukdtipap.htm - size 97K 2-Jul-97 - English 7. DTI proposals for the licensing of Trusted Third Parties for the provision o 21 March 1997 Source: http://dtiinfo1.dti.gov.uk/pubs/ Thanks to E. Michael Power, Coordonnateur, Secrétariat au commerce électronique,... http://www.jya.com/ukttp.htm - size 96K - 21-Mar-97 - English 8. Updated UK Proposals for Licensing Encryption Services LICENSING OF TRUSTED THIRD PARTIES FOR THE PROVISION OF ENCRYPTION SERVICES. This page contains the text of the government's paper, issued on the 20th... http://www.seven77.demon.co.uk/updated.htm - size 200K - 30-Apr-97 English 9. Trusted Third Parties- Deloitte & Touche Management Summary Trusted Third Parties. What is It? Trusted Third Parties (TTPs) are used in large, distributed and complex networks such as the World Wide Web. The... http://www.dtcas.co.za/ttp.htm - size 9K - 27-Apr-97 - English 10. Response of the Data Protection Registrar: Licencing of Trusted Third Parties. Paper on... http://www.open.gov.uk/dpr/ttpfinal.htm - size 18K - 30-Jun-97 - English On obtient ainsi des réponses, avec des liens vers les sources originales. Ceci permettra de continuer la recherche et surtout, de trouver les e-mail à partir desquels on pourra entrer en liaison avec les auteurs ou les responsables pour obtenir une information plus finalisée selon nos besoins. On constate ainsi la supériorité des stratégies mixtes: les bases de données me permettent d'avoir une vision élargie du domaine et de sérier des thèmes. Parmi ces derniers les TTP, nous paraissent importants. Il faut alors aller plus loin, vers une information plus récente et avec la possibilité d'entrer en contact avec les protagonistes de ces réponses. C'est là toute la supériorité de l'Internet. Notons, pour corollaire, que ceux qui ne sont pas présents sur le WEB, se privent ainsi de nombreux contacts et d'une publicité internationale de très haute qualité. 17.2.5 - Le fax L'utilisation du fax est une cause importante de "fuites". En effet, très souvent le fax est accessible par un nombre de personnes important, il est souvent situé dans un couloir, voire dans un espace bureau proche d'une photocopieuse. Comment se protéger des indiscrétions ? On peut évidement demander à une personne de venir personnellement récupérer le fax, mais la nuit cela est difficile. On peut aussi accueillir directement le fax sur son propre ordinateur (dans ce cas le correspondent peut crypter du texte), mais cela va monopoliser une ligne téléphonique. C'est dans cet objectif, que l'on a créé des logiciels de cryptage qui fonctionnent de la manière suivante: Le cryptage des Fax Votre texte avec ou sans images On imprime le fichiers crypté localement.. On crypte avec un logiciel spécialisé. Si le texte et les images, ne sont pas dans votre ordinateur on scanne les données. Le volume est beaucoup plus faible. On expédie le fichier crypté, soit à partir de votre ordinateur, soit par un fax normal. Votre correspondant reçoit le fichier. CRRM On décrypte, en re-scannant si nécessaire Mécanisme de cryptage des fax Ce procédé est utile, car il permet, même si votre correspondant ne possède qu'un fax classique, de recevoir des données cryptées. Ensuite, à partir de cette image (le fichier crypté et compacté se présente comme un cadre rempli de points noirs avec des intervalles plus ou moins grands entre les points), votre correspondant pourra scanner le fichier pour avoir une image sous forme d'un fichier qui sera ensuite décodé à partir du même mot de passe que celui qui a permis le codage. Si le fax subit quelques aléas durant la transmission, des algorithmes spéciaux permettent de restituer tout de même la majorité du contenu. Si vous recevez le fax sur un ordinateur, la phase de restitution du fichier informatique par scannage n'est pas nécessaire. Cette technique permet aussi d'archiver sous forme papier des documents compacté et codés. 17.3 - L'Internet Dans le cas de l'internet, beaucoup des choses ont été dites et écrites, depuis la sécurité des réseaux jusqu'à la création informatique d'un "fire-wall" qui permettra une protection contre les intrusions. Cependant, la solution pour le commerce électronique, pour la transmission des messages, reste le cryptage des données. Actuellement les réglementations qui étaient assez strictes au niveau des états sont entrain de s'assouplir considérablement, surtout depuis le 1er Juillet 1997, où le Président des Etats-Unis, a pris largement position en faveur de la libéralisation d'une déréglementation dans un rapport intitulé "A Framework For Global Electronic Commerce". Dans un article publié par le Figaro du 4 Septembre 1997, Jean-Paul Delaye, traite de ce problème et termine son article par le commentaire suivant auquel nous nous associons: "La France par l'insuffisance de ses réflexions et par esprit centralisateur prendra-t-elle dix ans de retard sur le Japon ou les Etats-Unis." Pour plus d'informations sur ce sujet, consulter les deux sites WWW dont les adresses sont jointes à cet article: http://www.cdt.org/digi-in-fra/970701-clinton.txt http://www.iitf.nist.goc/eleccomm/ecomm.htm http://www.cdt.org/digi-infra/970701-commerce.htm http://crypto.com/key-study Il existe en outre des sites WWW où vous pouvez masquer votre adresse de départ (adresse internet) lorsque vous envoyez un message. La réponse sera lue à partir du site utilisé pour créer la discontinuité. Dans ce cas, la confiance dans le site utilisé pour brouiller les pistes doit être bonne. 17.4 - Les systèmes physiques Si on ne veut pas passer par des programmes de cryptage ou par des mots de passe, c'est à dire par une protection logiciel, on peut passer par une protection physique. Dans ce cas, on utilisera une caractéristique physique de la personne habilité pour permettre l'accès aux données. Signalons ce que l'on nomme Biométrie. On aura par exemple comme processus de reconnaissance la lecture par un lecteur spécialisé de votre empreinte digitale, ou de l'empreinte de votre main par exemple. Il existe aussi d'autres systèmes de protection, entre autre avec des "cartes à puces", etc. Signalons à ceux qui accèdent au câble ou au Satellite Astra qui diffuse les émissions en clair de la chaîne de télévision CNBC, que de très bonnes émissions sur l'utilisation de l'Internet sont réalisées quasi quotidiennement (émissions PCTV). Ces émissions sont diffusées en américain. De même il existe aussi des émissions du même type réalisées sur TV5 international, faites par les canadiens et diffusées en français. Elles ne sont pas retransmises sur TV5 en France. 17.5 - Brevets ou divulgation Nous avons vu que le brevet constituait une protection efficace lorsqu'il était nécessaire de protéger un pays ou un ensemble de pays, à la fois au niveau de la fabrication, mais aussi au niveau de l'importation d'un produit réalisé dans les pays non protégés. Il existe cependant des cas, où il ne faudra pas prendre de brevets, car le brevet et en lui-même une divulgation de l'invention, et cette divulgation ne dure pas éternellement. Par exemple, dans le cas du Coca Cola, si la formule avait fait l'objet d'un brevet, elle serait depuis très longtemps passée dans le domaine public, et tout le monde aurait pu l'utiliser. Dans d'autres cas, lorsqu'il n'est pas possible à partir du produit, de remonter vers les ingrédients, il ne faudra pas prendre de brevet. Ceci est le cas des gommes de pneumatiques, par exemple. Cependant, dans ces deux derniers cas, puisqu'il n'y a pas de brevet, le secret doit être absolu. Enfin, il peut se trouver que dans certains cas, on fasse une avancée dans le domaine des sciences et des techniques, sans que l'on veuille, pour diverses raisons exploiter celle-ci. Par contre, on voudrait être sûr, qu'à partir du moment ou on fait cette avancée, elle ne puisse pas nous nuire (d'autres pourrait aussi le faire et breveter !). Dans ce cas, on va divulguer l'invention publiquement, de façon à faire tomber celle-ci dans le domaine public, pour que tout le monde puisse l'exploiter (si on le désire), mais sans exclusivité. On utilise pour ce faire des journaux spécialisés, par exemple Disclosure. Pourquoi n'utilise-t-on pas la publication scientifique classique ? Simplement parce que le systèmes des examinateurs fait que plusieurs personnes: éditeur, comité de lecture, examinateur(s), peuvent être au courant du contenu du travail avant que celui-ci ne soit divulgué (publié dans ce cas). Comme l'on n'est jamais sûr de personne, des journaux spécialisés divulguerons l'invention, en évitant les écueils précédents. Pour aller même plus loin dans ce domaine et maîtriser totalement le système, certaines entreprises ont créé leurs propres publications qu'elles diffusent largement. C'est le cas entre autre de la Société IBM. 18 - Etudes de cas Les études de cas suivantes sont faites pour amener par des exemples des compléments aux principes généraux qui ont été exprimés dans la première partie de cet ouvrage. Ces études recouvrent soit des domaines nouveaux dans lequel l'information est nécessaire, soit des exemples de réalisations, soit des cas concrets liés à des études ou à des réalisations. Certaines de ces études, entre autre celles concernant l'Internet peuvent être complétées par la consultation des sites que nous indiquons dans celles-ci. 18.1 - L'agilité, le commerce électronique Ce n'est pas de culture physique que nous allons parler ici ! Les concepts, les situations évoluent, et si actuellement on entend beaucoup parler d'Intelligence Economique, il est probable, puisque les concepts "s'usent" vites, que celui-ci soit remplacée par une autre préoccupation: l'AGILITE. Que recouvre ce concept, et comment doit on se positionner? L'agilité, ou agile manufacturing, est un concept qui intègre les données actuelles sur le "line manufacturing", les méthodes CALS, les concepts d' "Agility" dans le sens d'ateliers de systèmes de production reconfigurables selon les besoins, "d'interroperabiblity", de flexibilité, de prototypage rapide, flux tendus, etc... Mais, le concept d'agilité va bien au delà de cette phase connue, il intègre le client comme un élément de la chaîne de production. Il permet donc de ne plus considérer les clients comme un élément passif, mais il les fait participer au "design" du produit qu'ils achètent, voire au choix de l'intégration d'un certain nombre d'éléments (couleur, forme, fonctions, matériaux ...). Ce passage, de la notion de passivité à la notion de considération, est bien situé dans la lignée des travaux de Richard D'Aveni, que nous avons abordé au début de cet ouvrage. Cette situation nouvelle va permettre de redéfinir la qualité perçue en valorisant le client. On débouche alors sur de nouvelles réflexions sur la stratégie industrielle. On entre ainsi dans une autre logique: avant, maintenant même, on est encore dans la production de masse, dans des choix relativement restreints pour le consommateur. On va maintenant passer dans un autre système, où le consommateur va pouvoir pour des surcoûts très faibles, organiser lui même ses choix, en quelque sorte façonner ses achats. Couplé avec les systèmes d'accès en ligne à l'information, entre autre ce qui va dériver de l'Internet actuel avec une forte augmentation prévisible des débits (le réseau ATM par exemple), cela va déboucher sur de nouvelles opportunités de vente, de conception de produits, de livraisons rapides lorsque l'ensemble est couplé à DHL (ou des systèmes analogues) pour les produits de faibles dimensions. Mais, cette notion de modélisation directe par le client, avec une intéractivité très forte, touchera entre autre le secteur des services avec des répercussions qui n'ont pas encore fait l'objet d'analyses poussées ni d'expérimentations en vrai grandeur. L'agile manufacturing, permettra aussi une réduction draconienne des stocks, les systèmes de productions agissant à la demande pour réaliser directement les pièces, produits et composants choisis et élaborés par le client. Tout d'abord, comment avoir été prévenu au départ de cette évolution ? C'est à notre connaissance le service scientifique de l'Ambassade de France aux USA qui le premier a signalé l'importance de ce développement, puis ensuite à l'aide de l 'ADIT et des pouvoirs publics un dialogue a pu être mis en place avec différents industriels français. On notera au passage l'article de sensibilisation réalisé dans Technologies Industrielles, publication de l'ADIT, (L'Agilité ou la Réindustrialisation des Etats-Unis, Maud Faivre et Christian Dupont, Mai 1997). On constate ainsi, que sans préoccupation directement liée à son environnement professionnel, cultiver des rapports avec les différents services scientifiques des ambassades françaises dans les pays les plus développés est important, au plan de l'information informelle. En outre, ces services ont des serveurs WWW qu'il est facile de consulter, ainsi que des messageries électroniques pour poser des questions. Le relais, réalisé par l'ADIT est utile, mais encore faut il être abonné à ses revues et ne pas attendre des articles de presse qui reprennent les articles de l'ADIT eux mêmes créés à partir des alertes réalisées par les services scientifiques de nos ambassades ! 18.1.1 - Agilité Pour s'informer sur le thème Agile Manufacturing, qui devrait on faire aujourd'hui? Plusieurs voies sont possibles, prenons les plus simples: * Les bases de données: la base de données ABI-INFORM (qui existe entre autre en CD-ROM ou en ligne sur des serveurs comme Dialog), permet d'accéder à diverses informations à caractères techniques, mais surtout économiques et sociologiques. Les bases de données Compendex et Inspec (Physique) et NTIS (National Technical Information Service) compléteront sur un plan plus technique les informations. Exemples de résultats: Base de données Compendex: noter le faible nombre total de références avec le termes AGILE(W)MANUFACTURING (107 références, le 16 Septembre 1997 serveur Orbit) .-3- (COMP) .TI - Quality time and innovation based performance measurement system for agile manufacturing. AU - GUPTA UMA G; MITTAL RAVI O OS - East Carolina Univ, Greenville, NC, USA SO - Proceedings - Annual Meeting of the Decision Sciences Institute v 3 1996. Decis Sci Inst, Atlanta, GA, USA. p 1511-1513 (PAMSED) CONF- Proceedings of the 1996 27th Annual Meeting of the Decision Sciences Institute. Part 3 (of 3), Orlando, FL, USA (1996 Nov 24 - 1996 Nov 26) CN - 46863 LA - ENGLISH (EN) DT - CA (Conference Article) CC - 913.4.1 Flexible Manufacturing Systems; 911.2 Industrial Economics; 913.3 Quality Assurance & Control; 913.1 Production Engineering IT - *Flexible manufacturing systems; Cost effectiveness; Quality assurance; Performance; Productivity AB - Agile manufacturing is a business concept that integrates organizations, people, and technology into a meaningful unit by deploying advanced information technologies and flexible and nimble organization structures to support highly skilled, knowledgeable, and motivated people. The concept was introduced in 1991 by a government-sponsored research effort at Lehigh University to facilitate organizations to be highly responsive to customers demands for new products and services. Although the words agile and lean are sometimes used interchangeably in this context, they are not one and the same. Lean implies highly cost-efficient and productive, although it does not necessarily imply being responsive. Agile, on the other hand, stresses the importance of being highly responsive to meet the `total needs' of the customer, while simultaneously striving to be lean. Thus, an agile manufacturer places a higher priority on responsiveness than cost-efficiency while a manufacturer whose primary goal is to be lean compromises responsiveness over cost-efficiencies. (Author abstract) 5 Refs. UP - 9741 -7.TI AU OS SO (COMP) - Delayed product differentiation strategy in agile manufacturing. - HE DAVID W; KUSIAK ANDREW - Univ of Iowa, Iowa City, IA, USA - Industrial Engineering Research - Conference Proceedings 1995. IIE, Norcross, GA, USA. p 701-708 (IERCE9) CONF- Proceedings of the 1995 4th Industrial Engineering Research Conference, Nashville, TN, USA (1995 May 24 - 1995 May 25) CN - 46582 LA - ENGLISH (EN) DT - CA (Conference Article) CC - 913.4.1 Flexible Manufacturing Systems; 913.2 Production Control; 604.2 Machining Operations; 913.1 Production Engineering; 911.2 Industrial Economics IT - *Flexible manufacturing systems; Production control; Machining; Assembly; Cost effectiveness; Product design AB - Agile manufacturing aims to produce a large variety of products, in a short time, and at a low cost. The delayed product differentiation is a powerful design concept which can be used to achieve agility. In this paper, the implementation of delayed product differentiation strategy in a manufacturing system is discussed. The problem of selecting the designs so as to minimize the number of parts and the manufacturing cycle time is formulated and solved. An illustrative example is presented. (Author abstract) 9 Refs. UP - 9735 Base de données INSPEC: noter aussi le faible nombre de références, du même ordre que celui de la base de données Compendex. .-2- (INSC) .TI - The practical side of e-mail in agile manufacturing plants. AU - Allen T OS - Effective Manage. Syst. Inc., Milwaukee, WI, USA SO - I&CS, vol.70, no.5, pp. 53-57, May 1997 PU - Chilton CP - USA LA - English DT - J (Journal Paper) .PY - 97 TC - PR (Practical) .AB - For many of today's more information driven manufacturers, electronic mail (e-mail) is proving to be a highly efficient mode of communications among customers, vendors, and employees. However, the utility of e-mail reaches far beyond front office correspondence to include operational and maintenance data crucial to the agile manufacturer. By now, most shop floor personnel and management are familiar with (if not well versed in) online communications. After all, even if one's work is not rich in information technology chances are good that an individual has worked with e-mail at home, in school, or in another workplace. This article looks at how e-mail and its groupware sibling can help keep everyone in an enterprise up to date on the manufacturing process. The role of two forms of groupware-Outlook from Microsoft and Notes from Lotus-is demonstrated. (0 Ref.) - Copyright 1997, IEE IT - computer integrated manufacturing; electronic mail; groupware; process control ST - e-mail; agile manufacturing plants; information driven manufacturers; customers; vendors; employees; maintenance data; operational data; shop floor personnel; management; Outlook; Microsoft; Notes; Lotus CC - C7480 Production engineering computing; C6130G Groupware; C3355 Control applications in manufacturing processes; C7160 Manufacturing and industrial administration; C7420 Control engineering computing; C3350 Control in industrial production systems; C7104 Office automation -3.TI AU ED OS SO (INSC) - Information models for partner selection in agile manufacturing. - Herrmann JW; Minis I; Ramachandran V - Law KH - Dept. of Mech. Eng., Maryland Univ., College Park, MD, USA - Engineering Data Management and Emerging Technologies. Presented at the 1995 ASME International Mechanical Engineering Congress and Exposition (CED-Vol.7), pp. 75-91, Published: New York, NY, USA, 1995, v+117 pp. PU - ASME CP - USA LA - English DT - PA (Conference Paper) .PY - 95 CONF- Engineering Data Management and Emerging Technologies. Presented at the 1995 ASME International Mechanical Engineering Congress and Exposition (CED-Vol.7), San Francisco, CA, USA, 12-17 Nov. 1995, Sponsored by: ASME TC - PR (Practical) AB - Discusses the information required for three functions of agile manufacturing: prequalifying partners, evaluating a product design with respect to the capabilities of potential partners, and selecting the optimal set of partners for the manufacture of a certain product. In particular, this paper presents a new information model that describes the systems, process capabilities and performance of a manufacturing firm. We have implemented this model and used it as part of a decision support system for design evaluation and partner selection in agile manufacturing. (63 Ref.) - Copyright 1997, IEE IT - decision support systems; manufacturing data processing ST - information models; partner selection; agile manufacturing; prequalifying partners; product design evaluation; potential partner capabilities; product manufacture; process capabilities; manufacturing firm performance; decision support system; design evaluation CC - C7160 Manufacturing and industrial administration; C7102 Decision support systems Base de données FSTA (Food) Une seule référence: .-1- (FSTA) TI - A strategy for survival: tools to decrease product development time. AU - Faeth, L.; Bradshaw, L. L. AD - Cent. for Nondestructive Evaluation, Iowa State Univ., Ames, IA, USA SO - Cereal Foods World, 42 (3, Special Report to the Baking Industry) SR12-SR14, SR16, 1997, [17 ref.] NU - ISSN 0146-6283 DT - Article LA - ENGLISH (EN) CC - D (ECONOMICS) IT - developments; management; foods; ECONOMICS ST - ECONOMICS AB - For food companies to grow and prosper they have to have an efficient system to develop and introduce new products and, as the market share is often dominated by the 1st product introduced in a category, the speed of product development is critical to success. Means of accelerating new product development are considered with reference to: management issues (the systems approach to quality management, analysing the organizational structure); additional strategies for speeding product development (flexible manufacturing systems, agile manufacturing, quality function deployment, concurrent engineering, utilization of outside resources); and electronic exchange of information. * L'internet. Le Terme Agile, peut être structuré, par l'intermédiaire des facilités offertes par le Système AltaVista. On obtient (Septembre 1997) les différents groupes de termes suivants qui vont permettre des sélections précises sur ce thème: "Refine your search by requiring a few relevant topics, excluding irrévelant ones, and ignoring others." 98% Agile, manufacturing, enterprise, intelligent, engineering, competitiveness, concurrent, industrial, mechanical. 24% Agility, reconfigurable, thrive 11% Rear, steering, suspension, wheel, horsepower, brakes, seat, liter 11% Technologies, integration, integrated, technology, advanced, architectures 10% Breed, dog, breeds, dogs, akc, herding, kennel, sheepdog 9% Infrastructure, enebling, arpa, tesbed, interoperability, nist, nii, interoperable, testbeds 9% Strategic, reengineering, reengineer 9% Deployment, management, deploy, operations, operational, deployed 9% Combat, attack, forces 8% Flexible, industry, demands, automated 8% Frequency, mhz, modulation, ghz, transmitter, microwave, frequencies, transmitters 8% Automation, robotics, conference, assembly, robotic, robots, robot, workcell 8% Fighter, fighters, interceptor 8% Aircraft, flight, pilots, flying, pilot, wing, fuselage 8% Competitive, competitors, customers, customer, achieving, solutions, achieve, deliver 8% Responsive, responsiveness, delivers 8% Prototyping, rapid, prototype, prototypes 7% Capabilities, capability, mobility 7% Systems, robust, control, functionnnability, architecture, distributed, controller AltaVista: les différents clusters obtenus On constate ici la richesse de l'Internet comme outil d'information. En effet, le terme agile conduit à plusieurs dizaines de milliers de références, qui peuvent être structurées à partir du tableau suivant (certains concepts comme Dogs, Fighter, Combat, Frequency pouvant être écartés dans une première approche). Mais, chacune de ces segmentations conduira à des centaines, voire des milliers de sites WWW, qui chacun auront un certains nombre d'informations et sans doute des liens avec d'autres sites. L'accès à l'information est facilité au plan de la recherche globale, mais on bute sur la lecture et la sélection de ce qui sera important. C'est pour cela que des Robots (ou Agents Intelligents) sont développés pour satisfaire ce besoin. On citera entre autre AUTONOMY qui est auto-apprenant, et AURESYS 2 (Agent Intelligent développé au CRRM par Monsieur Bruno Manina) développé au laboratoire CRRM en collaboration avec IRIS (Médiathèque Régionale de la Région Provence Alpes Côte d'Azur). Soit dit en passant, on voit ainsi se dessiner une autre utilisation complémentaire de l'internet: affiner et suivre une information que l'on obtient par d'autres canaux. Par exemple si les services de l'Ambassade de France à Washington nous indiquent le nom de quelques personnes, laboratoires universités ou entreprises en avance dans le domaine, et si celles-ci apparaissent dans un site WWW on pourra s'informer facilement sur la partie laissée visible par ces institutions ou personnes. Dans le cas des personnes, si celles-ci on un e-mail, on pourra toujours leur envoyer des messages pour obtenir des informations supplémentaires. Il faut dans ce cas le faire avec astuce et discernement. 18.1.2 - Le commerce électronique Ce thème est mieux connu et de multiples articles ont été publiés sur le sujet, depuis les pratiques des utilisateurs, la sécurité des paiements, le couplage avec des réseaux de distribution, etc. Les bases de données publiques, que nous avons citées pour l'agilité conduisent à de bonnes références. Il faudrait y ajouter la base de données Prompt de Predicat, pour les informations économiques. Mais, nous n'allons pas nous situer à ce niveau. Si nous sommes une Société intéressée par le sujet, sur quoi doit elle vraiment veiller, et comment bâtir un plan d'observation ? Nous allons nous référer à Internet pour ce faire. Non pas directement en posant une question et en la segmentant comme cela a été réalisé dans le cas de l'agilité, mais en utilisant un discours politique. Nous avons déjà cité l'adresse du site internet qui permettra d'accéder à ces données http://iitf.nist.gov/eleccomm/ecomm.htm. On accède alors au texte du discours suivant: A Framework For Global Electronic Commerce President William J. Clinton, Vice President Albert Gore, Jr.C On trouvera, parmi un certains nombre de considérations qui sont trés utiles pour déterminer les contours que souhaitent donner les américains au commerce électronique, un certains nombre de "points durs", pouvant être utilisés pour structurer une recherche d'informations avancées sur le sujet. En voici quelques exemples: Technical standards: Strandards are critical to the long term commercial success.... To ensure the growth of global electronic commerce over the Internet, standards will be needed to assure reliability, interoperability, ease of use and scalability in areas such as: (note de l'auteur, remarquez des termes identiques à ceux présents dans la segmentation du terme Agile) * electronic payement, * security (confidentiality, authentificatioin, data integrity, access control, non-repudiation) * security services infrastructure (eg. public key cerificate authorities) * electronic copyright management systems * video and data-conferencing * high-speed network technologies (eg. Asynchronous Transfer Mode, Syncronous Digital Hierearchy) * digital object and data interchange Considérations moins technologiques In order to spur the removal of barriers, ... * encouraging private sector investment by privatizing government-controlled telecommunications companies *promoting and preserving competition by introducing competition to monopoly phone markets, ensuring interconnection at fair prices, opening markets to foreign investment, and enforcing anti-trust safeguards * guaranteeing open access to network on a non-discriminatory basis, so that GII users have access to the broadest range of information and services * implementing by an independent regulator, pro-competitive and flexible regulation that keeps pace with technological development. D'autres données sur les produits d'encryption et leur liberté d'utilisation suivent, ainsi que le nom des principales instances sur lesquelles il faudra s'appuyer pour dégager des normes et des standards, etc. Cet exemple, met bien évidence les différents usages que l'on peut faire des sources d'information dans ce domaine, et entre autre, comment un discours politique (sans doute écrit par des experts suivant une ligne politique générale décidée par le Président) peut être très utile. Il faut tout de même, dans de tels cas, examiner ce qui est dit pour déterminer dans quelle mesure on n'est pas en présence d'une information biaisée ou d'une désinformation. Enseignement Comme l'on est dans un sujet quasi opérationnel, il ne faudra pas uniquement se baser sur l'avenir, mais voir ce qui est fait au présent. Pour cela l'éducation et les programmes proposés sur le commerce électronique sont une large source d'information. Souvent présentés sous forme de MBA, ils sont à la fois techniques, économiques, de Business Dévelopment.... devant faire face à une compétition forte aux USA (pour attirer les étudiants), les programmes sont bien décrits et de ce fait sont une source importante d'informations dans le domaine. On citera par exemple le site suivant: obtenu avec une recherche sur AltaVista avec les termes mba et electronic commerce. MBA Core Module on Electronic Commerce MBA Core Module on Electronic Commerce. http://midir.ucd.ie/~jmooney/sworld/ecourse/mbacore.html http://www.isworld.org/isworld/ecourse/mbacore.html 18.2 - L'Observatoire de la Production Scientifique en Provence Alpes Côte d'Azur Ce projet, a été développé par le CRRM à Marseille depuis 1995. Il est né d'une constatation très simple: la majeure partie des experts scientifiques d'une discipline, voire d'une sousdiscipline, n'ont qu'une vision excessivement restreinte de l'ensemble de la production scientifique régionale. Cette vision se restreint même au plan de leur discipline à quelques laboratoires avec lesquels ils collaborent, ou dont ils lisent les travaux publiés. Mais, même pour leur propre discipline, l'intégration de la production scientifique régionale dans un ensemble plus important (comme dans notre cas le Sud de l'Europe) n'est pas bien perçu. Nous avions aussi constaté, ceci au plan industriel, que le potentiel réel de recherche (pas nécessairement celui affiché dans le descriptif des laboratoires), n'était pas connu ou pas bien perçu. En fait, les relations se bornaient souvent à un travail avec des équipes ou des laboratoires ayant noués des relations depuis un certain temps, sans que les nouvelles expertises soient prises en compte. Partant de ce constat, et ayant à notre disposition à la fois un serveur WWW, et une volonté de rendre plus visible la production scientifique et si possible de créer automatiquement à partir de celle-ci des liens avec l'industrie, nous avons développé (thèse de Jean-Marie Dou, Université Aix-Marseille III, Faculté des Sciences et Techniques de Saint Jérôme, 1998) sur l'internet un Observatoire permettant aux chercheurs et aux étudiants en DEA et en thèse d'obtenir facilement un certain nombre de renseignements globaux sur la recherche dans la Région Provence Alpes Côte d'Azur. Présentation de la première page de l'application Observatoire Des données générales: Les travaux qui ont été menés dans le cadre d'Université 2000, ainsi que dans le cadre du schéma régional de la recherche, ont été, après avis du DRRT, synthétisés et mis à disposition sur le serveur. Ceci conduit à une notion de positionnement global, très utile pour éviter les on dits, ou autres interprétations. De même, de larges extraits du rapport de synthèse ont aussi été mis à disposition, ce rapport n'étant pas globalement accessible très facilement. Ecran présentant un certain nombre d'informations générales Travaux de recherche: Pour aller plus vite, nous avons, en accord avec l'INIST qui a fourni les informations, obtenu la production scientifiques de la Région, indexée dans la base Pascal, pour les années 1993, 94 et 95. Ces données ont été traitées et formatées pour êtres placées dans le serveur sous forme d'une base de données. Les références ne sont pas contenues dans un fichier global, mais sont chacune autant de pages HTML indexées. Ceci permet le cas échéant de changer une référence, où d'y ajouter des commentaires, voire même le texte intégral. Le passage de l'ensemble des références à une segmentation en page Web a été réalisé automatiquement, de même la création de la base de données, l'indexation et le processus de recherche ont été développés à partir de CGI accessibles en freewares. Statistiques générales: A partir de la base de données précédentes, nous avons établis un certain nombre de statistiques qui mettent en évidence les secteurs scientifiques les plus importants ainsi que la liste des chercheurs et des revues dans lesquelles ils publient. Ces statistiques ont été réalisées en utilisant le logiciel Dataview, ce qui permis de réaliser différentes extractions de listes. Ce sont ces dernières qui ont été placées dans le serveur. A toutes fins utiles, nous avons aussi réalisé l'environnement direct d'un auteur, en traitant l'ensemble des paires d'auteurs présents simultanément dans la même référence. Cet ensemble de paires d'auteurs permet, lorsqu'elles sont indexées dans un gestionnaire de document, d'extraire très rapidement l'environnement scientifique d'une auteur. On recherche un nom d'auteur, et toutes paires qui le contiennent sont sélectionnées, d'où l'accès immédiat à son environnement scientifique (les personnes avec lesquelles il publie). Ces données ne sont pas rendues publiques, bien quelles soient implicitement contenues dans la base de données, simplement parce que nous ne voulons pas que l'on puisse supposer que nous nous intéressons particulièrement aux personnes. Néanmoins l'ensemble du fichier des paires d'auteurs peut être obtenu via un ftp. Le gateway: De nombreux laboratoires, universités, institutions de recherche possèdent leur propre serveur WWW. Pour faire gagner du temps aux personnes intéressées, nous avons réalisé un gateway, qui permet à partir de la consultation de l'Observatoire des Productions Scientifiques, d'atteindre les serveurs les plus représentatifs. Cette rubrique est souvent en modification, compte tenu de la création ou de la disparition de certains sites. Il faut, dans ce cas être prudent, car certaines données, bien qu'intéressantes, ne sont pas permanentes. Elles peuvent fluctuer dans le temps. Une partie des données accessibles à travers différents liens Le lien avec l'industrie: Afin de donner la possibilité aux chercheurs de situer leur recherche dans un secteur industriel, même très large, une thèse a été entreprise sur le transcodage des références Pascal avec la Classification Internationale des brevets. En se basant sur divers traitements statistiques (thèse de Monsieur Pascal Faucompré, Université Aix Marseille III, Faculté des Sciences et Techniques de Saint Jérôme, CRRM, 1997), nous avons créé pour la majeure partie des références Pascal un champ IC (Classification Internationale des brevets). Ce champ contient une ou plusieurs classes, selon les mots-clés caractérisant la référence. Ceci permet de situer les travaux fondamentaux dans le champ technique, et d'autre part, à partir de la classification de retrouver avec une certaine cohérence des travaux, des noms d'experts et des adresses de laboratoires. Cet ensemble est disponible sur l'Internet.(http://crrm.univ-mrs.fr) La boîte aux lettres: Pour permettre aux utilisateurs de l'Observatoire d'avoir un lien direct avec la personne qui administre celui-ci, une boîte aux lettres a été créée. Elle permet aux utilisateurs de laisser des messages et de demander une inscription auprès de l'Observatoire, pour qu'un mot de passe personnalisé lui soit ensuite fourni, lorsque l'Observatoire sera pleinement opérationnel. Les difficultés rencontrées: La difficulté majeure rencontrée est celle de la collecte des données et de l'intérêt que peut revêtir pour le chercheur l'insertion de sa production dans un ensemble plus général. Les données telles que l'appropriation des travaux par les entreprises pour créer une richesse technologique ou des synergies, la connaissance des secteurs de développement industriel et les liens possibles avec leurs activités de recherche ne sont que rarement évoqués. Par exemple, dans le cadre des thèses, il ne nous a pas été possible d'obtenir la totalité de la production. Or, la base téléthèse, a un retard certain dans ce domaine. Enfin, les rares fois où nous avons pu obtenir des informations, il était difficile d'obtenir un format informatique correct, et même dans certains cas seulement le produit papier était disponible sans pouvoir obtenir un quelconque support informatique de sa saisie! Dans notre cas, ce n'est pas vital, mais pour une entreprise cela le sera certainement. On voit ainsi toute l'attention qu'il faut porter sur l'organisation de la saisie des données, de leur recueil, de leur format et de leur stockage. Les développements futurs: Nous nous sommes rapidement rendus compte, que, s'il nous était possible de maintenir sur le site WWW diverses applications, le problème majeur concernerait le recueil des données. Nous avons donc décidé de nous focaliser sur trois domaines précis: * continuer la mise à disposition des travaux régionaux via la base Pascal, * analyser la production scientifique dans une grande gamme de domaines, * commenter les résultats, en espérant que cela suscitera des réponses. En effet, nous souhaitons ne plus rester dans le domaine stérile des citations ou des revues de rang A, B .... mais passer au niveau de l'intersection de la recherche et de l'économie. Il sera donc nécessaire, dans la mesure du possible, de mettre aussi en place une analyse poussée des domaines technologiques où un développement industriel peut se réaliser dans la région. On pourra opérer soit par thématique, soit par zones géographiques. On peut remarquer, que la structure de l'Observatoire a été conçue pour permettre éventuellement un développement partagé de recherche d'information, puis d'alimentation de ce dernier. C'est pour cela que nous avons choisi le format d'une seule référence par page HTML, ce qui permettrait l'insertion de nouvelles informations commentées, ou par l'intermédiaire de la boîte aux lettres, l'envoi vers le site maître d'un ensemble d'informations. Le fait aussi d'avoir la possibilité de n'accéder à l'observatoire que par un mot de passe si cela est nécessaire, permettrait de créer un système de veille partagée, cette fois-ci sur un thème et sur une zone ou des zones géographiques très larges. Le même concept (avec une valeur ajoutée supplémentaire du fait de l'analyse par un expert) est actuellement utilisé depuis 7 mois environ par le Réseau Chimie mis en place dans la francophonie par le CRIQ (Centre de Recherche de l'Innovation du Québec, Parc Technologique du Québec métropolitain, 333, rue Franquet, Sainte Foy (Québec) Canada G1P 4C7)), et ceci via l'Internet. 18.3 - Une diffusion systématique des informations en média multiples. Le Colloque sur l'Information Elaborée d'Ile Rousse Les colloques lorsqu'ils sont organisés avec des moyens relativement modestes, ce qui est souvent le cas, ne peuvent que difficilement assurer une diffusion et une publicité importante de la manifestation objet du colloque. Nous relatons ici, ce qui a été réalisé dans ce cadre par le CRRM et la Société Française de Bibliométrie Appliquée (SFBA) pour le Colloque sur l'Information Elaborée, d'Ile Rousse. Ce colloque, est organisé par la SFBA tous les deux ans, à Ile Rousse en Corse. L'annonce du Colloque est réalisée, une année avant par Internet, et couplée par un envoi d'informations particulières aux adhérents. L'annonce est faite sur le site http://crrm.univ-mrs.fr La page descriptive du serveur déjà présentée dans ce livre montre sous la rubrique Ile Rousse 97, l'état de la présentation du colloque qui a eu lieu en Juin 1997. Les inscriptions en ligne ne sont pas réalisées. On envoie aux personnes qui nous demandent comment s'inscrire, un Bulletin d'inscription suivi du programme du Colloque. Ceci est simplement lié au public (universitaires et industriels qui ne paient pas directement les droits d'inscription), et à la difficulté en France de réaliser légalement une inscription électronique via carte bancaires et reconnue par l'administration. L'appel à communication: Il est réalisé par Internet presque exclusivement pour les particuliers. Les institutions qui participent généralement au colloque reçoivent les indications sur produits papier. La saisie est unique, les produits papiers envoyés étant imprimés à partir de la version HTML présente sur l'internet. Les résumés: Les résumés des communications sont demandés aux participants soit sur disquette (format ASCII ou au format Winword), soit via e-mail. Dans quelques rares cas, on a encore des résumés papiers. A partir de cet ensemble, on construit la présentation Internet du colloque, telle qu'elle peut être consultée actuellement. Les communications: Il est demandé à chaque personnes ayant effectuée une communication, de nous transmettre le texte au format Winword, le texte incluant déjà sous forme informatique les images et les schémas. La transmission se fait généralement sur disquette, ou par e-mail et fichiers attachés. C'est cette partie qui est la plus difficile à réaliser. En effet, on a toujours une grande difficulté à réunir l'ensemble des communications, et le fait d'utiliser un format électronique ne change rien. Le colloque Durant celui-ci un certain nombre d'éléments vont être réalisés sur place. Ces derniers vont avoir pour but d'une part de synthétiser les différents aspects du colloque (ce sont des interviews sous forme d'enregistrements). Ensuite, pour rendre la présentation plus vivante, un certain nombre de photographies seront réalisées (il n'est pas question ici de faire une oeuvre artistique, mais de réaliser un outil d'information destiné à être diffusé). Nous utilisons pour cela un appareil photoélectronique du type ION. La préparation du produit On réalise un produit suivant les indications que nous avons déjà données au niveau de l'hyperinformation. Une partie écrite va synthétiser ce qui s'est dit dans le colloque, en fait cela constitue une analyse rapide qui renvoie en hypertexte aux données principales. Cette synthèse est complétée par un accès aux interviews principaux des personnes représentatives. Une autre partie du produit est réalisée par un album photos, destiné à rappeler aux participants certains moments du colloque. Il faut utiliser toutes les facilités possibles pour créer une présentation originale ainsi que des moyens de navigation pour accéder aux informations (hypertexte, ou indexation). Le produit peut être réalisé de différentes façons: une partie peut être encapsulée dans une présentation unique (en utilisant authorware par exemple), et une autre présentation via ACROBAT, des communications. C'est cette manière de faire qui a été utilisée pour réaliser le CD-ROM du Colloque sur l'Information Elaborée d'Ile Rousse 1995. La diffusion du colloque 1997 En deux ans, les technologies ont évolué. Nous avons adopté pour le colloque 1997, une diffusion CD-ROM sous forme HTML globale, pouvant ou non contenir des pages .PDF (Acrobat d'Abobe). Mais, nous n'encapsulons plus le produit par un logiciel ne permettant que la consultation du contenu. Le choix du HTML est fait pour permettre à ceux qui achèteront le CD-ROM 1997, de le diffuser soit sur un intranet, soit en réseau, soit de prendre certaines parties et de les rediffuser sur l'Internet en les plaçant sur leur propre serveur. Cette liberté qui est laissée au niveau du choix de la diffusion et de la rediffusion, conduit à une augmentation considérable de la disséminations des produits. Au niveau technique, les images sont au format Gif, les sons au format Wav. La musique générale a été acquise pour être en règle avec le copyright. Le CD-ROM sera réalisé avec comme programme de consultation Microsoft Internet Explorer, dont nous avons acquis les droits de diffusion et de "customization" auprès de Microsoft. La diffusion des communications du colloque de 1995 Si les résumés sont diffusés sur l'Internet, avec un certain nombre de photographies, l'ensemble total est réalisé sous forme d'un CD-ROM. On montre ici quelques unes des caractéristiques du CD-ROM 1995, qui reprend une présentation générale globale qui sera conservée, avec une partie des textes accessibles via ACROBAT. Les informations sont structurées en grands chapitres, de manière à repérer rapidement ce qui est intéressant pour le lecteur. Le Reader d'Acrobat, qui est gratuit, est inclus dans le CD-ROM de manière à ce que le lecteur, s'il ne le possède pas puisse l'installer sur son disque dur. Présentation générale, ouverture du CD-ROM On essaie le plus possible de procéder par menus visuels, pour que le lecteur puisse avoir rapidement une vue d'ensemble de l'événement, au niveau des images ou du texte selon ce qui est choisi. Dans le cas présent, l'unité de lieu est respectée, les images sous forme d'icône reprennent des lieux (bâtiments et sites d'Ile Rousse). Deuxième page du CD-ROM, ouvertures vers les différentes parties L'accès à la présentation des photographies conduit à retracer les différents événements du colloque. La photographie suivante présente les organisateurs du Colloque: (de droite à gauche) Le professeur Jacques Emile Dubois (ancien Directeur de la DRME), l'Amiral Lacoste (ancien Directeur de la DGSE), le Professeur Clément Paoli, le Professeur Henri Dou, François Jakobiak (Directeur d'Existrat) Une partie "cachée" du CD-ROM La présentation de l'ensemble des textes des communications réalisée sous ACROBAT est précédée de diverses analyses bibliométriques mettant en évidence la structure du vocabulaire, les principaux termes traités par les auteurs, etc.... La figure suivante montre la lecture d'une partie de cette analyse avec le lecteur ("Acrobat Reader") d'Acrobat. 18.4 - Un service dans une entreprise: un intranet Les potentialités actuelles des matériels informatiques, la facilité de réaliser des réseaux locaux, la disponibilité de logiciels de plus en plus performants et simple d'utilisation, ont conduit à un large développement de l'accès en réseau aux informations, des échanges, de la messagerie, et aux partage des données. Plus des 2/3 des entreprises américaines qui ont été analysées par Forester Research considèrent devoir posséder un intranet (Intranet business opportunities, Machover Carl, Proceedings of Computer Graphics International Conference, CGI, 1997, IEE, Los Alamitos, CA USA, pp. 138-143 - Intrantnet Grand Livre, J. Paul et al. traduit de l'Allemand par F. Reitz, Lavoisier, 1997 - Groupware et intranet, L'entreprise et la maîtrise de l'information, G. Puiseux, Lavoisier, 1997) On ne va pas dans ce chapitre traiter de la totalité de la notion d'Intranet, puisque de très nombreux ouvrages ont déjà été publiés à ce sujet. Simplement, on va donner quelques éléments qui permettront de bien comprendre les enjeux. Ces enjeux sont importants, car ils peuvent introduire un avantage compétitif par rapport aux concurrents, par exemple même avec un serveur modeste, on peut atteindre des performances remarquables et donc un avantage certain (Competitive advantage from the Intranet, Jina J., Wright D.T., Manufacturing Engineer, v.76 n°3, Juin 1997, pp.124-128). Lorsqu'on voudra réaliser un intranet sur une plus grande échelle, les facteurs de maintenance, de robustesse de l'ensemble, du design devront être prises en compte (Enterprise Intranet Management, O Hara Brian, Andersen Consulting, Telecommunications (Americas Edition) v.31, n°4, avril 1997, pp. 122-131) Tout d'abord, disons que le terme intranet ne signifie pas nécessairement qu'un système internet va être utilisé. C'est faut dans l'absolu, car Intranet signifie à la base l'utilisation des outils de l'Internet et l'utilisation des normes HTML (ce qui coûte bien moins cher que d'autres systèmes !). Mais, par exemple, on, peut très bien réaliser tout un processus de contacts, d'échanges, de gestion des informations à partir de Lotus Notes. Dans ce cas, et bien que la terminologie ne soit pas adéquate certains parlent d'Intranet. Au départ la notion d'Intranet correspondait à une notion de site. Actuellement elle s'étend à la notion de système privé qui peut être multi-sites. On parle alors aussi d'Extranet. Cependant, au départ et si l'on n'a pas du tout de système de base, il faudra analyser le système de "groupware" qui va être utilisé par l'entreprise. Par exemple, certaines sociétés, selon ce qu'elles ont à transmettre comme informations, avec les types de mises à jour et d'utilisation, trouveront un avantage important dans les systèmes ouverts (type Intranet HTML vrai), alors que d'autres préféreront des systèmes propriétaires comme Lotus Notes. Ces types de choix sont cruciaux pour les sociétés. De même, les constantes de temps sur le long terme doivent aussi être évaluées. (Enterprise-level groupware choices. Evaluating Lotus Notes and Intranetbases solutions, Ginsburg M., Duliba K., Computer Supported Cooperative Work CSCW. An International Journal, v.6, n°2-3, 1997, pp.201-225). 18.4.1- Les fonctions de base d'un Intranet Elles vont être de permettre: * la messagerie, l'envoie d'informations par exemple par des fichiers attachés aux messages. Attention à cette pratique, elle est parfois stérilisante, quand, pour évacuer un problème on se contente de transmettre au suivant un message avec un fichier attaché sans tenir compte des volumes finaux à lire et sans joindre une analyse préalable. * le fonctionnement de groupes de discussions, avec gestion des questions et modérations * l'envoi de documents par des listes de diffusions * l'accès à des informations de natures différentes: textes, images, éventuellement sons et séquences animées. Les informations pourront être de nature différentes, par exemple fichiers Word, tableurs Excel, textes ASCII, images avec différents formats, documents mixtes, etc. * consultation de bases de données. * hiérarchisation des accès par mot de passe. * possibilité de cryptage des informations. * bonne convivialité et ergonomie. Mais, cet ensemble ne fonctionne pas tout seul, il faut le gérer, à la fois sur le plan informatique (ce n'est pas le plus difficile), mais aussi sur le plan des informations à introduire dans le systèmes, pour animer les groupes de travail, pour réaliser des synthèses à partir des commentaires, etc. Un bon conseil, il faut au départ bien analyser ce que l'on veut obtenir du système. Ne pas placer les contraintes et l'informatique au premier plan, il faut d'abord en fonction de la structure hiérarchique de l'entreprise, de la circulation des informations, de la localisation des experts, bien déterminer ce que l'on attend du système. Ensuite, que l'on utilise Lotus Note, ou autre chose, cela ne pose pas de problème car la majorité des problèmes techniques peuvent être résolus (à des coûts très différents il est vrai). Cependant, au-delà de l'information elle même, c'est "l'organisation apprenante" qui va être concernée lorsque l'on met en place un intranet. C'est en effet à une stratégie proactive que devrait conduire à la mise à disposition des bonnes informations, au bon moment et vers les bonnes personnes, le tout lié à de la messagerie et à des groupes de discussions. L'intranet fournit ainsi une infrastructure qui va permettre d'aider au développement des différentes phases de l'entreprise apprenante (Intranets and organizational learning, Harvey M.G., Palmer J., Speier C., Proceeding of the 1997 ACM SIGCPR Conference, San Francisco, CA, USA, 1997, avril 3-5). 18.4.2 - L'Intranet multisites Dans le cas d'un Intranet sur plusieurs sites, le problème des réseaux sur lesquels va circuler le trafic doit être bien analysé au niveau des vitesses. Réseau privé, téléphone RTC, RNIS, passage par l'Internet, etc. Selon les niveaux d'encombrement, de vitesse, d'ouverture du réseau vers l'extérieur, il faudra utiliser diverses solutions au niveau de la taille et des formats des informations à transmettre, et au niveau de la protection de ces dernières. Dans le cas de l'utilisation de l'Internet, il faudra si le serveur est aussi lié au réseau de l'entreprise, prévoir un "fire-wall" (système informatique de filtrage des appels, empêchant l'entrée dans le système de personnes non agrées. C'est le point de passage obligé pour entrer et sortir.) qui permettra une certaine sécurité. Attention il ne faut pas que le "fire wall" soit tel qu'il ralentisse trop la circulation des informations sur le réseau. Dans le cas d'un Intranet multisites, il sera intéressant d'utiliser une encryption entre les firewalls, ce qui conduit pratiquement à réaliser un réseau privé à partir du réseau Internet public. On pourra consulter à ce sujet: Internet firewalls: questions and answers, Ker Keith, Proceedings of SPIE, The International Society for optical Engineering v.2116, 1996, Society of PhotoOptical Instrumentation Engineers, Bellingham, WA, USA p.65-77 (PSISDG). Conference Protection and Network Security, Philadelphia, PA, USA, 1995, Oct 24). Actuellement, il est très facile de réaliser un Intranet à partir d'un simple PC, en créant un serveur WWW. Le coût est minime. Il faudra bien sûr installer en local les forums, les mailing lists, attribuer des e-mail internes, etc... Il faudra aussi que certaines personnes maintiennent le système non pas tant au niveau informatique mais au niveau des données qui sont mises à l'intérieur. Dans ce cas, on a un seul site serveur. Il gère la messagerie les groupes de travail et accès aux sources d'informations qui sont uniquement au niveau du serveur. La mise à jour peut être effectuée soit au niveau du serveur localement, soit sur le même serveur à distance. Dans ce cas, si l'Intranet est local on n'aura pas de problème. Si on veut agir de l'extérieur, il faudra que le serveur soit accessible via le téléphone et un modem. Pour fonctionner en Extranet, il faudra que le serveur soit accessible en permanence par le réseau RTC, ou Transpac, ou via Transpac à l'Internet. Enfin, il ne faut pas, au plan général, regarder l'intranet comme une sorte de "gadget". Citons à ce porpos Etats de Veille, n°16, Septembre 1997, p.6: La France a un Intranet de retard. Selon une étude du cabinet Mc Kinsey, la mise en place de l'intranet dans les entreprises américaines devrait générer près de 6000 milliards de francs d'économie dans les prochaines années. 50% des 100 premières sociétés américaines sont concernées. En France les entreprises montrent peu d'intérêt pour une technique qui semble pourtant révolutionner l'organisation managériale outre-atlantique ..... (Challenges, Juillet-Août 97). On pourra aussi consulter dans le même esprit le site internet des Echos: http://www.lesechos.fr/enquintranet/enquintra2.htm, à partir duquel on peut extraire le tableau significatif suivant: Pas de développement d'application Internet parce que n'en ressent pas le besoin à cause du coût lié au développement d'une application par manque de compétence ou de savoir faire interne par ce que vos cleints ne sont pas utilisateurs d'Internet parce que la sécurité des transactions n'est pas garantie autres % 63,1 9,1 10,9 33,5 5 8,8 Base: total des réponses (320 entreprises de 20 à 500 salariés) L'absence de besoin principal frein à Internet On constate bien que le régionalisme des entreprises et une clientèle encore peu encline à utiliser les moyens modernes d'information, sont les freins les plus importants au développement. Cette constatation va de pair avec la nécessité pour les entreprises de passer du niveau local au niveau global. 18.5 - Exemples d'utilisation de "check-lists" Les "check lists" sont un éléments importants dans la conduite d'un système d'information, mais plus généralement dans la conduite de toute opération. Elles permettent, avant que le système à réaliser ne soit géré par des règles ou par un protocole bien rodé, d'être le plus sûr possible que l'ensemble des étapes à suivre est cohérent, et que rien n'a été oublié. L'image populaire de la check list est celle du pilote qui avant le départ d'un vol aérien, avec une telle liste, vérifier l'ensemble des appareils nécessaires à la bonne réalisation vol. On peut facilement transposer cette situation au niveau des processus mis en jeu par le plan de renseignement, puis au niveau de l'analyse de l'information, de la mise en place des groupes d'experts et ensuite de la dissémination des produits d'information. Il est aussi intéressant de noter, compte tenu de ce qui a été dit sur le temps et son importance qu'une check list peut être associée à un planning très simple de réalisation, d'avancement de certaines tâches. Ceci sera important lorsqu'il faudra coordonner des éléments venant de lieux différents et émanant de personnes différentes. La check list, dans son aspect le plus fruste peut être simplement une succession de "choses à faire" qui sera écrite sur une feuille de papier et à laquelle on se référera pour ne rien oublier. Mais, dans une expression plus moderne, la check list devient informatique, et elle devient alors un véritable outil, à la fois pour ne pas oublier de tâches essentielles, mais aussi pour suivre leur déroulement et les associer de commentaires. Les systèmes de gestion automatisés permettent alors de planifier une opération avec un groupe de "réalisateurs", en tenant compte des contacts possibles, des experts, des personnes qui voyagent ou qui ont déjà acquis une connaissance des faits, etc. Ainsi, dans sa réalisation moderne, la réalisation d'une check list pour une opération particulière devra tenir compte de ce qui a été fait dans des situations semblables (surtout au niveau de la réminiscence de ce qui n'avait pas bien fonctionné). Elle devra aussi être soigneusement réalisée en tenant compte des détails. Cela ne veut pas dire que l'on doive introduire une sorte de charte de qualité, ni faire en sorte que la recherche d'information soit mis à une norme ISO quelconque, mais, il faut simplement préparer en professionnel une opération de recherche de recueil, d'analyse, de gestion des informations et donc mettre le plus d'atouts de son côté. Je pense personnellement que c'est une erreur que de vouloir placer un service de Veille et d'Intelligence Economique à une norme de qualité quelconque. Ce sont les processus de gestion et de management de l'information qui peuvent l'être. Peuvent aussi être concernées les recherches d'informations formelles, puis ensuite la diffusion des produits du service. Mais, l'organisation de la recherche, l'initiative qui doit être laissée aux experts, les processus de compréhension, ne doivent en aucun cas être instrumentalisés par des normes et des chartes quelconques. Il faut éviter les rigidités de tous ordre et augmenter la souplesse générale. Utilisation et réalisation d'une check list: A partir d'une cible qui a été fixée, ou même pour mieux rationaliser un processus de Veille ou d'Intelligence Compétitive, on va établir, avec des experts une sorte de canevas qui va permettre de tisser globalement la toile de fond sur laquelle l'opération sera menée. On analysera les différentes étapes: 1 - Le plan de renseignement: Analyse des sources d'information, formelles, informelles. 2 - Recueil des informations et analyse: a - Recherche des informations. i - Qui fait quoi, à quelle vitesse, à qui sont transmises les informations. ii - Comment les informations vont elles être gérées, c'est à dire placées dans un système quelconque permettant leur dissémination ainsi que leurs commentaires. b - Analyse et corrélations. i - Les informations à analyser justifient-elles d'un traitement préalable ? ii - Si oui, qui le fait, où sont placés les résultats. 3 - Consultation d'experts, comprendre: La compréhension des informations. i - Quels sont les experts associés à l'objectif ? ii - Les informations sont-elles transmises en flux continu, ou en batch avec collation des réaction des experts et réunions ? Utilise-t-on le modèle groupe de travail en messagerie électronique, comment les commentaires sont ils gérés, par qui, qui fait la synthèse finale. 4 - Transmettre, quoi, comment, à qui ? Les produits issus du service. i - Pour qui, à quel niveau hiérarchique, sous quelle forme ? ii - Qui transmets ? 5 - Animation de l'ensemble Comment, avec quelle considération pour ceux qui agissent. Exemple de check list moderne Elle peut être détaillée pour chacune des opérations. Elle peut s'appuyer ou être en liaison avec des bases de données de personnes ou avec la mémoire de l'entreprise. Elle peut contenir des informations sur les concurrents. Cette liste peut être réalisée sur un système informatique dédié, mais on peut aussi faire dériver des fonctions de certains programmes, entre autres organiseurs pour gérer tout ou partie des opérations.. Il est important de noter toujours qui fait quoi, avec les adresses; les téléphones, les déplacements. Pour les experts, il faut avoir accès à leur fiche signalétique, à la fois pour leur expertise actuelle, mais aussi pour savoir comment leur passé peut contribuer à l'analyse et à la compréhension des faits. On peut, dans certains cas, utiliser des systèmes faisant appel à des bases de données de personnes dans l'entreprise ainsi qu'à des agendas électroniques Lotus Smart Suite par exemple. L'objectif étant toujours de laisser la plus grande place à l'initiative tout en maîtrisant les dérives, et de laisser aussi la place à l'innovation et à l'imagination. Mais, en s'entourant d'un certain nombres de précautions pour ne pas passer à côté de l'essentiel. Il n'existe pas de produits informatiques dédiés à de telles opérations sur le plan commercial. On peut en réaliser un, mais aussi comme nous l'avons déjà souligner, utiliser les fonctions de certains programmes de gestion du temps. On notera par exemple le nouveau Sidekick 97 de Borland, qui outre les fonctions classiques d'un organiseur, permet aussi d'imprimer les tâches à effectuer ou les caractéristiques des personnes avec lesquelles on doit prendre contacts, il tiendra compte des décalages horaires. On pourra aussi citer des gestionnaire de contact. Signalons aussi Contact Browser qui en outre est un shareware, etc. Les programmes de gestion de projets du type PERT (PSN7 sous Windows par exemple) peuvent certes être utilisés, mais l'essence même des opérations de renseignement, de Veille, d'Intelligence, ne rentrent pas à mon avis tout à fait dans cette catégorie. 18.6 - Les technologies stratégiques françaises L'année passée, le Ministère de l'Industrie a réalisé une étude pour déterminer les principales (105) technologies françaises. Un livre récapitulatif: les 100 technologies du futur a été édité à la suite de ce travail (L'annuaire des Technologies clés, Ministère de l'Economie des Finances et de l'Industrie, Secrétariat d'Etat à l'Industrie, Délégation à la Communication, 20 av. de Ségur, 75353 Paris 07 SP ou http:www.industrie.gouv.fr). Nous allons retracer rapidement la méthode qui a été utilisée, car elle peut bien se replacer dans un contexte d'hyperinformation. Elle est en effet basée sur des critères généraux déterminés par les experts du Ministère, puis procède par différentes phases de travail d'experts, positionnement des technologies et choix définitif. Le lecteur pourra, selon les circonstances auxquelles il doit faire face, s'inspirer au niveau méthodologique. 18.6.1 - Méthode utilisée pour les choix Directives générales: au plan général, il a été décidé que l'examen des technologies qui allaient être détectées devrait se faire en tenant compte du "Market Pull" et du "Technology Push". On retrouve ici l'idée générale que "quelque chose se passe toujours "à l'intersection de la R&D et du Marketing." Phase 1. 9 critères sont déterminés: Les marchés de référence et les marchés potentiels L'impact direct sur l'exportation L'acceptation sociale ou l'incitation sociale (pour les technologies concernées) L'intérêt pour le soutien des avantages de nos produits La vulnérabilité et l'indépendance industrielle Les besoins nationaux (défense, santé, énergie...) L'impact global sur les différentes industries nationales Phase 2. Elle va consister en la création par le Ministère de 10 groupes d'experts, 5 orientés vers le marché et 5 autres vers les technologies. Chaque groupe comprend de l'ordre de 15 à 20 experts. Les cinq premiers (market pull) traitent de: santé et environnement, services et télécommunications, systèmes de transport, infrastructures, biens de consommation courante. Les cinq autres (technology push) de biologie, médecine et biotechnologie, information, énergie, sciences pour l'innovation la conception et la production, matériaux et technologies associées. A partir du travail de ces 10 groupes, on sélectionne une liste de 676 technologies Phase 3. On va analyser les technologies précédentes en fonction du positionnement de celles-ci au plan mondial, puis au plan européen, puis en tenant compte de la position française dans le domaine (programmes de recherche, potentiel académique et industriel), brevets.... Pour mieux réaliser ce positionnement, on utilise des outils bibliométriques, et on tient compte en outre de l'analyse des brevets, des aspects scientifiques: publications, etc.... La sélection conduit alors à 136 technologies. Phase 4. On réalise un dernier examen au cours duquel on réduit encore le nombre, pour arriver à 105 Technologies stratégiques. Un examen de ces 105 technologies montre sans doute pour la première fois la prise en compte par le Ministère de l'Industrie de systèmes technologiques transversaux, dans lesquels entrent des normes, l'analyse de certaines conditions de travail, la documentation technique... 18.6.2 - Représentation synthétique Phase 5. La représentation des technologies. Dans cette phase, les technologies sont présentées suivant un modèle Atout-Attrait. On va indiquer sur un graphe un triple positionnement: d'un côté le degré d'attractivité de la technologie, de l'autre la capacité nationale de réussir dans le domaine, enfin la taille du cercle représentant sur le graphe cette technologie avec un diamètre plus au moins fort (cinq niveaux), selon que l'on peut mettre facilement en place un projet dans ce domaine au niveau national. Technology Watch and Competitive Intelligence Strategic Technologies • Final selection e.g. transport technologies •A T T R A C T I V E N E S S 78 78 Automobiles weight reduction vehicle air conditioning 70 Facilities to conduct the a project size 1 to 4 noise reduction in vehicle 80 69 Electric vehicle battery Best chances to develop the technology C.R.R.M. On constate bien, dans cet exemple, l'importance qui est donnée aux experts. Cela veut dire que si dans un domaine donné, l'intelligence nationale du domaine est faible, on risque d'amplifier certaines erreurs. Ce n'est sans doute pas le cas pour la France, mais pour d'autres pays, lorsqu'ils ne sont pas aussi technologiquement avancés, il faut être très prudent et valider les résultats de multiples façons, en les critiquant. La mise en oeuvre des 10 groupes d'experts, le suivi des travaux, la rédaction, etc... avaient été confiés à un cabinet de consultants. 18.7 - Une revue électronique internationale: ISDM Les difficultés actuelles des publications se heurtent souvent à des problèmes financiers, surtout du côté de l'éditeur qui doit réaliser des publications commercialement hors déficit. C'est ainsi que l'analyse des abonnés par pays, les thèmes traités, l'impact de la langue, .... vont rejeter la majeure partie des productions qui ne seraient pas directement centrées, dans une langue accessible, sur les sujets d'intérêt des lecteurs. Nous avons vu aussi dans un des chapitres précédents, ce qui avait été écrit à propos des expériences ne donnant pas de résultats positifs, dans le Courrier International: du fait des contraintes économiques, ces résultats étaient presque systématiquement refusés par les revues (donc en fait par les éditeurs, et in fine par les Comités de Lecture). Dans une analyse réalisée il y a fort longtemps (Existe-t-il encore une expression française en chimie, Information Chimie, vol. 231-241, 1982), nous avions par des méthodes bibliométriques typé les sujets publiés par un certain nombre de revues, analysé leur nombre, le nombre de pages annuelles, etc.... pour constater que la constance de ces chiffres obéissaient plus à des impératifs commerciaux qu'à des impératifs scientifiques. Premier écran de présentation internet de la revue ISDM Dans le domaine concerné par cet ouvrage, nous avons été confronté avec le problème lié à la diffusion des recherches et travaux effectués dans ce domaine. La communauté scientifique n'est pas excessivement grande, il y a certes des lecteurs potentiels, entre autre au niveau industriel, mais le nombre de revues dans lesquelles ont peut s'exprimer est restreint. Les contraintes sont fortes; revues trimestrielles, avec nécessité d'écrire en anglais. C'est à dire, que dans un domaine où la finesse d'expression et de narration ou de commentaire des faits est importante, on se trouve, lorsque l'on est pas angliciste, devant un surcroît de travail important. D'autre part, il est rare qu'une seule revue couvre l'ensemble du contexte de travail et de recherche, et de ce fait les abonnements doivent être multiples. Ne concernant pas une grande communauté, ils ne sont donc pas pris en charge dans la majeure partie des cas par une ou des bibliothèques. Le coût de ces derniers devient donc rapidement trop important pour un simple laboratoire. Nous avons donc décidé, devant cette situation, de créer une revue électronique internationale diffusée sur Internet. L'objectif était de permettre aux chercheurs de cette discipline de s'exprimer, et d'autre part, à partir d'un comité de lecture international et reconnu de donner aux travaux publiés dans la revue une reconnaissance. L'ensemble est diffusé via l'internet. Un abonnement papier est certes proposé, mais son prix doit être dissuasif, du fait que c'est vers le système électronique avec mot de passe individualisé que nous nous orientons. Comme la revue est accessible facilement au niveau international, et que d'autre part les revues électroniques sont prises en compte par les organismes de gestion des publications, celle-ci a un ISSN, ce qui au plan éditorial atteste de son existence. La langue utilisée: L'objectif poursuivi est de rendre accessible aux lecteurs le maximum d'informations possibles, de bonne qualité, nous avons choisi notre Comité de Lecture de manière à ce qu'il reflète une forte pluralité internationale. Le choix de la langue, des langues devrait on dire, a été uniquement basé sur les contraintes informatiques: tout ce qui peut être lu en HTML et diffusé comme tel est accepté. Les publications soumises doivent nous parvenir sous forme de disquettes, ou comme fichier attaché à un e-mail. L'objectif est, soit par l'intermédiaire du texte complet, soit d'un large résumé en anglais, de favoriser le contact entre l'auteur et ceux qui seraient intéressés par le travail. La possibilité par le "coupé-collé" de rédiger des mails reprenant facilement les résultats et les commentant rendra de ce fait l'interaction plus vivante et donc, la collaboration. En outre, les textes portant aussi les e-mail des auteurs, on passera facilement du niveau de la consultation à celui de la communication. Le format des données: Le standard est Winword. On n'examine et donc on n'acceptera que ce qui est contenu dans une disquette, sous forme d'un fichier unique. D'autre part, si la disquette contient un virus, elle ne sera pas lu mais détruite. Souvent, lors de la transmission de fichiers attachés avec des e-mail certains problèmes se posent au niveau de la transmissions des caractères riches, sans compter la possibilité de transmissons de virus, entre autre les macro-virus associés à des fichiers .DOC qui contaminerons ensuite le fichier Normal.dot de Word.. C'est la raison pour laquelle nous préférons actuellement une disquette. Nous ne voulons pas en effet introduire une pesanteur particulière au travers d'un logiciel de transfert ou de consultation. Des produits commerciaux, voire gratuits existent, il faut les utiliser. On pourra nous reprocher de ne pas être assez "pointus" au niveau informatique, mais, lorsque l'on veut travailler au niveau mondial, la plate-forme technique va nécessairement s'élargir et la spécificité diminuer. Pour les langues comme l'Espagnol, le Français, le Portugais, les transcripteurs directs en HTML permettent de régler le problème des caractères enrichis. Evidemment cela exclura l'Arabe, le Russe, le Japonais, le Chinois (*), le Coréen, mais ces pays pourront s'exprimer en anglais. Par contre, une langue comme l'Indonésien, pourra parfaitement être utilisée. Le problèmes des schémas sera réglé puisqu'ils seront directement incorporés dans le texte de Winword. Les tableaux devront être les plus simples possibles. (Ceci est indiqué dans les règles de rédaction accessibles via l'internet). (*) En ce qui concerne le chinois, il faut signaler que des logiciels commerciaux permettent, en étant appelés depuis Winword, de forunir une interface (bandeau en bas de l'écran) qui va permettre d'écrire en chinois avec un Winword en français. Ceci est pratique et permet de réaliser des textes en chiniois ous Winword. Ces textes pourront ensuite être "imprimés" avec l'imprimante virtuelle d'Adobe au format PDF. On pourra ensuite les lier à des applications HTML et donc les diffuser sur l'Internet (http://idsrm.u-3mrs.fr) Exemple du programme Winword français, avec la saisie de textes en chinois Une saisie, des produits diversifiés. On retrouve bien dans cette réalisation les principes de base de la saisie unique, avec la réalisation potentielle de différents produits: * Internet avec la Revue Electronique, * Possibilité de créer un CD-ROM regroupant les différentes publications pour réaliser un stockage et une diffusion à faible coût postal. Le tout pouvant se faire soit en HTML, soit sous forme Acrobate si cela est nécessaire. * Possibilité de réaliser des intranets locaux dans des bibliothèques par exemples, en autorisant le télédéchargement du sommaire ou des textes de la revue. * Possibilité de réaliser, une diffusion contrôlée, par exemple le sommaire en accès libre, le texte des communications en accès contrôlé par mot de passe. 18.8 - Une simple question de bon sens Récemment, dans un article d'un journal local, un rapport de la DDE, indiquait que La ville d'Aix-en-Provence serait, dans les cinq années qui viennent de plus en plus difficle à atteindre à depuis Marseille à certaines heures de la journées. Le Provençal Mardi 3 Décembre 1996: "Aménagement des Bouches du Rhône,: diagnostic alarmant. Rapport présenté le 2 Décembre 1996 à la DEE et préfacé par le Préfet Hubert Blanc. Embouteillages à Marseille. Les experts estiment que dans les cinq ans l'ensemble des autoroutes de pénétration dans Marseille sera saturé. Ils prévoient une congestion totale de la zone aixoise dans les dix ans." Rapport: La Région urbaine marseillaise, métropolisation et développement durable, sous le direction d'Eric Brassart, DDE13, édition de l'Aube, 1996. Les temps de trajet en voiture, étant de l'ordre de 2 heures, pour 2002. Bien que cette information soit digne de fois, et comme il semble bien que la situation économique ne changera sans doute pas, j'ai été étonné de voir que cette situation prévisible ne générait que peu ou pas de questions de mes interlocuteurs. Pourtant, les conséquences de ces ralentissements auront certainement des répercussions sur le développement et surtout sur les modes de travail. Comment peut on aborder, aprés cette information la question ? On va analyser, puisqu'il s'agit avant tout d'un problème de trajet, la situation géographique entre les deux pôles (Aix et Marseille), puis on passera ensuite à des projections au niveau du développement économique?. Restera alors, si les informations sont validées, à tirer certaines conclusions. Tout d'abord, consultons une carte (extrait de Marseille Provence Economie, CCI Marseille Provence, Juin 1997) La situation géographique entre les deux pôles: * les voies routières. Elles sont principalement constituées par l'autoroute entre Aix et Marseille, qui est en cours d'élargissement à certains niveaux (passages de deux à trois voies). * les voies de chemin de fer: il existe une liaison ferroviaire qui fonctionne déjà entre Aix et Marseille, mais l'analyse montre que c'est une mono voie, et donc que les possibilités de trafic sont très limitée. * le transport par autocars, il existe déjà, mais il emprunte la même voie autoroutière, et de ce fait subira les mêmes retards que les voitures. * le TGV, la gare du TGV sera en 2001 à Marseille et côté Aix, au niveau de l'Europôle de l'Arbois. Mais, il est peu probable, sauf exception, qu'il y ait un trafic spécifique entre ces deux points et par cette voie. Encore que cela puisse être possible à certaines heures. La situation démographique: Entre deux référendums, Marseille a perdu environ 70.000 personnes. Elles ne font en fait que quitter la ville pour s'établir dans la périphérie. L'ensemble Marseille Aix, est de l'ordre de 1.200.000 habitants. La situation économique: Il semble bien que le développement économique va se situer au niveau des industries électroniques, vers la zone d'Aix: ZI d'Aix les Milles (le seul Technopôle spontané de la région Provence Alpes Côte d'Azur), la vallée de l'Arc, et la zone de Rousset. En outre, les données de l'Observatoire Economique des Bouches du Rhône (CCI Marseille Provence, Direction des Affaires Economiques) (Echo Info 13, 1997, Observatoire Economique des Bouches du Rhône) nous indiquent que: "La Ville de Marseille assurant un rôle attractif pour les déplacements domicile travail, on assiste à une explosion du trafic entre la Ville et sa périphérie." Cet ouvrage constitue en outre un ensemble de renseignements très utiles sur la géopolitique de la Région Provence Alpes Côte d'Azur. D'autres données économiques sont aussi disponibles dans: Marseille Provence, l'Economie, CCI Marseille Provence Juin 1997. Et maintenant, anticiper, qui, comment, pourquoi, quand ? Cette analyse rapide montre comment à partir d'une simple information paru dans un journal, il va falloir l'analyser à la lumière d'un nombre d'informations complémentaires de plus en plus important. Le rapport en lui même, cité par le Journal pourra aussi être consulté, s'il est disponible, mais c'est surtout l'ensemble des faits liés à l'information principale qui sera utile. Ensuite, selon l'activité, la localisation de l'entreprise, le flux des personnes se déplaçant, leur domicile, etc... on en tirera un certain nombre de conclusions qui pourront toucher à l'aménagement du temps de travail, au système de communication entre les personnes, à la répartition du travail, etc. Sûrement, cette approche analytique permettra de prendre à temps, un certain nombre de mesures destinées à minimiser les inconvénients qui seront créés par l'encombrement du trafic. Au niveau des collectivités locales et de certaines instances politiques, il faudra bien, avant qu'il ne soit trop tard, que l'on accepte les faits, tels qu'ils sont, avec leurs implications. La notion d'anticipation devra être bien plus présente qu'elle ne l'est actuellement. Mais, le corrolaire sera aussi que les citoyens, qui votent et dans ce sens sont en fait "solidaires" des élus, aient aussi un reflexe de perception, d'information, d'analyse et de mémoire ! Faute de quoi, quand il y aura urgence, les mesures seront prises par des circuits trés différents, remettant en cause les structures chargées d'analyser de préparer, voire de prendre les décisions. 18.9 - Accès aux Informations par combinaisons de CD-ROM et de textes Nous nous devons, même si le sujet peut sembler un peu éloigné du thème central de ce livre, signaler une manière d'accéder aux données qui est entrain de se développer: c'est la synthèse entre le CD-ROM et les textes imprimés. Cette manière d'accéder aux données va simplifier le travail de l'utilisateur. Elle devrait normalement évoluer vers une utilisation plus globale, où les textes intégraux, au lieu d'être recherchés directement à partir d'un ou de plusieurs CD-ROM puis consultées sur le produit papier, seraient directement disponibles sur le support informatique. Mais, cela ne se réalisera pas rapidement d'une part à cause des volumes mis en jeu et des mises à jour, d'autre part à cause de la protection du chiffre d'affaires de l'éditeur. C'est pourquoi, compte tenu du fait que la situation actuelle risque de se prolonger, nous présentons tout de même cette manière d'accéder aux documents. 18.9.1 - Les techniques de l'ingénieur Elles ne sont plus à présenter. Elles constituent un compendium de toutes les techniques, avec un certains nombre de thèmes traités par des spécialistes de haut niveau. Elles constituent ainsi au niveau du patrimoine technique une source d'informations générales, importante pour les personnes dont le métier est d'aborder des domaines techniques. Cet ouvrage permettra une vision rapide du sujet, et donc situera un certain nombre de problèmes pour ensuite permettre d'aller plus avant dans la collecte de l'information. (http://www.techniques-ingenieur.fr) Il existe les ouvrages papier, généralement accessibles dans les bonnes bibliothèques. Mais, la consultation en est parfois longue, compte tenu du fait que des thèmes peuvent être transversaux, qu'on ne connaît pas trés bien le vocabulaire, ou les têtes de chapitres, etc. De plus, le problèmes peut se compliquer puisque les observations deviennent globales et sont souvent en langue anglaise ou en d'autres langues. Pour apporter une solution à ces différents problèmes, les Techniques de l'Ingénieur on publié deux CD-ROM: * Le lexique des termes techniques en anglais, français, allemand et espagnol * L'index de la collection 18.9.1.1 - Le lexique des termes techniques Il est constitué par un CD-ROM qui va permettre de rechercher si un terme technique est présent dans l'ensemble des travaux présentés par les Techniques de l'Ingénieur. Le choix des termes techniques étant le fait de l'analyse des experts de la collection. Le terme est formé d'un ou plusieurs mots pouvant être associés par des opérateurs booléens ou tronqués avec des opératuers de troncatures. La recherche conduit alors à l'affichage des termes, avec le domaine des techniques de l'ingénieur concerné, la traduction, et en même temps selon le cas un schéma général permettant de situer le terme dans un ensemble plus large. Représentation d'un écran de recherche à partir du CD-ROM Lexique des termes techniques (Techniques de l'Ingénieur), Edition PC 1997 Une personne veut situer le terme routeur et pont dans son contexte. Elle ne connaît pas rigoureusement la technologie, mais elle pense qu'elle concerne l'électronique ou l'informatique. C'est pourquoi elle sélectionne ces deux termes parmi les domaines où la recherche doit être effectuée. La fonction recherche (langue française) lui permet de poser la question: pont. Elle obtient un certain nombre de réponses, parmi lesquelles elle note Routeur/pont (****). Le domaine concerné est l'Informatique. Elle accède aussi simultanement à la traduction dans les quatre langues. En même temps, les quatre étoiles (****) indiquent qu'un schéma de situation est disponible. Le schéma est visualisé, il situe le terme dans l'ensemble des opérations de mise en place d'un réseau. 18.9.1.2 - Index de la collection L'ensemble des thèmes traités par les Techniques de l'Ingénieur, est répertorié dans un autre CDROM, celui de l'index de la collection. Il permet d'accéder par mots clés, ou par thèmes aux signalements des informations de façon à pouvoir les consulter rapidement dans l'ensemble de l'édition des Techniques de l'Ingénieur. Noter que les mots clés ne sont pas de la même nature que les termes techniques précédents. 18.9.1.2.1- Recherche par thèmes On choisit l'interrogation par thèmes en cliquant sur thèmes. La liste des thèmes apparaît. On clique sur Informatique (c'était le thème afférent à pont/routeur), puis une liste s'affiche, on choisit matériel, ensuite on accède à une liste où on va choisir réseaux locaux. On aurra alors accés au sommaire d'un article traitant de la question et consultable sur les éditions papier des Techniques de l'Ingénieur. Ecran de présentation du contenu du thèmes informatique On va choisir le thème matériel (deuxième à partir du haut sur l'écran), qui est celui correspondant à pont/routeur. On obtiendra alors l'écran suivant: Contenu des articles présents sous le thème matériel On choisit alors équipements de communication ce qui correspond à la recherche entreprise. On obtient le dernier écran suivant: Dernier écran obtenu, signalement et sommaire d'un article clé dans le domaine. Ce dernier écran nous donnera accès à un article de base qui nous permettra de situer le domaine et éventuellement d'entreprendre des recherches complémentaires ou de situer les informations que nous avions déjà dans un contexte plus large. 18.9.1.2.2- Recherche par mot clé: Dans ce cas, on clique sur mot clé. On accède alors à un masque de saisie. On tape un mot clé dans le masque et on applique la fonction recherche. Dans le cas présent on a introduit le mot VEILLE. Ecran représentant le masque de saisie permettant de rechercher les articles qui traitent du mot Veille. Parmi les articles obtenus, on a sélectionné celui qui traite de Veille Technologique. Accès au signalement d'un article traitant de la Veille Technologique et à son sommaire. Nous avons vu, dans ce mode de recherche, un mode assez semblable à celui utilisé en ligne par certains serveurs, comme MAID par exemple (MAID est un serveur d'informations économiques auquel on peut accéder via un tléphone et un modem). On utilise des termes pour la recherche, puis on obtient une série d'articles. On accède gratuitement au sommaire de ces articles, et on peut alors choisir ce qui est intéressant pour la personne qui entreprend les recherches. Elle peut sélectionner à partir du sommaire certaines parties et n'accéder qu'à cellesci. Ce dernier écran nous donnera accès à un article de base qui nous permettra de situer le domaine et éventuellement d'entreprendre des recherches complémentaires ou de situer les informations que nous avions déjà dans un contexte plus large. 18.9.1.2.2- Recherche par mot clé: Dans ce cas, on clique sur mot clé. On accède alors à un masque de saisie. On tape un mot clé dans le masque et on applique la fonction recherche. Dans le cas présent on a introduit le mot VEILLE. Ecran représentant le masque de saisie permettant de rechercher les articles qui traitent du mot Veille. Parmi les articles obtenus, on a sélectionné celui qui traite de Veille Technologique. Accès au signalement d'un article traitant de la Veille Technologique et à son sommaire. Nous avons vu, dans ce mode de recherche, un mode assez semblable à celui utilisé en ligne par certains serveurs, comme MAID par exemple (MAID est un serveur d'informations économiques auquel on peut accéder via un tléphone et un modem). On utilise des termes pour la recherche, puis on obtient une série d'articles. On accède gratuitement au sommaire de ces articles, et on peut alors choisir ce qui est intéressant pour la personne qui entreprend les recherches. Elle peut sélectionner à partir du sommaire certaines parties et n'accéder qu'à cellesci. 18.10. - Accès aux informations par globalisation, recherche croisée et corrélats Différentes façons d'accéder à l'information ont été décrites dans ce livre. Que ce soit au plan général en utilisant des bases de données, ou, avec des moyens modernes tels que des hypertextes, des intranets des extranets, ... on accède à des choix multiples, raisonnés, permettant à la personne qui recherche des informations de se voir proposer des orientations multiples propres à stimuler sa curiosité ou son esprit d'innovation. Dans ce cadre, nous avons choisi de mettre en évidence une façon de travailler assez novatrice, puisque liée à un CD-ROM et à des liens très performants. Cette une base de données portable ne nécessite pas de liens avec l'extérieur et rend ainsi autonome l'utilisateur. C'est la manière de présenter l'information qui a été choisie par l'Encyclopaedia Universalis. Nous allons la décrire brièvement. 18.10.1 - L'Encyclopaedia Universalis L'Encyclopaedia Universalis est trés connue, surtout pour les éditions papier, dont de nombreux volumes, permettentun accès à un ensemble unique de connaissances. Les articles sont écrits par des spécialistes et contiennent un certain nombre de données. L'ensemble est structuré de telle sorte que des corrélats sont créés entre les différentes contributions présentées. Ce sont en quelque sorte des renvois spécifiques qui à partir d'un sujet donné vont renvoyer à un autre sujet corrélé avec le précédent. Ce nouveau sujet, s'il est approfondi contiendra aussi des liens (corrélats) avec d'autres sujets et ainsi de suite. Ainsi, le lecteur n'est plus confronté à une seule lecture séquentielle, où il lui faut parcourir un article, puis passer au suivant, etc. En fait l'apparition des technologies de l'ypertexte et du CD-ROM ont permis le développement d'une manière d'accéder à l'information originale. C'est en ce sens que nous propoposons cet exemple, à la fois pour montrer comment travailler avec cette source d'information, mais aussi comme exemple qui peut être utilisé dans la diffusion de produits d'information. La même façon de procéder est possible via un intranet ou un extranet, il faut s'en inspirer. 18.10.1.1 - La méthode de recherche et d'accés à partir d'une question de base Nous avons choisi de traiter la question suivante: SHANNON. Ce chercheur est connu pour son travail sur la thérie de l'information. On va donc utiliser son nom comme clé de recherche, et utiliser l'option qui consiste à travailler sur tous les textes de l'Encyclopédie présents dans le CDROM. (Nous ne sommes pas dans ici dans un cas identique aux techniques de l'ingénieur, ou seulement le sommaire des articles est accessible.) Ecran montrant le résultat de la recherche du terme SHANNON sur l'ensemble des textes On constate que le terme génère dans la partie gauche d'autres thèmes qui contiennent ce nom. Nous avons choisi le thème INFORMATION (THEORIE DE L'), et le résultat est affiché dans la partie droite de l'écran. En haut du texte affiché se trouve un bandeau comprenant les termes auteurs, sources, corrélats. On peut alors à partir de ces derniers connaître la bibliographie de l'article que l'on visualise (sources), ou à partir des corrélats accéder à des thèmes concernés aussi par cet article. Dans le cas présent, on a utilisé les corrélats et le terme COGNITIVES (SCIENCES). On accède ainsi à un nouvel article traitant de ce problème, mais relié à l'article initial. Corrélats, choix d'un domaine et article concerné par ce dernier Une autre façon de procéder, consiste aussi à choisir des articles différents qui contiennent le nom SHANNON, comme par exemple ECHECS (JEU D'). A partir de cet article, on pourra avec ses propres corrélats aller vers d'autres articles comme par exemple celui qui est présenté ci-dessous. Autre façon d'utiliser les corrélats 18.10.1.2 - L'exemplarité de la méthode On constate donc la puissance de ces méthodes de recherche. Elles sont utiles au plan de la connaissance du produit qui est présenté ici, mais elles ont surtout valeur d'exemple. Elles préfigurent ce que devrait être un Intranet ou un extranet convenablement conçus, pour permettre une exploitation complète et intelligente de l'ensemble des documents disponibles dans une entreprise. Bien sûr il est évident que l'organisation de cet ensemble ne sera pas complètement automatisé, et qu'il faudra que des personnes donnent au système son intelligence. Mais, cette façon de faire deviendra sans doute classique dans quelque temps. En outre les possibilités de liaison par réseau par exemple la messagerie et l'internet, conduiront à des systèmes mixtes, ou des compléments quasi instantanés pourront être obtenus en prenant contacts directement avec les experts ou les personnes concernées. En outre, au niveau de l'archivage, ou au plan de la réalisation de produits d'information ayant une certaine durée de vie et importants pour l'entreprise, on constate combien ces systèmes qui contiennent une certaine "intelligence" s'éloignent de la GED classique. Notons par contre que des produits comme ACROBAT d'ADOBE, permettent de concevoir des produits d'information hautement performants sans avoir recours à un matériel trop sophistiqué. On laisse ainsi toute la place nécessaire à la création des informations, à leur agencement, ainsi qu'à la création des liens qui vont apporter des éléments ou des visions innovantes dans le système. La possibilité d'archiver rapidement des produits papiers par scannérisation, des textes, des images, des sons sous forme électronique conduit à agréger facilement la matière de base. Ensuite, les facilités de manipulation et de création d'informations ou de cheminements originaux ouvrent la voie à des produits hautement très performants pouvant stimuler la réflexion. Ces produits ne seront pas confectionnés automatiquement, car ce n'est pas un programme informatique qui déterminerait les corrélats. Mais, ce sera des experts qui apporteront, par leur expertise et leur travail, une valeur ajoutée très forte aux produits. C'est en ce sens, ce qui vient d'être présenté au niveau de l'Encyclopaedia Universalis a valeur d'exemple. Pour ceux qui auront la curiosité de visiter le site Internet de l'Encyclopaedia Universalis, pourront constater que le potentiel d'information offert par le système CD-ROM ou Universalis papier s'étend au delà de ces systèmes. En effet, en créant un Club Utilisateurs de l'Encyclopaedia Universalis, et sans doute un forum ou des listes de diffusion, on va rendre actifs les "clients", et leur faire mettre en commun une partie de leurs connaissances personnelles. Sans aucun doute la synergie sera forte. On retrouve ici la tendance décrite dans l'étude de cas concernant la recherche sur l'agilité. 19 - Enseignement On ne peut pas finir cet ouvrage sans consacrer un chapitre à l'enseignement. J'expose ici des idées générales qui sont les miennes, mais qui sont aussi partagées par certains. Le but est simplement d'ouvrir la discussion et de montrer que le développement des attitudes, des pratiques devient le fait de tous. Les technologies de l'information ne se cantonnent plus dans une étroite niche d'un programme, ou dans la pratique documentaire. Elle constituent un trait d'union entre les disciplines, par leur pouvoir de synthèse et de parcours diversifié. Nous avons vu, tout au long de ces présentations, qu'une des caractéristiques de base de l'hyperinformation était d'être curieux, d'avoir une vision pluridisciplinaire importante, une spécialité de base (ces disciplines nouvelles s'inscrivent dans le cadre d'une double, voire actuellement d'une triple compétence)., et d'avoir une connaissance de l'entreprise. Ceci étant posé, on se rend compte que peu de formations actuelles répondent à de telles spécificités. La formation opérationnelle, pour aller ensuite vers l'industrie ou des institutions, c'est à dire pour appliquer et travailler, doit se situer au niveau des troisièmes cycles, mieux encore au niveau d'un doctorat qui serait tourné vers les problèmes de développement, de l'entreprise et qui fournirait des cadres avec l'expérience nécessaire pour débuter dans l'entreprise sans constituer pour celle-ci une charge supplémentaire souvent lourde, et sans doute trop lourde pour les PME et PMI, mais acceptable pour les grandes entreprises. Pour les PME et PMI, le niveau de maîtrise, avec des aménagements pourrait être suffisant, à condition, que les enseignants ne soient pas limités par des maquettes rigides issues du Ministère et qui ne peuvent pas tenir compte des changements très rapides intervenant au niveau des techniques, des méthodes et des applications. Nous reviendrons sur ce dernier point. Mais, avant tout, il me semble que c'est bien avant dés l'enseignement primaire, le collège et le lycée, que les élèves devront apprendre à introduire dans leur comportement une approche active vis-à-vis de l'information. Cela veut dire, que les programmes ne devront plus constituer une base intangible, conduisant l'enseignant à figer ses pratiques et à rester passif devant les évolutions historiques qui se produisent actuellement. Pour permettre aux élèves d'intégrer ces comportements nouveaux, il me semble que les technologies de l'information et de la communication devraient être intégrées d'une manière plus importante au plan de l'enseignement. Non pas au strict niveau documentaire, mais dans les cours eux mêmes. En effet, prenons un exemple: l'informatique n'a pas pour objectif d'apprendre à programmer. C'est bien sûr une de ses composantes, mais avant tout elle devrait permettre à un élève de mieux comprendre par les effets de simulation d'elle rend possible. Le pendule à ressort, les équations mathématiques avec les variations introduites dans la représentation graphique lorsque les paramètres changent, sont les exemples types qui peuvent être traités par l'informatique, l'élève pouvant par approximations successives trouver les grandes lois et les principaux paramètres régissant l'évolution du système. Cela est possible parce que l'informatique permet la visualisation des résultats très rapidement, surtout au niveau graphique. 19.1 - Les révélateurs, les catalyseurs Lorsque l'on prend une photographie, et qu'on la développe, on passe par une étape qui utilise un révélateur, qui va permettre de visualiser l'image. Quand un chimiste met en présence certains composés, il peut très bien ne rien se produire, par contre, l'introduction d'un catalyseur va conduire les composés en présence à réagir, et parfois de façon violente. A mon avis, les technologies nouvelles, l'internet, jouent le rôle de révélateur, de catalyseur. En mettant en évidence les lacunes, les immobilismes voulus ou contraints, en laissant présager des différenciations de plus en plus fortes entre étudiants mais aussi entre enseignants, ces techniques et méthodes modernes contribuent à "mettre à plat" un certain nombre de tabous, que ce soit au niveau de la didactique, de la pédagogie et de la structure même des enseignements. 19.1.2 - Les technologies nouvelles Les technologies nouvelles servent de révélateur. En effet, ces nouvelles façons de pratiquer, d'avoir chez soi à disposition, de manière interactive, des masses de connaissances structurées, disponibles avec des présentations attrayantes, de la couleur, du son, des animations,… introduisent un malaise: l'élève, l'étudiant, peuvent avoir chez eux des outils bien plus performants à la fois sur le plan ludique et didactique que ceux qui leur sont présentés à l'école, à l'université. Ceci crée, à la fois au niveau de l'enseignant, puis au niveau de l'enseigné, un malaise qui n'est que le révélateur de changements de pratiques et de paradigmes. On entre dans une période nouvelle où l'action personnelle d'apprendre va voir ses résultats décuplés par l'utilisation de moyens nouveaux et efficaces. Cela pose un double problème: le décalage comme nous l'avons souligné dans les chapitres précédents et d'autre part la notion de niveau minimal qui devrait être présent au niveau scolaire ou universitaire pour ne pas créer de décalages trop grands. On ne pourra pas, en effet, empêcher ceux qui en ont les moyens ou la volonté de disposer chez eux des infrastructures de base leur donnant à la fois une ouverture sur le monde et une manière rapide d'accéder puis d'assimiler des connaissances nouvelles. Cela pose aussi, à terme le problème de l'évolution du corps enseignant. Il est bien évident que devant la masse et la vitesse de propagation des ces systèmes nouveaux, se reposer uniquement sur la formation de l'enseignant en préalable à l'introduction de nouvelles technologies ou de nouvelles méthodes (pour avoir participé à de nombreuses réunions, j'ai pu apprécier la peur générée par le clavier, l'aversion à la saisie informatiques des notes parce qu'on est trop âgé! la soi disant non adaptation de ces technologies aux littéraires, etc. j'ai aussi constaté la facilité de repli de camouflage et d'alibi offerte à certains par ce nouveau sujet). Les enseignants devront donc par une démarche volontaire acquérir eux mêmes les comportements et les connaissances nécessaires à l'intégration de ces outils nouveaux. Le feront ils sur leur lieux de travail, chez eux, dans des associations, qu'importe! Car il faudra bien les intégrer puisque les élèves eux n'attendent pas et vont de l'avant tout seul, en groupe ou avec leurs parents. Une fracture pourrait très bien se produire. Alors le décalage entre les méthodes deviendrait de plus en plus grand jusqu'à atteindre l'insoutenable pour certains élèves. L'intégration de la formation aux technologies nouvelles dans les IUFM pour la formation initiale des enseignants devient désormais plus importante qu'une formation disciplinaire pure. 19.1.3 - L'Internet Par la très grande médiatisation qui en est faite, l'Internet constitue un phénomène qui va sans doute s'amplifier encore, sans que l'on puisse bien prévoir les conséquences de celui-ci. En effet, dans le cas du Minitel, la facturation en kiosque (avec un coût parfois très important), limitait le temps d'utilisation et interdisait pratiquement aux élèves et aux étudiants une utilisation intensive. Avec les dernières propositions sur le câble et avec des vitesses d'accès très importantes pour un abonnement de 270 francs par mois et une utilisation illimitée, avec sans doute la même stratégie pour l'accès à ce média par le téléphone classique (les nouveaux opérateurs le proposeront certainement), la limite d'utilisation ne sera plus un obstacle. Ainsi toutes sortes de services pourront se développer, des approches diverses, des analyses différentes, seront accessibles, conduisant l'enseignement à prendre en compte ce nouvel accès à la connaissance au décloisonnement et à l'ouverture sur le monde. L'enjeu est de taille. En effet, l'ergonomie, la facilité d'utilisation, le faible coût des accès font que le système ne relève plus d'une formation ou d'un apprentissage des enseignants ou des enseignés, mais d'une culture nouvelle. Il n'est plus possible de dire "l'Internet je n'en ai pas besoin parce que ce n'est pas dans le programme". Si on donne encore prise à de tels propos, c'est peut être plusieurs générations d'élèves qui seront sacrifiées le terme est sans doute trop fort, mais certainement décalées par rapport à la réalité et à l'évolution du monde. Les USA, au mois de Novembre 1997 viennent de créer 400.000 emplois. Toute proportion gardée (au plan du volume de la population), on aurait du en créer environ 70.000 ! à ma connaissance c'est 3.000 seulement qui on été effectivement créés. A quoi cela sert-il de dire que nous avons le meilleur enseignement du monde, si au bout de compte c'est pour ne pas avoir la possibilité d'intégrer nos enfants dans le monde du travail ? 19.2 - Quelques éléments pour agir vite Peut on rattraper le retard ? Bien des journaux ont souligné que le retard pris par les établissements scolaires français (qu'il soient publics ou privés, c'est la même chose lorsqu'il s'agit de pratiques d'enseignement) était alarmant. Le Ministre de l'Education Nationale vient de mettre en place un plan d'équipement minimum, avec un système multimédia par classe. A partir de cette base, comment bâtir une stratégie ? 19.2.1 - L'inventaire de l'existant Avant de développer une stratégie dans ce domaine, il est bon de procéder avec des méthodes ayant fait leur preuves, entre autre celles afférentes à la Veille Technologique et à la mise en place d'hyperinformations, voire de meta-informations (Meta-information systems: how can they support corporate information management, J.Herget, Information Services & use, 14, 1994, pp. 315-324) dans le domaine. Analyser l'existant et entre autre les produits disponibles avec leur coût devient une attitude rationnelle. En effet, devant la diffusion de masse nécessaire, il faudrait sans doute éviter de rendre le secteur captif des programmes et éviter de générer des outils officiels réalisés à grand frais, sans se rendre compte qu'il existe des initiatives et des produits au niveau planétaire. Un essai de traduction du BASIC en Français réalisé il y a quelques années pose bien le problème de manière caricaturale! Un inventaire s'impose donc. En ce sens l'ORME, développé à Marseille par le CRDP, et qui constitue un observatoire des produits multimédias disponibles au niveau éducatif constitue bien le premier maillon de la chaîne.(ORME, Observatoire des Ressources Multimédia en Education http://www.ac-aix-marseille.fr). L'approche de la Communauté Européenne, au niveau d'EVICI (Université Virtuelle Européenne) se situe bien dans ce cadre, complété par des actions comme "Training", ayant pour but de mettre à jour en permanence et de manière structurée les offres éducatives présentes sur l'Internet au niveau mondial de façon à permettre avec un effort minimum d'accéder aux programmes éducatifs les plus performants. Pour ceux où celles, qui personnellement ou regroupés dans des associations voudront s'intéresser à ce problème, il existe de multiples catalogues (Le Catalogue OCD, édition 19971998, Office central de documentation, spécialisé dans la documentation électronique, 33 rue Linné 75005 Paris, ou plus simplement des catalogues comme Micro Application 20-22 rue des Petits-Hotels 75010 Paris). Ce qui est important dans la démarche actuelle, c'est que la pensée classique, les habitudes, situent toujours la formation dans un univers présentiel, ou l'enseigné doit se trouver en présence du professeur. Avec ces nouveaux outils, on diminue le niveau de difficulté (la barrière de potentiel) qui existait lorsqu'on se plaçait dans le cadre d'un enseignement à distance (par correspondance). On peut donc penser qu'en des lieux précis (l'école, l'université en font parti, mais nous avons indiqué dans les chapitres précédents que les lieux structurants au niveau français étaient entrain de changer de nature), on pourra mettre à disposition des moyens simples pour accroître la base des connaissances et la faire évoluer, en restant performant, et ceci sans un contrôle strict du système d'enseignement ou de l'obtention de diplômes! Actuellement, la notion de diplômes, qui est ancrée en amont sur la notion de conventions collectives, reste en France un élément de base du système professionnel et éducatif. Pourtant, un passionné de programmation pour prendre cet exemple n'aura pas nécessairement un DESS dans le domaine, mais, s'il passe des heures, appartient à un club, etc. il sera certainement très performant. 19.2.2 - Introduire ces éléments nouveaux dans les cursus de formation La possibilité d'accéder sur les lieux de formation à des outils nouveaux, va conduire au développement de nouvelles pratiques d'enseignement. Ces outils permettent de pratiquer, de découvrir ou d'approfondir le cours soit en anticipant, soit après le cours en approfondissant. En ayant à sa disposition des sources de plus en plus accessibles et diversifiées d'informations, et en ayant la possibilité de recouper, d'écouter de lire, de regarder, l'assimilation intuitive va jouer de plus en plus un rôle important au niveau des élèves. 19.2.2.1 - L'enseignement primaire et secondaire Il sera donc nécessaire, pour l'enseignant de maîtriser ces outils, donc de les introduire de façon active dans son cours. Ne pas en parler, éluder ces derniers, serait la pire des chose car elle conduirait à un décalage entre le cours et les réalités. Cette manière de faire est bien illustrée par certaines PAE, par les dossiers de recherche que peuvent effectuer les élèves, surtout lorsqu'ils travaillent en groupe (binôme ou trinôme) . Mais, il est regrettable que ces activités s'estompent en fin de Collège et au Lycée, pour reprendre seulement au niveau de la maîtrise ou de certaines licences à l'Université. C'est quand l'élève serait dans la période la plus propice et la plus réceptive à cette approche que celle-ci est abandonnée au nom de l'élitisme et des préparations à des concours variés. L'attitude vis à vis de l'information doit changer. On n'est plus dans un système passif, mais dans un système actif où on doit en écoutant, en lisant, en se préoccupant des problèmes, aller vers l'information et ne plus attendre passivement que tout nous soit fourni. Par exemple, s'il est bon que les élèves illustrent certaines leçons, à quoi cela peut-il servir d'aller à la papeterie proche de l'école acheter des images et des textes identiques pour tous, pour illustrer le propos de l'enseignant. Ne vaudrait il pas mieux, qu'un choix d'illustrations soit fourni à l'élève et que parmi celles-ci il choisisse celles qui lui semble les meilleures et qu'il justifie en quelques lignes son choix. On passe alors de l'information passive à l'information active. C'est typiquement par sa richesse de propos et d'illustration ce que permet une encyclopédie multimédia (depuis 1500 francs pour le CD-ROM de l'Encyclopaedia Universalis, à 195 francs pour "Mon Encyclopédie 1998" (plus de 180.000 entrées, 6.000 photos, 100 maquettes interactives en 3D, plus de 4 heures de vidéos de sons et un quiz !) Un tel outil, mériterait d'être introduit au niveau de l'enseignement de manière pluridisciplinaire. Elle n'a aucun label (donc pas prisonnière des programmes et de certains éditeurs), elle est en langue Française, elle devrait être utilisée car son prix est particulièrement attractif (pour une classe de 30 élèves, si le matériel de consultation existe en classe, cela constitue pour une année un investissement de 6,5 francs soit un 1/3 paquet de cigarettes ou un litre d'essence!) C'est donc bien au niveau de barrières mentales ou administratives que se situe le problème et non plus au niveau des moyens. Je n'ai pas parlé dans ce chapitre de l'enseignement technique. Issu de ce milieu, je sais quels efforts sont réalisés pour intégrer au niveau des outils, des machines, des bases de données, des commandes numériques, des outils modernes de dessins de gestion… les développements des technologies modernes que l'on retrouve dans les entreprises. Les moyens sont aussi importants et constituent une forte charge pour les Conseils Régionaux. Pourtant, tout en étant en avance par rapport à l'enseignement classique, la perception globale par les acteurs et décideurs Français de ce domaine est très en retrait de ce qu'elle devrait être. L'exemple Allemand devrait nous montrer le chemin. 19.2.2.2 - Dans le cadre de l'enseignement supérieur Les cours et les programmes de l'enseignement supérieur, se prêtent bien si on le souhaite au développement de la curiosité des étudiants et à la création des réflexes nécessaires à l'hyperinformation. Bien entendu, dans les premières années, il sera difficile de développer un cours basé sur des études préalables puisant leurs sources dans une documentation diversifiée. Mais, en allant vers la maîtrise, puis vers les DESS les DEA en a fortiori au niveau du doctorat les divers mémoires doivent donner l'occasion à l'étudiant de développer des analyses critiques non pas sous forme de compilations, mais en essayant de mettre en évidence les orientations et leurs répercussions soit au plan de la recherche, soit au plan industriel soit au niveau commercial. Je reprendrai ici l'exemple d'un travail réalisé sur le commerce électronique. Les étudiants (de DEA) auxquels j'avais demandé au début du cours de rassembler des informations, m'ont tous apportés celles-ci, certains sous forme de dossier de synthèse. Le travail accompli était de qualité sur le plan documentaire, mais ne me satisfaisait pas sur le plan de l'information avancée, critique et de positionnement. En effet, ce qui aurait été intéressant, ce n'est pas la narration des faits, mais se poser la ou les questions suivantes: Si j'étais une entreprise, en quoi serais-je concerné par le commerce électronique ? Pour quelles gammes de produits ? Sans doute à quelle période, maintenant, plus tard, et quelles sont les constantes de temps de prise en compte dans ce domaine de divers types de produits ? Quel serait le marché à court et à moyen terme, etc… Habitués à une compilation très scolaire, les étudiants voient ainsi ce qui les sépare d'une présentation contrastée, en clair obscur, mettant en relief les opportunités, les faiblesses, les efforts à faire et les gains potentiels. Mais, exposer de la sorte c'est prendre un risque, puisque, en quelques sorte on va prendre parti en analysant. De même, les bibliothèques offrent la possibilité d'aller consulter directement des publications scientifiques ayant dans certaines disciplines (la chimie, la botanique, la géologie .. par exemple) la possibilité d'illustrer le cours. De même, j'ai toujours été frappé par le manque d'utilisation des brevets, qui principalement en mécanique ou même en chimie de synthèse, sont un moyen d'avancer dans la description et les applications technologiques. Bien sûr, il faudra que les étudiants comprennent l'anglais (ou au moins le lise, mais cela ne fera que les habituer à la situation qu'ils rencontreront dans la vie active). 19.3 - Le renouvellement Dans certaines disciplines, il paraît évident que l'évolution des technologies, des méthodes, va bien plus vite que les descriptifs de maquettes de diplômes qui restent figées (par exemple certaines maîtrises), ou ne sont remis en question que tous les quatre à cinq ans. (campagnes de d'habilitation). Ceci n'est pas vrai partout, mais dans certains cas (ils préfigurent simplement ce que sera le reste) on doit faire face à des situations de plus en plus complexes. Par exemple: Durant les deux années passées, l'Internet, l'Intranet, l'Extranet, les agents intelligents, la réalisation des serveurs, les normes HTML et PDF, deviennent un ensemble incontournable. Comment peut on faire, que doit on minorer pour introduire ces nouvelles matières au niveau qui doit être le leur ? Dans les sciences de l'information doit on diminuer l'accès aux informations formelles classiques pour aller vers l'informel dont l'Internet participe en partie ? Les réponses ne sont pas si simples, mais ce qu'il est important de noter, c'est que des changements de cette ampleur ne se produisaient pas il y a quelques années dans un laps de temps aussi court. Ceci va donc impliquer des analyses rapides de l'évolution des professions concernées et de leurs pratiques, pour que des choix au niveau des programmes soient réalisés et ceci quelles que soit les maquettes déposées, puisque leur constante de temps et bien trop grande pour suivre le développement des sujets dont elles devraient traiter. Pire, dans certains cas, les maquettes déposées ne tiennent pas compte (cela est normal puisque le sujet traité n'existait pas quand la maquette a été réalisée au Ministère) de ces domaines nouveaux, par exemple la nécessité d'introduire les technologies de l'information dans les PMI et PME, l'importance du commerce électronique, la généralisation des normes de transfert de données, etc… Il y a bien la possibilité de réaliser ces formations au niveau de DESS, mais bien des PMI et PME ne peuvent pas embaucher à ce niveau et celui qui convient est celui de la maîtrise. Il faudra donc agir hors cadre, on pourra alors être limité au niveau de l'interprétation des textes, sans même examiner les contenus, selon les experts concernés ou l'application rigoureuses des textes. Ceci constitue un danger pour les domaines où les changements se produisent rapidement et où, il est nécessaire, diplômes nationaux obligent, de proposer de nouvelles formations. Eviter les rigidités, introduire au niveau des formations des attitudes plus souples prenant en compte les évolutions modernes des technologies des pratiques et des méthodes sera la base du développement. Cela demandera alors une auto-formation et le passage à une nouvelle culture. Si on attend que celle-ci pénètre dans l'université dans les lycées, collèges et écoles par le renouvellement du corps enseignant, il sera trop tard. Il faut agir vite et bien se rendre compte qu'un avantage ne dure pas longtemps. Conclusion L'entreprise, les institutions, l'individu même, ne peuvent pas se développer, progresser sans une vision. Cette vision doit être partagée. Elle doit aussi amener une réflexion sur la manière dont on va pouvoir y arriver. Dans ce contexte, l'hyperinformation, nécessaire pour l'action et pour le développement de l'anticipation devient une nécessité. Nous ne parlons plus ici de Veilles diverses, d'Intelligence Economique, ... mais d'une façon d'être, d'un comportement nouveau, à la fois vis à vis des structures de l'entreprise ou des institutions, des réseaux de personnes et informatiques, de la compréhension et de l'analyse des informations. Nous sommes placés, peut être pour la première fois de notre histoire devant une discontinuité. En effet, les révolutions successives qui jalonnent l'humanité ont toujours été matérielles: le bronze, le fer, les moyens de locomotion, l'imprimerie, la révolution industrielle, le taylorisme, .... Cette foi-ci, nous sommes pour la première fois devant des réalisations immatérielles, telles que les entreprises virtuelles, l'enseignement à distance, les informations en push ... qui vont faire changer d'échelle les progressions, mais aussi les décalages. Tout s'accélère, tout se complique. Trouver son chemin dans cette complexité, mieux analyser en tenant compte de la géopolitique et de la dimension du monde, de ne pas subir les crises, mais savoir les gérer pour mieux en sortir, tout cela devient nécessaire. Nous avons vu, dans cet ouvrage, comment on devait, pour créer une information pour l'action, élargir son champ de connaissance. Ce mécanisme concerne le développement de l'entreprise, sa réaction et sa proaction. Il va aussi impliquer le connaissance des principes de base du renseignement, la connaissance des réseaux humains et informatiques, leurs implications et la maîtrise de sources d'informations formelles et informelles. Tout ceci devra s'appuyer sur un savoir faire de base en micro-informatique et un pouvoir de rédaction et de synthèse particulièrement important. Tout ceci peut il être le fait d'une même personne ? A cette question, la réponse est oui. Oui au niveau de la connaissance et de la pratique, donc de la capacités de comprendre ces différents mécanismes, d'être "passé" par ces différentes étapes, de les avoir assimilées. Ceci est valable pour l'animateur, le chef. Mais, non pour la réalisation matérielle qui devra faire appel à des personnels spécialisés, à des experts et a des informateurs occasionnels. Pour les personnes qui l'entoureront, il lui faudra choisir les compétences nécessaires pour que le service fonctionne de la meilleure façon possible. C'est à dire qu'il puisse avoir accès aux meilleures compétences, en fonction des objectifs et des thèmes liés à l'entreprise. Pour les entreprises de taille plus restreinte, on n'insistera jamais assez sur la nécessité de se regrouper, de travailler en réseau. Bien sûr, cela existe déjà et beaucoup de petites entreprises ont réalisé "des coups ensembles". Mais, ce n'est pas là le propos. Ce qui est important, pour des groupes d'entreprises, c'est d'avoir une culture dans les systèmes d'information les plus performants, de se doter des plates-formes minimales pour aller plus loin, de bien comprendre que l'on est entrain de passer d'un univers dans un autre. La nécessité d'être vu sur les systèmes électroniques, la nécessité d'exporter, de participer à des appels d'offres, .... vont modifier à la fois les façons de travailler, les normes de transfert et d'acquisition des informations, les comportements et la structure des entreprises et de l'enseignement. Des compétences nouvelles vont devenir nécessaires, la virtualité fait encore rire certaines personnes, mais pour les faire revenir sur terre, qu'elles regardent simplement les services de vente électronique sur l'Internet, les propositions de partenariats de la Communauté Européenne, ou simplement les jeux vidéo utilisés par leurs enfants. Cela les fera réfléchir. Cet ouvrage, marque simplement une étape. Il se situe après la publication du livre: Veille Technologique et Compétitivité. Simplement parce qu'il constitue un témoignage du cheminement, de l'évolution des concepts et des méthodes. Il met en évidence une accélération des idées, des réalisations, des transferts. La production de plus en plus rapide d'informations et aussi leur disponibilité constituent une rupture. Nous quittons le monde de la passivité pour aller vers celui de l'action. Revenons au début de l'ouvrage: situons nous toujours par rapport aux autres, le monde est grand. Nous pensons avancer, nous avançons sans doute, mais si les autres vont plus vite que nous c'est la différence des vitesses qui jouera son rôle. Un des grands messages, si ce n'est le plus grand de la pluralité des informations d'aujourd'hui c'est de bien de nous faire comprendre que nous ne sommes plus seuls et isolés, que nous devons agir en réseau, et que nous ne pouvons plus nous protéger par les barrières douanières ou par une considération d'exception.