Le concept d`hyperinformation

Transcription

Le concept d`hyperinformation
Le concept d’hyperinformation
Entrée en matière
Le positionnement général
1 - Les bouleversements mondiaux, la nouvelle donne
1.1 - L’accroissement des connaissances
1.1.1 - Les connaissances
1.1.2 - Vocabulaire et terminologie
1.1.3- Les Veilles
1.1.4 - Intelligence Economique
1.2 - Vieillissement et démographie
1.2.1- Généralités
1.2.2 - Les mutants
1.2.3 - La croissance démographique
1.2.4 - La croissance économique
1.3 - Eléments de géopolitique
1.3.1 - La méthode des classements
1.3.2 - La situation géographique
1.3.3- Les indicateurs et les matrices de risques
1.3.4 - Les données bibliographiques
2 - Adieu Adam Smith
2.1 - Exemple de l’évolution des structures de management
2.2 - La structure de gestion et de management modélisent-elle les hommes?
2.2.1 - Pour qui butinent les abeilles?
2.2.2 - Les contraintes conduisent toujours les hommes à évoluer, et
pas nécessairement dans le sens prévu.
2.3 - Les barycentres, les changements de référentiels
2.3.1 - Le Comité National du CNRS
2.3.2 - Analyse d'une communauté scientifique
2.3.3 - Le changement de référentiel
3 - Le concept d’Intelligence Compétitive ou d’Intelligence
Economique
3.1 - Le déroulement des Veilles
3.1.1 - La création d’un produit et son passage dans le domaine commercial
3.1.2 - Le bench-marking
3.2 - Les décalages
4 - L’hypercompétititon
4.1 - Où nous battons nous?
4.1.1 - Il existe quatre domaines dans lesquels la compétition va s’exercer
4.1.2 - Prix et qualité perçue, l'un des domaines les plus important
4.2. - Les changements de règles
4.2.2 - Prenons comme exemple les voitures
4.2.3 - Le passage du produit au service
4.2.4 - Autres façons de faire
4.3 - Les maîtres mots
4.3.1 - Une nécessité
4.3.2 - Un avantage
4.3.3 - La pensée inductive et la pensée déductive
4.3.4 - La technosphère et le technoglobalisme
4.3.4.1 - La technospère
4.3.4.2 - Le technoglobalisme
4.3.4.3 - Anticiper
4.4 - Les changements technologiques, le passage dans le second plan
4.4.1 Intégrer plus de technologie dans les produits et les services
4.4.2 - Le produit ou la fonction ?
4.4.2.1 - Le produit
4.4.2.2 - La fonction
5 - Eléments de base pour une information pour action
5.1 - Récapitulons quelques données de base
5.2 - Le temps
5.2.1 - Les différentes constantes de temps dans le domaine de l’information
5.2.1.1- La publication scientifique
5.2.1.2 - L’utilisation des citations.
5.2.1.3 - L’utilisation de l’Internet
5.2.1.3.1 - La démocratisation de l’accès à l’information.
5.2.1.3.2 - L’évolution des systèmes de diffusion et d’accès à l’information
5.2.1.3.3 - Quelques règles simples dans l'utilisation de l'Internet
5.2.1.4 - Les agents intelligents
5.2.1.5 - Etre présents sur l'Internet
5.3 - Les brevets
5.3.1 - Exemples de recherche
5.4 - La relation entre le temps et les autres types d’informations
5.4.1 - Les lettres d’information
5.4.1.1 - Généralités sur les lettres d'information
5.4.1.2 - Une utilisation offensive des lettres
5.4.1.2.1 - Extraits de la lettre sur les matériaux (lettre Internet)
5.4.1.2.2 - Des données formelles à l'Internet
5.4.1.2.3 - Profils de sociétés et Internet
6 - Le triptyque stratégique dans le système d’information
6.1 - Les étapes principales
6.2 - La mise en perspective
7 - La collecte des informations
7.1. - La collecte des informations formelles
7.2 - Stratégie d’accès aux informations issues de bases et de banques de
données
7.3 - Quelles sources rechercher
7.4 - Quels sont les vecteurs d’informations formelles dans le champ de mes
préoccupations
8 - La collecte des informations informelles
8.1 - Les capteurs d'information externes
8.2 - Que collecter, comment fixer les cibles
8.3 - Se mettre à la place de l'autre
8.4 - Que pouvons nous divulguer
9 - Les informations d'influence, le lobbying
9.1 - La Technosphère du lobbying
9.2 - L'information d'influence
9.3 - Le lobbying
10 - Systématiser le rapport d'étonnement
10.1 - L'intérêt de cette méthode
10.1 - L'intérêt de cette méthode
11 - La validation des informations informelles
11.1 - Une méthode simple
11.2 - Des méthodes plus complexes
12 - Une observation intermédiaire: la Veille Sociale
12.1 - Une méthode simple
12.2 - Les valeurs de la Veille Sociale
13 - Gestion et diffusion des informations
13.1 - La gestion des informations
13.1.1 - La saisie des informations
13.1.2 - La présentation des résultats
13.2 - La diffusion des informations
13.2.1 - Principes de base, l'unicité de saisie, le choix de supports multiples.
13.2.2 - Pour qui, comment, avec quels moyens
13.3 - La feuille d'impact stratégique
13.4 - Les produits "papier"
13.5 - Les produits informatiques
14 - L'analyse des informations
14.1 - Principes généraux
14.2 - Quelques exemples
14.2.1 - Exemple de corrélations matricielles
14.2.2 - Exemple de réseau
14.2.3 - Exemples de comparaisons de listes, et de bench-marking
automatique
14.2.4 - Exemple d'une sériation par blocs
14.3 - L'Infographie et les représentations
14.3.1 - Exemple de représentation
14.3.2 - Représentations de diverses productions scientifiques
14.3.3 - Représentations des domaines structurants
15 - Prévision
16 - Quelle structure pour le service d'hyperinformation
16.1 - La nécessité d'une structure en réseau
16.2 - Changer les mentalités
16.3 - Utiliser les nouvelles technologies
16.3.1 Au delà des nouvelles technologies de l'information, les normes
des produits d'information
16.3.2 - L'EDI
16.4 - La norme HTML
16.5 - La norme ACROBAT d'ADOBE
17 - La protection des informations
17.1 - Les comportements
17.2 - La protection informatique
17.2.1 - Le site ou les sites centraux
17.2.2 - La micro-informatique
17.2.3 - Exemple d'utilisation d'un logiciel de cryptage: CONDOM
17.2.4 - Les TTP
17.2.5 - Le fax
17.3 - L'Internet
17.4 - Les systèmes physiques
17.5 - Brevets ou divulgation
18 - Etudes de cas
18.1 - L'agilité, le commerce électronique
18.1.1 - Agilité
18.1.2 - Le commerce électronique
18.2 - L'Observatoire de la Production Scientifique en Provence
Alpes Côte d'Azur
18.3 - Une diffusion systématique des informations en média multiples.
Le Colloque sur l'Information Elaborée d'Ile Rousse
18.4 - Un service dans une entreprise: un intranet
18.4.1- Les fonctions de base d'un Intranet
18.4.2 - L'Intranet multisites
18.5 - Exemples d'utilisation de "check-lists"
18.6 - Les technologies stratégiques françaises
18.6.1 - Méthode utilisée pour les choix
18.6.2 - Représentation synthétique
18.7 - Une revue électronique internationale: ISDM
18.8 - Une simple question de bon sens
18.9 - Accès aux Informations par combinaisons de CD-ROM et de textes
18.9.1 - Les techniques de l'ingénieur
18.9.1.1 - Le lexique des termes techniques
18.9.1.2 - Index de la collection
18.9.1.2.1- Recherche par thèmes
18.9.1.2.2- Recherche par mot clé:
18.10.1 - L'Encyclopaedia Universalis
18.10.1.1 - La méthode de recherche à partir d'une question indexée
18.10.1.2 - L'exemplarité de la méthode
19 - Enseignement
19.1 - Les révélateurs, les catalyseurs
19.1.2 - Les technologies nouvelles
19.1.3 - L'Internet
19.2 - Quelques éléments pour agir vite
19.2.1 - L'inventaire de l'existant
19.2.2 - Introduire ces éléments nouveaux dans les cursus de formation
19.2.2.1 - L'enseignement primaire et secondaire
19.2.2.2 - Dans le cadre de l'enseignement supérieur
19.3 - Le renouvellement
Conclusion
Le concept d’hyperinformation
Henri Dou
Entrée en matière
La maîtrise d’une compétition de plus en plus large, la globalisation de la concurrence, des
technologies, des connaissances interpellent les entreprises. Le développement des Veilles
(Technologiques, Concurrentielles, Financières, Environnementales...), l’Intélligence
Economique, la ou les prises de risques géopolitiques... sont autant de sollicitations, de
comportements indispensables aux entreprises d'aujourd'hui et de demain. Dans cette
présentation, nous allons replacer ces éléments dans un ensemble cohérent, en mettant en avant
plusieurs directions fondamentales sur lesquelles doivent s’appuyer les domaines précédents:
l’hypercompétition, l’hyperinformation et une vision macroscopique du développement. En
effet, c’est le recueil, le traitement et la compréhension des informations nécessaires au maintien
de l’hypercompétitivité d’une société commerciale, industrielle, de service, voire d’un service
public ou d’une collectivité qui est au coeur de ces systèmes.
La rédaction de ce livre s’inscrit dans une suite logique d'événements, appuyé sur les progrès
méthodologiques, les réflexions et les outils développés par une équipe enseignante, des
consultants, et des chercheurs. Cet ensemble de personnes réunis au sein du CRRM, du DEA
Veille Technologique et Intelligence Compétitive et surtout d’un programme doctoral
international extrêmement structuré a développé depuis plusieurs années une réflexion commune
étayée par des cours, des recherches, des études de cas, des demandes d’étudiants en stages
industriels, des thèses avec des bourses dédiées ou des conventions CIFRE, etc.
Nous ne soulignerons jamais assez l’importance dans ce domaine d’un ensemble cohérent
d’enseignement et de recherche. Mais, nous soulignerons aussi, en toile de fond de cet ouvrage,
combien en France, les disciplines modernes qui apportent des richesses par création de biens
immatériels sont difficiles à défendre, témoin en a été la tentative de déstabilisation et de
destruction dont le DEA Veille Technologique a été l'objet. Heureusement, grâce à l’aide de
nombreux amis, enseignants, industriels et politiques, cet axe de recherche et de formation a pu
être maintenu. Je les remercie tous vivement pour la confiance qu’ils nous ont témoignés en ces
moments difficiles.
Dans le cadre de l’Intelligence Economique, nous aborderons plus loin la Veille Technologique,
de nombreux documents ont déjà été publiés et en fonction de l’évolution du domaine, d’autres
le seront certainement.
Intélligence Economique et Stratégies des Entreprises, Henri Martre, La Documentation
française 1994, -. Les sorties de crise et la reconstruction, Xavier Guilhou, Défense, n°77,
Septembre 1997, pp, -, Dossier: L'Intelligence Economique, un faux débat institutionnel, de
vrais enjeux de société, Xavier Guilhou, Défense, 74, Décembre 1996 - Approches Françaises
du Renseignement, direction Pierre Lacoste, pp.89 - Approches françaises de l'Intelligence
Economique, C. Harbulot - Stratégies Economiques en Bosnie-Herzégovine, Les cahiers de
la Fondation des Etudes de Défense, cahier n°9, 1996, Marc Défourneaux - Economic
Intelligence, Business Week du 28 Octobre 1996, p.73-76 - Du Renseignement à
l'Intelligence Economique, B.Besson et J.C. Possin, Dunod, 1996
consulter aussi les sites: http://www.scip.com,http://web.1-888.com/iwmag/01-0006.htm,
http://www.adminet.com/min/pm/cgp/levt.html, http://ids.crrm.u-3mrs.fr).
Mais, dans le cadre de l’information, surtout en tenant compte de ses facettes multiples et du
rôle de pilier central qu’elle tient dans les diverses approches des Veilles et de l’Intelligence, j’ai
voulu apporter une contribution, qui est une somme de réflexions qui ont été faites tout au long
des diverses formations auxquelles j'ai participé. Ce livre n’est pas exhaustif, tant sans faut, et ce
serait sans doute impossible. Il est fait seulement avec l’intention de donner aux lecteurs une
série d’éclairages pouvant les aider a mieux situer leurs travaux et leurs réflexions, dans un
ensemble complexe, souvent mal perçu par les entreprises et par les institutions.
Le CRRM a déjà publié trois ouvrages dans le domaine (La Veille Technologique H. Desvals,
Henri Dou Dunod 1992, Veille Technologique et Compétitivité, H. Dou, Dunod 1996 La
Bibliométrie et ses Techniques, H. Rostaing co-édition Sciences de la Société-CRRM,
Marseille 1996), nous supposons qu’une partie des méthodes, exemples et outils décrits dans
ces ouvrages sont connus des lecteurs. De ce fait nous ne les reprendrons que dans les grandes
lignes, en focalisant l’ensemble de la présentation sur des aspects méthodologiques et pratiques
qui doivent être appliqués du mieux possible afin de transposer avec pragmatisme les travaux,
méthodes et outils fruits de la réflexion, du travail de recherche et des expérimentations.
Dans le cadre de cet ouvrage, nous reprendrons aussi certaines idées issues des réflexions
menées par un groupe de personnes, rassemblées dans le CERE, Chaire Européenne de
Recherche et d’Enseignement en Intelligence Economique (CERE IDS, Europôle de l'Arbois,
Aix en Provence et CERAM, Sophia Antipolis). Cet ensemble d’industriels, d’universitaires,
agissant librement hors des structures classiques a permis de réelles avancées dans le domaine et
mérite d’être largement connu. Le prolongement de cette réflexion a été réalisé sur l’Europôle
de l’Arbois, grâce au centre de formation IDS et avec le CERAM à Sophia Antipolis. Cette forte
communauté de pensée et d’action nous aide considérablement, que tous ces acteurs du
changement et de développement trouvent ici mes plus vifs remerciements. A l'étranger, les
relations constantes entretenues depuis des années avec le Brésil (le DEA a un Centre
d'Enseignement à Rio de Janeiro à l'Instituto Nacional de Technologia), l'Indonésie (de
nombreux séminaires ont été réalisés à Bandung à l'Institut de Technologie de Bandung et à
l'Université de Padjadjaran) et le Luxembourg (Centre de Recherche Public Henri Tudor) nous
ont permis de développer des méthodes applicables non pas seulement dans le contexte français
ou Européen, mais aussi dans un contexte international.
Citons à ce propos un extrait de la Rubrique O Pais/Economia, Journal de Commercia, 19
Septembre 1996:
"Petrobras importa estratégia francesa.
A Petrobras está preparando plano estratégico para o próximo ano baseado na competição com o capital
privado e que se terá como instrumento importante O Sistema de Inteligencia Competitive e Technica
(Sict), método de tratamento da informação desenvolvido pela Universidade d'Aix-Marseille III ..."
(Petrobras est la plus importante companie pétrolière du Brésil)
Ces multiples relations internationales que nous entretenons sont d’une utilité permanente pour
situer sans cesse les réflexions menées par le groupe dans un contexte global de large ouverture
et polyculturel. La Communauté Economique Européenne, par l’intermédiaire des programmes
ADAPT et Innovation auxquels nous participons contribue à une avancée méthodologique et
pragmatique significative, surtout dans le secteur des PMI et des PME. VIRTUE, l’Université
Virtuelle Européenne (EVICI Université Virtuelle Européenne) nous permet aussi d’approfondir
et de mettre en place des modalités d’enseignement plus vastes, plus internationales, faisant
appel à la volonté des enseignés et à une très forte délocalisation en réseau.
Enfin, si on considère l'information comme un des vecteurs de la compétitivité, il est nécessaire
d'aborder rapidement, sans vouloir être exhaustif, un certain nombre de notions touchant à
l'économie, mais au sens macro du terme. Une sorte de base de compétences dans ce domaine,
que toute personne se lançant dans le domaine des Veilles, de l'intelligence Economique, du
Business Development devrait posséder au départ, et cultiver par la suite. Actuellement, ce ne
sont pas une juxtaposition de faits microscopiques qui peuvent reconstituer le tout. La
somme est parfois fort différente, d'où la nécessité d'une approche macro. En fait, on ne peut
plus dire que la somme de diverses études de cas va reconstituer l'ensemble de la méthode. Elles
ne feront qu'étayer celle-ci, pour autant qu'on l'ai abordé au départ. Enfin, tout au long de cet
ouvrage, nous commenterons certains aspects de situations courantes rencontrées dans la vie
sociale, pour montrer comment une information tout à fait publique et banale, si elle est analysée
non pas en tant que tel, mais en fonction des conséquences qui seront induites par les fait relatés,
peu prendre une importance toute particulière. Peut donnerons nous aux lecteurs l'envie, dans
leur travail, dans leurs observations de devenir "curieux au deuxième degré".
Le positionnement général
La France est un pays de langage, ou le verbe, les mots nouveaux, les discours permettent
souvent à certains de changer leur positionnement sans pour cela avancer ou réaliser. Alain
Peyrefitte, dans le Mal Français décrit bien cette orientation perverse: on doit le faire, on en a
parlé, donc on l’a fait (Le Mal Français, Alain Peyrefitte, Plon, 1976)
Il en va de même, a mon avis, pour l’information. Dans toutes les approches projetées à l’avant
scène par le Xième plan (Veille Technologique), puis par le XIiéme plan (l’Intelligence
Economique) le technoglobalisme, la maîtrise et l’appréciation des risques, la détermination des
technologies stratégiques,.... reposent avant tout sur la maîtrise des systèmes d’information.
Or, nous retrouvons là un penchant très français, on n’en parle pas. On considère comme
implicite, acquis, un domaine où sur le plan de l’effort (intellectuel, au plan des universités,
économique au plan des entreprises et des organismes d’état) la France ne se situe que dans
l’arrière plan des Pays développés. Il est commun de dire que la France est bien placée au plan
de la production d’informations (Bases de données), mais qu’elle est très mal placée au niveau
de leurs utilisations. Produisons nous pour les autres ou pour une compilation plus ou moins
large à destination de nos concurrents?
Nous allons essayer, dans cette présentation, de clarifier ce problème, en replaçant comme cela
est nécessaire, voire fondamental, l’information au coeur des problèmes de développement et
d’hypercompétition des entreprises. Nous nous appuierons entre autre sur le concept d’hypercompétition tel que le définit dans son livre l’hypercompétititon, Richard d’Aveni (Hypercompetititoin, Richard d’Aveni The Free press, Simon & Schuster Inc. 1994, ISBN 0-02906938-6) puis nous proposerons ensuite les bases de l’hyperinformation en spécifiant bien en
quoi celle-ci est différente de l’information classique.
Nous essayerons aussi de présenter globalement ce concept, en le replaçant dans une chaîne plus
large, celle de l’information formelle et informelle pour action, pour se renseigner, pour gagner.
Nous considérons aussi pour acquis les concepts et les méthodes qui sont décrits par différents
auteurs au niveau des différentes veilles, ou du management des technologies. En ce qui
concerne le concept d’Intelligence Economique, je pense qu’il est encore trop politisé et qu’un
flou de langage, d’objectif, de finalité est maintenu artificiellement par certains, à la fois pour
servir de faire valoir, ou pour s’introduire dans un domaine sans trop faire d’efforts ou tout
simplement pour générer des profits directement assimilables par certaines structures:
définissons un concept, dégageons des aides, et participons largement à leur distribution! On
retrouvera donc, dans les différents chapitres de ce livre, bien des méthodes, des concepts, des
analyses, des outils (de gestion, d’analyse, de production et de diffusion d’informations) qui
participent pleinement dans ce qu’il est convenu de nommer «Competitive Intelligence». Je
préfère ici la définition américaine plus claire et plus explicite.
De toutes façons, on n’évitera pas que selon les interlocuteurs, la compréhension d’un mot, d’un
titre, ne soit déformée par le vécu de cet interlocuteur. Dans le domaine qui nous préoccupe,
ceci est important, et je pense qu’il faut définir ce que sous-tend le vocabulaire employé, surtout
au niveau du travail pas nécessairement apparent qui devra être réalisé pour atteindre les
objectifs.
La figure suivante, montre comment le langage descriptif apparent n’est que le sommet d’un
iceberg dont la partie cachée représente le travail effectif à réaliser.
Définitions, mots, concepts....
Veille Technilogique, Competitive Intelligence,
Intelligence Competitive
Competitive Technical Intelligence
Competitive Intelligence
Technology Watch (trop restreint)
MOTS
Competitivité
hypercompettition
hyperinformation
Plan de renseignement
Réseaux.....
Ce que l'on ne voit
pas !!!!!
Methodes
Strategies
Outils
Experts
.....
CRRM
Positionnement du vocabulaire et des concepts
1 - Les bouleversements mondiaux, la nouvelle donne
Actuellement on parle couramment de globalisation de l’information, du commerce international,
de la géopolitique, etc. Le terme de globalisation, s’il est bien perceptible au niveau des sciences
et des techniques, reste cependant plus flou au niveau de la compétition, du commerce, de
différents aspects géopolitiques. Sans entrer dans les détails, nous allons, essayer d’introduire les
principaux faits et concepts qui vont nous guider ensuite pour exposer les grands principes de
l’hyperinformation.
1.1 - L’accroissement des connaissances
Au fur et à mesure que les années passent, les progrès scientifiques, dans toutes les disciplines se
font de plus en plus nombreux. Possédant un acquis de plus en plus important, soutenu par une
extension mondiale des recherches scientifiques dans un nombre de plus en plus grands de pays,
ce capital de savoir et d’expériences augmente sans cesse. Le problème de son exploitation
rationnelle se pose. Celui-ci, aura un corollaire, l’information au sens large, depuis la manière
d’emmagasiner ces connaissances, jusqu’aux méthodes moyens et facilités pour accéder à cellesci.
1.1.1 - Les connaissances
Les connaissances scientifiques sont nécessaires pour permettre des avancées dans les domaines
de la connaissance générale ou spécialisée. Dans certains cas, les résultats obtenus peuvent être
utilisés pour réaliser des avancées dans les domaines technologiques. D’autre par, le brassage
des populations, le développement des universités et des collaborations internationales conduit
des pays qui jusqu’alors avaient été éloignés des développements scientifiques à jouer un rôle
important dans certaines disciplines.
C’est ainsi qu’un des pays du monde qui comprend le plus de docteurs es-sciences est l’Inde.
Ceci conduit à la création, dans ces pays, des îlots de progrès et de savoir qui seront utilisés par
certaines firmes internationales. C’est la cas par exemple des biotechnologies, ou les pays du
Nord de l’Europe font régulièrement effectuer des recherches en Inde. C’est aussi le cas de
travaux de mathématiques ou d’informatique (logiciel), ou les décalages horaires et
l’accessibilité par réseau aux ordinateurs et à diverses ressources permettent un travail partagé
ou délocalisé. Il en va de même pour des entreprises internationales de traduction, etc.
Cet accroissement global pose le problème de l’accès à l’innovation et à certaines avancées
scientifiques et techniques qui ne sont plus nécessairement réalisées dans les pays de l’Ouest. En
outre, la manière de raisonner, d’appréhender les problèmes va être fortement influencée par la
vision régionale et par la culture de ces pays.
Ceci conduit à ne plus localiser les progrès scientifiques dans les lieux traditionnellement
reconnus par les pays occidentaux, de même les sources d’information considérées par
habitude comme les plus performantes ne constituent plus les seuls gisements disponibles. En
effet, et on ne le redira jamais assez, il y a deux types de regards, celui très vertical réducteur,
qui consiste à considérer les progrès réalisés dans un domaine précis, et celui plus large et plus
global qui consiste à rechercher des pensées et des stratégies innovantes.
1.1.2 - Vocabulaire et terminologie
La terminologie a une grande influence dans le domaine que nous abordons. De termes en
termes, de concepts en concepts, on essaie souvent de minimiser l'action de certains, pour se
replacer par une effet de langage à un niveau supérieur à celui-ci. Il est fondamental au départ,
de bien savoir de quoi on va parler. de même dans une entreprise, il est un peu désuet de voir
comment certains, pour se différencier ou pour apporter une touche personnelle ont renommé
certaines fonctions de base, on penserait dans certains cas être revenus au temps des "scouts",
qui il est vrai, dans le jeu de piste, avaient de bonnes qualités d'observation !
1.1.3- Les Veilles
Nous serons souvent confrontés à ces deux types de vision l'une réductrice, l'autre qui dépassant
la description linguistique s'attachera au contexte général et à la fonction avec ses évolutions. Je
me rappelle par exemple, lors d’un «brain storming» réalisé dans la Région de Marseille sur
l’orientation possible à donner à un technopôle (devant être différent de ceux existants
actuellement), qu’un des experts à l’issu de son analyse faisait remarquer qu’il ne voyait pas en
quoi la Veille Technologique pouvait être utile, sauf si on la concentrait sur les domaines
techniques des quelques laboratoires présents sur le site ou sur la zone géographique concernée.
Cette vision réductrice, documentaire, montre comment le poids des mots peut avoir un impact
important. La Veille Technologique, comprise de cette façon en France n’est pas considérée
comme un élément majeur de l’Intelligence Economique. Par contre, aux USA, le même concept
est décrit au niveau du vocabulaire par C.T.I. (Compétitive Technical Intelligence) ce qui
l’intègre de facto dans le concept de C.I. (Compétitive Intelligence). C’est pour cela que j’ai
toujours préféré la définition américaine de la Veille Technologique qui réuni les trois concepts
les plus importants c’est à dire la compétitivité, qui va nécessiter des informations pouvant être
formelles et informelles ce qui implique le terme intelligence considéré ici au niveau
renseignement, le tout étant appliqué à des domaines technologiques à travers des méthodes et
des outils introduisant l’approche technique et technologique. En outre, les notions de
Compétitivité et de Renseignement introduisent une notion d’information active tournée vers le
proche futur.
De la même façon, en fonction de l’objectif, on sera amené à effectuer des surveillances diverses,
au plan économique, commercial, financier, de la société, de l’environnement de l’entreprise,
etc. Cet ensemble de veilles, peut être, selon la manière dont on l’exerce placé dans un contexte
documentaire strict, ou peut s’ouvrir vers une véritable intelligence et compréhension du
milieu dans lequel se place l’entreprise. Cela constituera alors l'Intelligence Compétitive au
sens américain du terme.
Essayons donc, avant tout, de ne pas nous laisser emprisonner par un contexte
grammatical, mais plutôt de bien considérer les étapes nécessaires à l’acquisition des
informations nécessaires à la stratégie de l’entreprise.
Cette notion d’information, nous conduira à prendre en compte plusieurs aspects selon les
cultures. En effet, à mon avis, et j’aurai l’occasion de l’expliciter par la suite, c’est l’interface
entre la vision que doit avoir l’entreprise, sa traduction au niveau de diverses stratégies
possibles, puis la mise en place du plan de renseignement qui conduira à informer les décideurs
qui constitue l'action majeure. C’est dans ce creuset que se développe une intelligence
particulière, celle de la vision à moyen terme, de l’analyse stratégique et du renseignement.
Une interface indispensable
Stratégies
Vision
Plan de
Questions
renseignement
sources, collecte, validation
CRRM
La vision de l'entreprise, point de départ de la ou des stratégies, puis du plan de renseignement
Nous rentrons, avec des technologies de plus en plus performantes dans un monde nouveau où
les stratégies devront changer et s’adapter à ce contexte. Aujourd’hui, des entreprises de
quelques personnes peuvent, dans le domaine de la finance, réaliser un chiffre d’affaire identique
à celui de sociétés de plusieurs centaines de personnes. (CNBC 13 Avril 1997). C’est donc que
le contexte change et que de nouvelles opportunités naissent. Anticiper, agir vite, être informé à
temps devient le credo de ces entreprises nouvelles.
Dans le contexte de la globalisation, ce n’est pas d’être petit qui va causer notre perte,
mais c’est avant tout de rester isolé.
1.1.4 - Intelligence Economique
L’Intelligence Economique, dont nous avons parlé plus haut, recouvre en France des choses très
différentes suivant que l’on se place du point de vue des entreprises, de l’Etat, des Institutions
Régionales, des Universités, de l’armée, etc.... Etant donné l’enjeu, il faut bien s’arrêter un peu
sur ce problème et sur ce qu’il recouvre.
La France se situe encore à la quatrième ou la cinquième place des pays développés. On verra au
niveau des indicateurs géopolitiques que cela dépend du référentiel adopté. Des entreprises
réalisent en permanence des performances remarquables au plan du commerce extérieur. Elles
sont donc performantes et «pèsent» un certain nombre de milliards de dollars. Ce n’est donc pas
nous, ni bien d’autres institutions qui vont leur apprendre ce qu’est l’Intelligence Economique,
ni les ressorts, les méthodes, les actions qui la sous-tende.
Le niveau National:
En France, on peut dire qu’il y a deux Intelligences Economiques, et qu’elles sont mélangées,
souvent avec un flou particulièrement gênant. La première concerne les enjeux de l’Etat, le
redéploiement de certains de ses moyens, l’organisation ou la réorganisation de certaines
structures dans le but de doter le Pays d’un système étatique global plus performant, pour qui?
voila le problème. La deuxième c’est l’Intelligence Economique de terrain, qui doit concerner
les entreprises souvent les PMI et les PME, pour leur permettre de devenir plus performantes,
de s’impliquer dans les structures de réseaux, de s’organiser de façon différente pour être
toujours présentes dans les années à venir. Là, on trouve bien moins de colloques, bien moins de
discours, bien moins de «grandes messes». Pour avoir discuté souvent «à chaud» avec des chefs
d’entreprises à l’issu de présentations, de débats, de colloques, j’ai pu apprécier la distance qui
existe au niveau de la mise en pratique, et la désillusion provoquée chez certains chefs
d’entreprises par des discours creux, le manque de focalisation des moyens et de politique claire
dans ce domaine.
Je pense que la clarification nécessaire va s’opérer au niveau des moyens, des méthodes, des
actions de terrain, des outils qui vont être enseignés et mis en oeuvre pour atteindre les objectifs
de l’Intelligence Economique. C’est au niveau des entreprises qu’il faut agir, ce n’est pas un
ensemble de discours ni de macro-réalisations ou de macro-informations qui permettront
d’atteindre les objectifs de compétitivité et de maintien de l’emploi qui doit être le notre. C’est
en ayant des positions clairement définies, en évitant les querelles de chapelles ou même
personnelles que les progrès s’accompliront.
C’est la première leçon qui doit être retenue au niveau de l’Intelligence Economique En
focalisant trop les esprits vers une Intelligence Economique d’Etat par l’Etat et pour
l’Etat, on oublie souvent que ce sont les entreprises qui produisent et qu'elles devraient
par le biais de fondations agissant comme interlocuteur au plan national, oublier certaines
fois qu'elles sont multinationales.
Xavier Guilhou, dans deux articles récents: L’Intelligence Economique: un faux débat
institutionnel, de vrais enjeux de société Défense, n°74, Décembre 1996, p.47-50 et
Intelligence Economique et stratégie d’entreprise La Tribune, n°1320, 28 Fev. 1997, pose
bien le problème:
«Dernier sujet à la mode, l’intelligence économique» doit sortir de ces débats exclusivement concentrés
entre les mains des seules élites institutionnelles en France, pour quitter la sémantique, devenir un peu
plus perspicace dans la conduite de notre avenir et engager le pays dans une véritable dynamique
économique.......
Vouloir un système parfait en matière d’Intelligence Economique est impossible et contradictoire avec
l’essence même de la vie des affaires où tout est dans le mouvement et la combinaison de variables de
plus en plus complexes avec de plus en plus de jeux d’acteurs, à commencer par ceux des marchés et des
clients qui ne peuvent être figés dans une quelconque théorie.....
Mais il faut surtout redonner aux opérateurs du monde économique les moyens législatifs et fiscaux pour
recréer les termes de la confiance et permettre véritablement à l’intelligence latente et contenue de se
développer que ce soit dans les PME ou au niveau des structures administratives concernées.»
Dans le même ouvrage (Défense, n°7, Décembre 1996), la relation Etat-Entreprise est
esquissée dans un article de Philippe Caduc: L’Intelligence Economique: un nouvel enjeu pour
l’Etat est les entreprises. Mais, tout ceci n’est encore qu’un clair-obscur car en même temps que
la parution de cet ouvrage, l’affaire Thomson Multimédia et sa revente au groupe Coréen
Daewoo agitait les esprits, les propositions gouvernementales étant largement modifiées par la
Chambre des Députés! (*)
(*) une autre explication, mais invérifiable pourrait être celle-ci: «on» l’aurait fait exprès, tout
ceci étant lié à l’accompagnement de la vente du TGV à la Corée du Sud. On voit comment un
simple fait, peu être interprété ou perçu de façons différentes. Seul, un faisceau d’informations
validées, peut donner une vision plus précise.
L’Intelligence Economique aux USA
Ruth Stanat, Président de SIS International et fondatrice de SCIP aux USA (Society For
Competitive Intelligence Professionnal), a présenté au Colloque International de Rio de Janeiro
en Juillet 1997 (*) les fondements de l’Intelligence Compétitive aux USA.
Tout d’abord, ce qui a motivé la création de tout un domaine de recherche, d’applications de
comportements des entreprises, appelé actuellement CI (Competitive Intelligence), a été avant
toute chose la perte de compétitivité des produits américains sur les marchés internationaux,
puis, l’attaque subi par les USA au niveau de leur propre marché intérieur et enfin la nécessité de
gagner, dans cet environnement perturbé, de nouveaux marchés.
Entre autre, la percée des ventes (pour ne pas dire plus) des automobiles japonaises sur le sol
américain même a profondément marqué les américains.
L’Intelligence Compétitive est un concept nouveau, vieux de quelques années. De ce fait il est
encore mal connu et certains de ses aspects ne sont pas encore intégrés dans les stratégies des
entreprises.
(*) Ce colloque, a été organisé par F.Pacheco et la FINEP a été destiné à mettre en place au Brésil
une dynamique d'Intelligence Compétitive et de Veilles. La France était représentée à ce Colloque par
Henri Dou (CRRM) et François Jakobiak (Existrat, et Chargé de cours au CRRM).
Le figure suivante montre les différentes dates qui jalonnent le concept de CI.
Historique de L'Intelligence Competitive
Ruth Stanat, SIS
Intelligence
Compétitive
Planification
Stratégique
Int'l Market
Research
Domestic
Mkt Research
CRRM
1950 1960 1970 1980 1990
2000
Les différentes étapes qui ont conduit à l'Intelligence Compétitive
C’est ainsi, que vers les années 1990, la forte récession de cette époque a conduit à une
réduction importante des effectifs engagés dans le Planning Stratégique. On peut dire, pour
synthétiser, que l’Intelligence Compétitive est née des travaux réalisés sur les Marchés et sur le
planning stratégique. L’introduction de paramètres nouveaux: globalisation des marchés,
compétition globale, apparition de concurrents performants et inattendus .... a conduit, par
nécessité, à la formulation d’un nouveau besoin: l’Intelligence Compétitive.
L'Intelligence Compétitive résulte de
Ruth Stanat, SIS
Market
Research
Strategic
Planning
Competitive
Intelligence
La récession des années 1990 a conduit à une forte
réduction des effectifs des personnes s'occupant de
plannification, pour les intégrer au niveau production.
CRRM
L'Intelligence Compétitive est née de diverses interactions
Mais, selon les types d’industries, selon le niveau d’implication des technologies nouvelles, de
l’apparition des innovations, les pressions subies par les industries dans ce nouveau contexte ont
été très variables. De ce fait, l’Intelligence Compétitive n’est pas apparue en même temps dans
toutes les branches industrielles. La figure suivante indique les périodes à partir desquelles
certaines industries ont été plus concernées que d’autres. On remarquera que ce sont les
branches où les technologies sont les plus stables et les moins évolutives, qui se sont
préoccupées les dernières d’Intelligence Compétitive.
Evolution of C.I. by Industry
Ruth Stanat SIS
Paper, Steel, Mining
Utilities, Gass, Energy
Service sector
Manufacturing,
Chemicals, Electronic
Financial Services
Telecommunications
Pharmaceutical
Consumer,
Food Products
CRRM
1980 1985 1990 1995 2000 2005
Evolution de l'Intelligence Compétitive au niveau de différentes industries
On voit aussi que ce sont les branches industrielles qui ont subi le plus tôt une très forte pression
de la concurrence qui se sont préoccupées les premières d’Intelligence Compétitive.
1.2.- Vieillissement et démographie
Le vieillissement démographique influe-t-il sur les formes de communication et d’information?
Incontestablement oui. Sans vouloir aborder en détail ce sujet, nous traiterons brièvement de
l’influence de la démographie sur les comportements et sur la géopolitique très simple (au niveau
même des constatations) liée aux évolutions de ce domaine.
1.2.1- Généralités
Actuellement, un tiers des français travaillent. Cette constatation conduit à ne plus considérer
les lieux de travail comme des lieux fédérateurs. Bien d’autres systèmes jouent le rôle de
fédérateurs, depuis les grands clubs sportifs, en passant par le journal télévisé de 20 heures qui
lentement subit lui aussi une profonde déstructuration du fait de l’impact sur la présentation des
informations, des techniques publicitaires et des progrès des technologies de l’information et de
la communication (B. Daiguillon, Thèse en cours, Université Aix-Marseille II, EJC). Si on
ajoute à ces faits, que la population est vieillissante, du fait même du faible taux de natalité, on
est conduit à une cartographie des lieux fédérateurs tout à fait particulière. La famille, ou les
familles, tant les divorces sont nombreux et les situations particulières, l’école avec un taux
d’analphabétisme de plus en plus grand, l’armée, avec la disparition du service militaire, ne
semblent plus jouer le rôle traditionnel qui était le leur. On est donc confronté à une situation
de décalage de plus en plus grande, ou l’accès au savoir se fera avec des facilités très
différentes, quasi nulles pour certains naturelles pour d’autres.
Sans entrer dans les détails de la démographie, force nous est de constater que du simple fait des
départs à la retraite anticipés et de l’hypothèque de plus en plus forte qui pèse sur le maintien du
pouvoir d’achat des «nouveaux retraités», on crée dans une population encore fortement
disponible au plan intellectuel des tensions qui pourraient devenir insupportables.
Ces facteurs nouveaux, dont on n’a certainement pas pris encore conscience de l’impact social
global ne resteront pas inactifs. Ils joueront certainement un rôle important au niveau de la
rediffusion de l’information de son analyse, voire de son utilisation.
1.2.2 - Les mutants
Ce vieillissement, imbriqué dans des institutions plus que centenaires, conduit nécessairement à
une augmentation de plus en plus forte de la complexité, avec dans certains cas une quasi
impossibilité de fonctionner (c’est la cas par exemple du système universitaire ou on demande à
des enseignants de faire des heures complémentaires en formation continue pour apporter des
moyens à leurs institutions, alors que les règlements liés à certaines primes ne permettent plus de
les payer!).
On va donc se trouver en recherchant des informations devant les mêmes îlots de savoirs que
nous trouvons dans les pays en développement. Ces îlots seront certes d’un contenu intellectuel
plus fort, mais la différenciation sera basée sur le conservatisme paralysant et sur des centres de
progrès dynamiques, généralement sans liens entre eux au départ, mais pouvant rapidement se
réticuler grâce aux progrès et à la démocratisation des systèmes d’information..
Cette vision de l’espace intellectuel, scientifique, évolutif de demain, nous conduira a analyser
plus finement les réseaux sur lesquels il va falloir se «brancher» pour continuer à vivre et se
mouvoir dans les espaces nouveaux et ouverts de développement et de progrès. Dans
«Tomorrow the dogs» (Demain les chiens, Clifford D. Simak, J'ai Lu, 373/3ième 1952, Note
sur le 7ième Conte, ESOPE), la vision des mutants est exemplaire. Tout allait de mal en pis, les
méthodes traditionnelles, les chefs traditionnels étaient de plus en plus souvent placés devant des
échecs successifs. C’est alors qu’on décida de faire appel aux mutants. Ces derniers, avaient été
isolés dans le désert dans de grands châteaux. Une expédition fut entreprise, on arriva devant le
premier édifice, on ouvrit la porte. Mais, ce n’était qu’une façade, vide de l’autre côté, les
mutants eux, s’étaient évanouis depuis plusieurs siècles, ils avaient évolués plus rapidement et
vivaient, progressaient, se mouvaient dans d’autres lieux et espaces sans communication possible
avec un système existant sclérosé. A un moment, les routes s’étaient croisées, mais maintenant
elle évoluaient dans des espaces parallèles sans aucun contact.
Dans le même ordre d’idée, The University for Firms développée par le gouvernement
britannique, ainsi que The Virtual University dans le cadre de la communauté européenne,
peuvent être perçues comme des tentatives pour rassembler ce qui peut l’être et évoluer
ensemble dans le monde de demain!
1.2.3 - La croissance démographique
Une conférence récente Six Milliards d'hommes: où va la population mondiale?
G. Pison, conférence AUDISTE, Marseille le 26 Septembre 1996, nous montre qu’ayant passé
le niveau des 5 milliards d’individus en 1987, la population mondiale devrait en l’an 2.000 être
de l’ordre de 6 milliards. L’évolution devrait ensuite se poursuivre d’abord sur les mêmes bases,
puis ensuite sur des bases certainement plus faibles, si on extrapole les tendances européennes
actuelles à d’autres espaces géographiques.
Cette transition démographique met en évidence que toute population, en raison des progrès
économiques et sociaux et de la baisse des menaces passerait à des régimes plus stables avec des
taux de croissance plus faible.
Mais, quelle que soit l’évolution future à long terme, les tendances lourdes à court terme ne
changeront pas. Elles mettent en évidence le changement de «poids» de certaines zones
géographiques (Asie, Pays du Sud...) par rapport aux équilibres mondiaux qui pendant des
siècles ont sous-tendus notre raisonnement. En France, ces évolutions démographiques ne sont
pas prises en compte à un niveau assez fort. On dit communément que les français ne
connaissent pas la géographie, ceci est sans doute lié à cela. Mais dans un monde en constante
évolution, avec les phénomènes d’accès à la connaissances et de délocalisation dans des zones
géographiques nouvelles, notre effort à faire au niveau de nos systèmes d’acquisition et
d’évaluation de l’information est à l’image du peut d’intérêt porté aux évolutions
démographiques précédentes. On retrouvera le même comportement au niveau de l’économie.
En outre, à court terme, c’est la vitesse de la croissance et la soudaineté des changements ainsi
que les nouvelles localisations géographiques qui perturbent notre vision du monde.
Cet accroissement de population va induire des migrations et un déséquilibre de la répartition
des tranches d’âge, puisque les populations à fort taux de croissance ont une moyenne d’âge
beaucoup plus faible que les populations européennes par exemple. En Europe, cette tendance
sera très sensibles dans les zones du Sud, comme le pourtour Méditerranéen.
1.2.4 - La croissance économique
Pour gérer sans trop d’accoups la croissance démographique, les pays d’Asie vont être obligés
de développer des modèles différents des nôtres, au niveau socio-économique (coût et
organisation du travail, systèmes politiques et d’instruction, recherche,..).
L’Asie, avec un taux de croissance économique de l’ordre de 7 à plus de 10% par an, est
exemplaire en ce sens. Pour pouvoir soutenir son taux actuel de croissance démographique
(même si de nombreux efforts souvent couronnés de sucés sont réalisés), l’Asie est obligée de
développer de nouveaux modèles, de suivre d’autres voies de développement, de se baser sur sa
propre culture, très différente de la notre.
C’est ainsi que les processus d’innovation (incrémentale plutôt que de rupture) sont différents,
que la fidélité à l’entreprise, au pays, à la famille sont encore des valeurs traditionnelles. La
carrière si souvent l’apex des étudiants des grandes écoles est ici secondaire puisque inscrite
dans la mouvance de l’entreprise et dans sa réussite.
N’oublions pas, que l’occident a mis cinq siècles pour établir son hégémonie sur le monde,
et qu’en cinq ans (depuis 1990 pour donner une date) celle-ci a été profondément remise
en question. (Xavier Guilhou, Conférence Marseille, CCIM, 1997)
Nous devons donc apprendre à penser autrement, à voir autrement, à tenir compte des autres,
même s’ils sont situés très loin de nous, dans l’autre hémisphère. Cette attitude, qui doit être
nécessairement couplée avec une connaissance des lieux, donc avec des voyages, avec une
communication de base personnelle d’où la connaissance de l’anglais, et l’appréhension de
nouvelles cultures va devenir la base même de la réflexion stratégique et de la mise en situation,
à l’échelle internationale des «jeux d’acteurs».
La table suivante donne une idée des niveaux de population de divers pays du monde, et donc de
la potentialité des marchés à la fois intérieurs pour soutenir une activité, ou «extérieurs» pour
pouvoir y exporter.
Il s’agit ici d’une approche «géographique» à laquelle on pourrait ajouter des données sur les
richesses minières, agricoles, etc..
Mais, peuvent s’ajouter à ces données une vision plus contrastée et souvent utilisée en
géopolitique, celle des classements par pays, en tenant compte des risques, des menaces
politique de l’évolution des religions et de leurs impacts, de la solvabilité des échanges, etc...
Nous aborderons dans ce chapitre cet aspect global de l’information.
Pays
Population en millions
Densité au Km 2
____________________________________________________________________________
Chine
Inde
Etats-Unis
Indonésie
Brésil
Russie
Japon
Pakistan
Bangladesh
Nigéria
Mexique
Allemagne
Philippines
Iran
Turquie
Egypte
1.188
919
270
200
160
150
126
125
118
108
92
81
68
64
65
60
124
279
28
105 (*)
19
9
336
157
818
100
47
238
220
40
69
60
Thaïlande
Iran
Royaume-Uni
France
Ukraine
Italie
Espagne
Corée du Sud
Pologne
Argentine
Colombie
Corée du Nord
Algérie
Canada
Soudan
Maroc
Malaisie
Irak
Taiwan
Australie
Ghana
Syrie
République de Slovaquie
Chili
Côte d’Ivoire
Angola
Cuba
Belgique
Grèce
République Tchèque
Hongrie
Portugal
Tunisie
Bolivie
Nouvelle Zelande
Irlande
60
64
58
58
58
57
40
45
38
34
34
24
28
30
28
27
22
20
22
18
17
16
15
14
14
11
11
10
10
10
10
10
9
7
3,6
3,5
118
40
239
106
86
190
78
450
123
12
29
192
12
3
10
35
61
47
589
2
64
89
109
18
43
9
98
325
76
131
109
107
50
7
14
52
Quelques données sur la croissance démographique
(*) Java est l’île où la densité de population est la plus élevée du monde, densité 850.
Une partie des données précédentes, plus d'autres données économiques, ont été extraites de la
publication: Conjoncture 97, Nouveau Bilan Economique Politique et social du Monde, Ed.
Bréal et Les Echos.
Tous les chiffres sont arrondis. On veut simplement les utiliser comme repères. On constatera au
niveau de la CEE que seule l’Allemagne a une taille critique. Les autres pays de la communauté
sont sous le seuil des 60 millions d’habitants. Le Japon avec 125 millions d’habitants et un
pouvoir d’achat élevé a un marché intérieur qui lui permet de soutenir efficacement sa
production industrielle. L’Indonésie avec plus de 200 millions d’habitants constitue une
puissance démographique dont on parle peu, mais qui va de plus en plus s’affirmer au plan
politique et économique.
L’Algérie, la Tunisie, le Maroc représentent 65 millions d’habitants.
L’Afrique, parcellisée ne peut pas jouer de rôle dans une analyse géopolitique. Elle va relever de
l’humanitaire pendant encore longtemps, elle pourra éventuellement servir de zone d’expansion
à certains pays d’Asie. L’Inde et le Bangladesh sont aussi peuplés que la Chine, de même que la
réunion Corée du Sud et Corée du Nord conduit à une unité qui dépasse les 70 millions
d’habitants (cependant, pour ces deux derniers cas, des luttes politiques intenses animent ces
entités). Le Canada a une des plus faibles densité de population de la planète.
Le Brésil, avec une faible densité, et toute une partie (le Sud) à souche européenne forte
(Italiens, Portugais, Allemands), devrait avoir bien plus de relations avec l’Europe. Huitième
puissance mondiale, il va certainement se trouver au centre du développement du continent Sud
Américain et s’assurer une position de leader (entre autre dans le Mercosul).
Une connaissance même très moyenne de ce que l’on pourrait appeler la géographie mondiale
est de nos jours une nécessité. Sans utiliser les mots pompeux de menaces stratégiques ou de
géopolitique planétaire, la simple connaissance de la répartition en grandes masses des
population ainsi que des taux de croissance, me paraît nécessaire pour donner à celui qui devra
animer un service d’hyperinformation, la notion de l’ailleurs, et le replacement de sa propre
force dans un contexte international. De même la connaissance des implantations religieuses, des
types de gouvernements... devient une aide indispensable.
J’ai toujours du mal à comprendre comment certains peuvent éteindre le télex la nuit pour
économiser du courant électrique, ou comment des «experts» croient que la création d’un
diplôme de troisième cycle au Brésil dans le Sud va nous placer devant une situation difficile au
plan des étudiants et des mentalités, en nous conseillant de réaliser le même diplôme dans le
Nord, sûrement plus développé industriellement et plus propice à l’enseignement de la Veille
Technologique et de la Stratégie. Ils avaient tout simplement oubliés que l’on se trouve dans un
autre hémisphère ou les zones géographiques et les climats sont inversés.
1.3 - Eléments de géopolitique
On ne peut pas parler d’hyperinformation, donc de l’Intelligence Economique et des Veilles,
sans aborder même brièvement un certains nombre de données de géopolitiques. Il n’est pas dans
l’objectif de ce livre de réaliser une approche complète de ce vaste domaine, mais, de montrer
aux lecteurs qui ne seraient pas familiers avec les approches, méthodes et représentations de ces
informations comment on peut aborder ces questions et fabriquer un certains nombre d’outils.
En outre, on assiste de plus en plus à un glissement du géostratégique au géopolitique puis
maintenant vers le géo-économique. Ces passages successifs ne sont que l’illustration de la
tendance actuelle qui porte les conflits non pas vers les champs de bataille classiques, mais vers
l’économie, le développement de produits et de services nouveaux, et la conquête des marchés
internationaux.
1.3.1 - La méthode des classements
Elle est globale et consiste à présenter des cartes géostratégiques du monde, en classant les pays
par groupes à risques à partir de coefficients calculés selon des méthodes propres aux auteurs.
Globalement il y a deux méthodes, l’une à partir de consultations d’experts, elle est plus rapide
mais ne repose pas sur des données tangibles et validées, l’autre qui consiste à exploiter des
bases de données plus ou moins «fouillées» et mises à jour en permanence. Dans ce denier cas,
les informations seront plus fiables, mais l’effort pour les obtenir plus important si on réalise soi
même l’étude.
Les coefficients prennent en compte des éléments tels que la stabilité politique, la fréquence des
élections, le type de régime, l’importance des dettes, les niveaux d’industrialisation, de
croissance, le PNB par habitants, les religions, les réseaux de transports, la qualité de l’épargne
les modes de crédits et les systèmes bancaires, ..... On voit que l’on peut très bien, obtenir des
résultats très différents selon le type d’indicateur utilisé et les personnes qui recherchent et
valident les données.
Citons ici ce qu’écrit J.L. Terier (Classement - Pays 1996-1997, cent dix pays, trois cartes
mondiales d'aide à la décision (01-47716482); Jean-Louis Terrier) à ce propos:
«Le classement crédit risk international est obtenu par notation dite «objective» d’une batterie importante
de critères. Il n’est donc pas le résultat d’un sondage d’experts, ce qui le différencie de la plupart des
classements-pays existants du type BERI ou Institution Investor. La méthode employée par Credit Risk
International obéit à trois principes:
Un grand nombre de critères ... (ceci permet) .. de descendre dans le détail en permettant un jugement plus
objectif grâce à la clarté de la question sous-jacente à chaque critère. Ainsi par exemple, noter
objectivement la performance économique d’un pays ex-nihilo est beaucoup plus difficile que de noter
exactement la croissance de sa production industrielle entre 1990 et 1994, à partir des statistiques de la
Banque Mondiale...»
La carte suivante, qui nous a été communiquée par JL Terrier montre comment la représentation
cartographique est globalement supérieure à une représentation linéaire par liste ou même par
tableau.
Cartographie des risques pays (d'après Jean-Louis Terrier)
Noir: grands marchés ou moyens à forte croissance et risques faibles
Gris foncé: grands marchés ou moyens en croissance, mais risques plus élevés
Gris clair: marchés moyens en stagnation ou petits en croissance mais à risques élevés
Hachuré (blanc et noir): marchés moyens ou petits à forte croissance et risques faibles
Blanc: petits marchés à risques généralement élevés.
Source: Classement pays «Credit Risk International» 1996-1997
L’extrait du tableau suivant, toujours du même auteur indique à titre d’exemple la valeur de
différents coefficients:
___________________________________________________________________
|
Cotations |Opportunité Pays |Risque-Pays Moyen
|
AàE
7à1
7à1
sur
sur
sur
sur
500
110
700
110
Afrique du Sud
B
6
5
308
18
480,5 28
Cote d’Ivoire
E
3
5
94
64 ex 344
54
Lituanie
E
6
6
75
75
488
24
Russie
A
3
3
429
3
312,5 65
Singapour
D
7
7
185
33
673
1
Uruguay
D
6
6
129
41ex
497
18
Viet Nam
D
4
4
156
35
367,5 48
Zimbabwe
4
104
D
4
53
Exemples de divers classements pays pour la période 1996 - 1997 (110 Pays au total)
De tels tableaux sont à interpréter avec des spécialistes, et méritent une analyse approfondie.
Cependant, il reste possible pour une entreprise, spécialement si elle est engagée dans une
activité avec des pays étrangers de se constituer un tableau de bord qui comprendra différents
paramètres, ou plus simplement un ensemble de données conduisant à une vision saine et réaliste
de son théâtre d’opération.
Le problème ne sera pas tant de trouver des données que de mettre en place une représentation
facile à appréhender, et surtout de réactualiser les données ce qui souvent est une affaire de
spécialistes (la majeure partie des statiques fournies par les gouvernements sont souvent
diffusées avec un retard trop grand par rapport à la réalité). Il est évident que ce qui est réalisé
pour un pays peut l’être aussi pour une région, une ville, etc...
Nous donnons ici un exemple de données obtenues par dépouillement de la presse quotidienne
où l’on peut obtenir des données souvent intéressantes à intégrer dans certains des paramètres
précédents
Table mettant en évidence le taux de syndicalisation dans la
population active (La Croix, Mardi 21 Janvier 1997)
Pays
Grèce
Italie
Irlande
Allemagne
Danemark
Royaume-Uni
Suisse
Autriche
Belgique
Australie
Suède
France
Finlande
1970
36
36
53
33
60
45
30
62
46
50
68
22
51
1990
34
39
50
33
71
39
27
46
51
40
83
10
72
Norvège
Pays-Bas
Japon
Etats-Unis
Canada
51
38
35
23
31
56
26
25
16
36
Taux de syndicalisation
L’idée générale est de mettre en place, dans une organisation, à partir d’informations connues
(statistiques, généralement, mais pas trop anciennes), ou en mélangeant des opinions d’experts,
des tableaux de bord permettant d’évaluer globalement certains risques.
Souvent, on est implicitement au courant de ces derniers, mais avoir des indicateurs adaptés au
travail de l’entreprise et à ses finalités est un bon moyen d’être avisé en permanence et très
rapidement, de différents positionnements ou du changement des situations lorsque cela est
nécessaire.
Bien entendu, de telles approches sont envisageables au niveau de groupes de Pays ou de zones
géographiques précises. On peut même analyser de plus en plus finement la situation pour
envisager les problèmes à une niveau très local. Par exemple, les lois Européennes qui vont
conduire à la disparition de certains monopoles, conduisent des sociétés françaises, jusqu’alors
protégées, à envisager leur devenir en tenant compte d’une implication géopolitique de terrain
plus forte. Des analyses, des représentations par zones deviennent alors nécessaires. On peut
facilement aller au niveau des personnes (CRRM Travaux en cours), ou même des parcelles de
terrain (Michel Bibent, Laboratoire d'Informatique Juridique, Université de Montpellier I).
1.3.2 - La situation géographique
A titre d’exemple, nous montrons ici une carte qui met en évidence la zone de l’Asie, elle est
extraite d’un ensemble de documents traitants de la Géopolitique du temps présent, que l’on
peut obtenir auprès des CRDP sous forme d’une mallette didactique et réalisée par divers
enseignants au CRDP de Nice. Le présentation est intéressante, car au lieu de placer comme
d’habitude la France au centre de la carte, elle est réalisée en présentant d’une façon inhabituelle
pour nous (mais classique pour d’autres) l’espace géopolitique du Pacifique. C’est dans cet
espace géographique que se produiront sans doutes les événements les plus importants dans les
années à venir. Cette carte met en évidence les centres vitaux de la zone, mais aussi le
prolongement naturel de celle-ci qui est la Californie. L’avantage de cette représentation est de
bien visualiser les distances et les zones géographiques qui par le simple fait de la proximité se
trouveront impliquées dans le développement.
Les USA et l'Asie, proximité géographique
D’autres représentations sont possibles, par exemple des cartes de flux financiers, de volumes
d’actions traitées dans les grandes places boursières, de flux de passagers en transports aériens,
ou en fret pour les ports, ou en flux touristiques, etc... L’ensemble doit permettre aux
utilisateurs de répondre à des questions précises, mais aussi à acquérir une vision du monde
moins centrée sur le pays d’origine et plus conforme à la réalité.
Il ne faut pas oublier non plus, au niveau géopolitique de prendre en compte la «coopération
compétitive» (Vers un espace économique mondial, Pascal Gauchon, pp. 99-105, Universalis
1996). Ce terme recouvre le fait, que certaines opérations de R&D, de tests cliniques pour des
médicaments, d’introduction ou de pénétration dans un marché deviennent trop coûteuses,
même pour des groupes importants. On va donc voir se développer des alliances objectives dans
certains domaines, alors que la compétition continuera dans d’autres domaines. On peut agir
ensemble dans un domaine, mais être en compétition même brutale dans d’autres. Des
représentations géographiques des zones à faible pression ou à hautes pressions permettent de
visualiser plus facilement les problèmes posés par la gestion de ces collaborations. Citons par
exemples les alliances au plan de l’automobile, comme celle de Toyota s’alliant à General
Motors, etc.
1.3.3 - Les indicateurs et les matrices de risques
Avant de terminer avec ce type d’informations et de représentation, donnons un exemple
montrant comment le choix des indicateurs peut conduire à une appréciation très différente de
celle qui est couramment utilisée. Dans le Figaro du 26 Mars 1997, un article de Laurent
Mossu présente le palmarès de la compétitivité mondiale. Pour effectuer cette enquête
l’organisme concerné, l’IMD, prend en compte 244 critères qui couvrent l’ensemble des
paramètres macro-économiques. La figure suivante montre la place relative de différents pays:
rangs Pays
1 Etats Unis
2 Singapour
3 Hong Kong
4 Finlande
5 Danemark
6 Norvège
7 Pays Bas
8 Suisse
9 Canada
10 Nlle Zélande
11 Japon
12 Royaume Uni
14 Allemagne
20 France
27 Chine
31 Corée
35 Italie
45 Afrique du Sud
valeur des indicateurs utilisés
46 Russie
0
50
100
150
200
250
300
350
400
Palmarès de la compétitivité mondiale pour 1997 (Le Figaro)
On constate que si les Etats-Unis conservent la première place, le Royaume-Uni est passé de la
19e à la 12e place, à l’inverse, le Japon est passé de la 4e place à la 11e place. La France
conserve la 20e place, mais elle est dépassée par des pays comme l’Irlande, la Malaisie et
l’Australie.
On peut aussi, à partir de certains indicateurs, réaliser des matrices de risques plus ou moins
sophistiquées. Sans aller dans le détail nous citons ici un article de Bharat Bhalla, publié dans
Euromoney en Juin 1983, p.66-72. Bien qu’ancien, il décrit bien les fondements de cette
méthode. On va centrer la recherche d’informations sur un certains nombre de données simples,
telles que la démographie, le PNB, le revenu par habitant, les taux de croissance, et on pourra à
l’aide de cet ensemble réaliser une représentation sous forme d’une matrice du type suivant: (ne
pas oublier en lisant ce tableau qu’il a été publié en 1983. Un bon exercice pour le lecteur serait
de re-situer les pays en fonction de données actuelles!)
Sens de lecture du tableau:
De droite à gauche risques économiques croissants, de haut en bas risques politiques croissants.
Japan,
France,
Germany(Fed.Rep.)
USA
pop. 53-215 m
PCI 4000$-7500$
2,0-7,0% per year
Australia, Saudi Arabia
Austria,Belgium,
Netherlands
Denmark,
Norway,
Sweden, Canada
pop 5-23 m
Hong Kong
Portugal
pop 5 - 6 m
PCI 1600$ - 2000$
5,2 % per tear
Cyprus, New Zealand,
Israel,
Kuwait,
Singapore,Libya, Iceland,
Ireland,
Finland,
Luxembourg, Costa Rica,
Jamaica, Trinidad &
PCI 5000$-8500$
2,0 - 4,1 % per year
Greece, Italy, Spain
pop 9 - 56 m
PCI 2000$ - 3700$
2,5 - 6,0 % per year
South Africa
Mexico
pop 7 - 45 m
PCI 1300$ - 1500 $
2,4% per year
Argentina,
Brazil,
Venezuela
pop 13 - 113 m
PCI 1200$ - 2500$
0% - 6,5 %
South Korea
Morocco
Colombia, Peru
pop 7 - 45 m
PCI 500$ - 1000$
1,4% - 8%
Iran,
Irak,
Syria,
Turkey, Chile
pop 8 - 41 m
PCI 800$ - 2000$
-0,4% - 7,5% per year
Egypt, Nigeria
pop 38 - 68 m
PCI 375$ - 750$
0,7% - 4,8% per year
Tobago, Uruguay
pop less than 5 m
PCI over 1000$
1,9 % per year
India, Indonesia
Coast, pop 139 - 633 m
PCI 140$ - 250$
1,6% - 4,6%
Malaysia
Algeria, Ivory
Tunisia
Ecuador
pop 6 - 16 m
PCI 600$ - 1000$
2,7% - 5,5 % per year
Philippines, Sri Lanka,
Thailand,
Cameroon,
Kenya, Zimbabwe
pop 7 - 45 m
PCI 225$ - 500$
1,5 per year
Bolivia, Central America
(Salvador, Guatemala,
Honduras,
Nicaragua,
Dominican Republicv,
Paraguay)
pop 2 - 6 m
PCI 375$ - 750$
0,7% - 4,8%
Pakistan
Angola,
Ghana,
Madagascar,
Mozambique, Senegal,
Sudan,
Tanzania,
Uganda, Zambia, Haiti
pop 5 - 73 m
PCI 175$ - 500$
-5,0% - 2,0% per year
Afganistan, bangladesh,
Burma, Nepal, Ethiopia,
Mali, Zaire
pop 6 - 70 m
PCI less than 150$
Negative
Risques et critères d'analyse, différents positionnements (1983)
Le lecteur pourra, par exemple re-situer certains pays en tenant compte de l'accroissement
démographique, du taux de croissance actuel, de l'impact de la guerre du golfe, du terrorisme et
de l'intégrisme, ou des changements politiques (comme par exemple au Brésil). En outre,
d'autres éléments auraient pu être introduits dans la matrice: le taux d'inflation par exemple, la
dette extérieure avec un coefficient selon l'étalement, etc...
1.3.4 - Les données bibliographiques
Un aspect des risques par pays, peut aussi être étudié, en se basant sur des articles spécialisés
présentés dans la base de données numéro 627 du serveur Dialog. Cet accès spécialisé à
l’information sur les risques par pays permet d’accéder (certes avec un certain retard), à des
informations tout de même intéressantes, car globales, couvrant une grande partie du monde, et
très facile accès. Un exemple d’une référence issue de cette base est le suivant:
DIALOG®File 627:EIU: Country Analysis
© 1997 Economist Intelligence Unit. All rts. reserv.
2519513
Ch 4-Special zones/cities-Sec 11: Dalian-Development zones
COUNTRY: China
JOURNAL: China Hand - April 1, 1997
WORD COUNT: 1369
TEXT:
Xinhai Bay: future financial and commercial centre
Dalian has set aside two new development areas. Xinhai Bay, west of the city, is slated to
become a financial and commercial centre. Major players already committed include Sino Group
and Henderson Land, both of Hong Kong, and the Bank of China Group. Henderson’s plans
include the development of a 30,600 sq-metre office and hotel complex.
Dalian New City: American-style development
Dalian New City is to be an American-style «fringe city» above Xiaoyao bay. The development
will include both industrial and residential projects, with Western-style schools, parks and
recreational facilities. The mayor has commissioned an American consortium, Worldports, to
build a southern California-style suburban development. Also in the works is a US$1.1 billion
development by Sino Land. The project promises to be Dalian’s largest, including a 600-room
five-star hotel, 60-storey commercial office tower, a hydrofoil quay and large shopping centre.
Other zones in operation include:
Dalian ETDZ. Dalian now sports one of the best-equipped ETDZs in China, with more than 500
firms already in operation. More than 40% of all Dalian’s approved investment is contracted
within the zone. Dalian’s government is also pushing to diversify foreign investment by
promoting tertiary industry, from tourism to financial services. Exports from Dalian ETDZ in
1995 totalled US$1.1 billion, the highest of any development zone in China. In the same year the
zone approved 270 FIEs worth US$1.3 billion in contracted FDI. Japanese and South Korean
companies predominate among big investors in the ETDZ. One American firm with major
investment is Pfizer Pharmaceutical, which holds a 67% stake in a four-year-old, US$58m
venture. Domestic sales in 1995 reached US$24.1m.
The ETDZ administration has used income from industrial-land leases to develop infrastructure
over a ten sq-kilometre area, while a second area of the same size is being prepared. The longterm aim is to create a satellite industrial city of 220 sq kilometres.
Dalian New City
Dalian New City, an expanded version of Dalian Economic and Technological Development
Zone (ETDZ), is planned at Xiaoyao bay, 15 kilometres and a 20-minute drive to the north-east
of Dalian. It will include a US$180m, 6.1 sq-kilometre development designed and funded by
Worldports, a five-member consortium from southern California. Worldports is forming a joint
venture, Dalian Mingling Real Estate Development and Management, with Dalian Vastone
Communication Cable, a Sino-US copper wire and fibre-optic cable manufacturing venture.
The project will feature low-density, luxury housing, an industrial park, a theme park, shops,
cinemas, restaurants, hospitals, an international school and an 18-hole golf course. Investors are
hoping to capitalise on Dalian’s traditional reputation as a place for beaches, which attract ten
million domestic tourists and more than 100,000 foreign tourists each year.
Worldports also plans to offer «one-stop» business services for American and European firms,
including helping FIEs gain local-government approval and constructing manufacturing and
distribution facilities.
The enormous size of the project means it requires State Council approval, which it has yet to
receive. The consortium hopes to get around the problem by dividing the project into a series of
smaller-scale schemes which-being valued at less than US$30m each-will require only localgovernment approval.
Local control over customs
Dalian Bonded Zone. Dalian Bonded Zone is a small site to the north-east of Dalian ETDZ,
which has been in operation since 1992. This free-trade area permits entrepot trade, export
processing and bonded warehousing. In November 1995 Dalian claimed that the bonded zone
was the first in China to gain authority to handle its own customs procedures for people and
vehicles. According to city officials, the bonded area, which had contracted foreign investment
of US$485m in late 1995, offers a particularly efficient link between foreign and domestic
markets in north-east China.
Dalian: Infrastructure
Ports. Dalian has two ports. The city’s old port, in the downtown area, has 58 berths, 28 of
them able to handle vessels of more than 10,000 dwt. Dayao bay, ten kilometres from the Dalian
ETDZ, has two container berths with water depth of 11 metres, a third berth with a depth of 12
metres due to open soon, and two more 14-metre berths planned. Dalian’s total throughput is
currently estimated at 420,000 twenty-foot equivalent units (TEUs). In 1995 total throughput
was 374,000 TEUs, putting it third behind Tianjin (702,000 TEUs) and Qingdao (603,000
TEUs). The figure is expected to rise to over one million TEUs by end-1997. There are already
21 shipping lines in place at the terminals, and about 110 vessel calls per month.
About half the throughput is oil and oil products. The Dalian Container Terminal (DCT), a joint
venture between the Port of Singapore Authority (PSA) and the Port of Dalian Authority
(PDA), will eventually take over all the shipping needs of manufacturers in the ETDZ.
Roads. China’s longest four-lane expressway (375 kilometres) allows auto travel between
Dalian and Shenyang in just four hours. Congestion within Dalian city is a serious problem and
the main road from the downtown area to the ETDZ has traffic jams most mornings. Managers
from Pfizer of the USA, for instance, leave for work at 7am to avoid the morning rush hour but
still take 45 minutes to complete the 27.5-kilometre journey. Although the main east-west artery
in Dalian, Zhongshan Lu, has been widened and resurfaced, and a new traffic management
system installed, Dalian’s traffic problems look set to remain. Construction of an expressway to
Harbin, capital of Heilongjiang province to the north, is underway.
Rail. Southbound rail freight out of Dalian must first travel north to Shenyang before joining the
main north-south line from Shenyang to Shanhaiguan and Beijing. The Shenyang-Beijing line is
among the most overused in the country; space is hard to book and deliveries are unreliable. As
little as half the demand on the route can be met, according to the Ministry of Railways.
The fastest passenger train between Dalian and Shenyang is the Peninsula Express, which leaves
Dalian at 7 :00 am each day and arrives in Shenyang at noon. Around Dalian, the main branch
lines service Lushun, Jinzhuan, Nangan, Tianwu and Bailao. In the city area, branch lines run
within four kilometres of the ETDZ and to Dayao bay port. So far unfunded rail projects
include a rail-ferry link to Yantai in Shandong province, and a two-line light-rail system for the
city and ETDZ; the latter requires an estimated US$500m. The Dalian-Harbin rail link is
undergoing an electrification programme.
Air. A new passenger terminal was completed in September 1993 and already looks distinctly
shabby. Passenger throughput in Dalian has exceeded one million persons per year for the past
couple of years. International destinations with air connections to Dalian include Hong Kong,
Fukuoka, Tokyo, Osaka, Seoul and Vladivostok. The institution of a direct flight between
Dalian and Seoul has made the region more inviting to South Korean investors.
Power. The Dalian area has several small thermal power plants, but the key electricity producer
is the 1,400 megawatt-capacity Huaneng power plant. Power cuts are almost unknown in Dalian
ETDZ and uncommon in the rest of the city. Dalian is connected to the north-east power grid,
to which it is a net supplier.
Gas. Gas is widely used in the urban area. Dalian has two gasworks with a total daily output of
600,000 cubic metres. Foreign investors wanting gas supplies are often expected to pay for
necessary pipeline extensions.
Water. Dalian has traditionally faced water shortages, although the situation has improved
markedly in recent years. The key Biliu reservoir is in its third phase of development which,
when completed, will increase storage capacity from 600,000 to 1.2 million metric tons. Two
other important reservoirs are under construction in southern Liaoning. The city says running
water will be available to all residents in 1998. The ETDZ guarantees water supply to its
investors.
Telecommunications. Dalian’s telecommunications are on a par with those of other developed
coastal cities. The city now has over 300,000 lines. © 1997 The Economist Intelligence Unit
Limited
Cette référence, que nous avons citée en totalité, met en évidence d’une part la qualité et
l’exhaustivité de l’analyse, d’autre part qu’il faut toujours partir de l’information formelle
récente pour acquérir une vision globale du problème avant d’aller plus avant, et enfin que la
maîtrise de l’anglais (c’est peut être un lieu commun mais cela doit être répété) est
absolument nécessaire.
2 - Adieu Adam Smith
C’est en 1776, qu’Adam Smith, génial auteur américain, dans «la richesse des nations» a mis en
évidence comment la parcellisation des tâches, alliée au progrès technique allait engendrer des
profits sans commune mesure avec ce qui était jusqu’alors connu. En prenant pour exemple la
fabrication d’un objet, il montrait comment la réalisation «verticale» où toutes les tâches sont
réalisées par le même individu, conduisait à une productivité très faible, comparée à la réalisation
du même objet par différents individus juxtaposant dans un ordre précis différentes tâches
parcellisées. Cette notion, qui a entre autre conduit au taylorisme, est encore une notion sur
laquelle repose une partie importante de la pensée managériale actuelle.
Dans le livre Reengineering the Corporation, M. Hammer, and J. Champy, Harper Collins,
1993 montrent comment de nos jours cette pensée est entrain de s’estomper, pour ne pas dire de
disparaître pour laisser la place à des organisations totalement différentes. Ainsi, en prenant pour
base de réflexion les fonctions et services à accomplir, on est amené à analyser les systèmes
administratifs et productifs, pour ne garder que ce qui est réellement nécessaire, en éliminant les
excroissances propres à un système ne se développant que pour satisfaire sa propre croissance
interne en perdant de vue les finalités même des produits et des services devant être rendus.
L’objectif est, à travers des analyses effectuées par des équipes pluridisciplinaires, de repenser
l’organisation de l’entreprise et de mettre en place de nouveaux modes de directions.
Le cas de Tacco Bell, décrit dans le livre précédent est remarquable de concision et de clarté. Il
montre comment une chaîne de restaurants rapides a pu acquérir une dimension mondiale en
prenant comme base de son «reengineering» la fourniture d’une nourriture saine, chaude, dans
un temps assez court à un prix relativement abordable et dans un environnement propre. Cela a
conduit à la fois a modifier profondément la structure physique des restaurants, la préparation
des ingrédients de base, etc.. mais aussi à remanier encore plus profondément le système
managérial de cette société, au niveau le plus haut comme sur le terrain.
De nos jours, l’avenir est déjà parmi nous, et ce simple fait va accroître profondément les
décalages. Lorsque les tendances générales, dictées par l’évolution des mentalités, des
technologies, des comportements introduisent de nouveaux modèles, ceux qui les premiers
vont maîtriser ces derniers seront ceux qui accroîtront plus rapidement les décalages
positifs avec leurs concurrents. Ceux, qui resteront arc-boutés sur des systèmes surannés et
vieillots ne rendant plus les services demandés et constituants plus des freins que des vecteurs de
progrès prendront du retard.
2.1 - Exemple de l’évolution des structures de management
Certaines idées que nous développons ici sont extraites de l’article de W.E. Halal, publié dans le
Nouveau MBA, Edition Maxima, 1994, Paris, p. 523.
Les figures suivantes montrent les différentes structures de management qui ont été utilisées de
1900 à nos jours. Cette évolution préfigure certainement ce que seront les systèmes futurs.
Au début de l’ère industrielle, lorsque les systèmes étaient simples, une forme de management
basée sur un enchaînement mécanique des tâches s’est développé. C’est le système hiérarchique
qui a été utilisé pendant une cinquantaine d’années. Puis, les relations avec les salariés, l’impact
des syndicats, la demande de plus en plus complexe et de renouvellement des consommateurs, la
concurrence internationale qui débutait, .... ont conduit à une organisation matricielle. Celle-ci
que l’on peut situer entre 1950 et 1980 peut être déduite de la précédente par la création de
nouveaux liens et de hiérarchies multiples ce qui conduit parfois à certaines confusions quand on
doit demander en tant que de besoin la réalisation d’une tâche à une personne dont la direction
dépend aussi d’une autre hiérarchie. S’il y a conflit (c’est le cas extrême), mais plus
généralement du fait d’un double encadrement on arrive a une augmentation considérable de la
pression administrative, voire même à des blocages lorsqu’une priorité des actions n’a pas été
définie. C’est pour cela que certains rejettent ce type d’organisation car il est générateur de
dépenses improductives, entre autre administratives ainsi que de conflits au niveau du
management.
Différentes structures organisationnelles
Hiérarchique
1900 - 1950
Matriciel
1950 - 1985
Réseaux Autonomie
1985 .........
Simplicité
Bureaucratie
Objectifs
Forte Bureaucratie
Liberté, Turbulence
Récompenses, Défis
Les changements de structures organisationnelles en fonction du temps
Un bon exemple pour illustrer la situation est celui des enquêtes. Appartenant au Ministère
de l’Education Nationale et étant à la fois responsable d’un DEA, d’un laboratoire et d’une
grande discipline dans la structure de notre Université (UDESAM, Marseille), le nombre
d’enquêtes, de demandes de tous ordres, auxquelles nous devons faire face s’est accru d’environ
50% durant les deux dernières années. De plus, ces enquêtes portant sur le devenir des
étudiants, les bordereaux des factures communautaires, les demandes d’achat de matériels
informatiques, les publications scientifiques, nombre et types de thèses produites, demandes de
bourses, colloques, déplacements, matériels possédés par le laboratoire, achats de matériels pour
récupération de TVA, surface des locaux, montant des contrats, des aides ministérielles, des
aides régionales... conduisent à un surcroît de travail de plus en fort pour les unités
réellement productrices. Pour les autres, le sujet n’est même pas évoqué, totalement absent des
préoccupations. En outre, la création de systèmes matriciels de gestion transverse (par exemple
la création d’une division de la statistique), va conduire cette division à vouloir se développer et
donc à lancer directement auprès des utilisateurs des enquêtes dont les réponses pourraient
facilement être trouvées ou déduites à partir des ensembles de données déjà fournies.
J’aurai tendance à dire, que le management hiérarchique ne se rencontre plus que dans de très
rares structures. Mais dans le management matriciel encore très présent, surtout dans les
systèmes étatiques et bureaucratisés, ont n’échappe plus à l’improductivité induite par la
bureaucratie. C’est le système qui l’impose, en toute bonne fois!
L'organisation matricielle est actuellement en évolution . Les progrès de l’information (accès,
distribution, et utilisation) et la complexité de plus en plus grande à laquelle doivent faire face les
organisations conduisent à une nouvelle forme de management: le management en réseau.
Cette forme de management est généralement basée sur la création dans une entreprise d’unités
ou d’établissements autonomes (cela dépend de la taille) qui vont être maillés entre eux par
des réseaux.
Le système devient alors plus turbulent, les informations circulent rapidement et doivent
atteindre les bonnes personnes et les bons experts, la décision pourra être mieux préparée et les
objectifs souvent mieux compris. Le terme unités autonomes n’est pas choisi au hasard (on parle
aussi de partenariat). En effet, il serait vain de vouloir manager ainsi un système complexe en
feignant de donner une autonomie d’un côté en la reprenant de l’autre. En fait, ce qui compte
sera la réalisation des objectifs, la préparation de ces derniers, et l’adéquation de l’effort qui
doit être réalisé en fonction des moyens disponibles. La politique étant établie, elle sera
réalisée au sein de chaque unité avec une autonomie relativement grande. Ainsi, dans ce type de
management, l’importance du système d’information, des moyens, des méthodes et de la
circulation des données devient une préoccupation majeure. La structure devient de plus en plus
réactive puis passe dans le domaine de la proactivité.
On retrouve ici, tous les effets qui ne peuvent que déstabiliser des dirigeants souvent «de droit
divin», remis en cause dans leur vision hiérarchique et figée du management. L’opposition
bureaucratie fonctionnelle et management en réseau et de ce fait évidente. Les entreprises
doivent évoluer dans leurs structures et les évolutions de ces dernières entrent de plein pied dans
les avantages compétitifs de celles-ci. Annick Renaud Coulon (La désorganisation compétitive.
Edition Maxima, Paris, 1996) fait référence à l’incapacité des entreprises étatiques ou des
administrations d’état de maintenir des niveaux de satisfactions et de performances adaptés aux
évolutions actuelles et aux souhaits des «clients». La réponse à ce problème réside pour parti
dans la structure même de telles organisations qui ne permettent plus le développement de la
compétitivité nécessaire, de l’entropie générée par une économie de plus en plus ouverte et
globalisée.
On retrouve une situation de ce type dans certains enseignements, où l’Université publique perd
de plus en plus de terrain sur des formations privées performantes, qui par l’adaptation de leur
programme, leur flexibilité, permettent de mettre en place des enseignements adaptés, certes
payants, mais qui assurent souvent à l’étudiant un épanouissement de sa personnalité et une
insertion de qualité dans l’environnement économique. Nous ne sommes plus au temps de
Jules Ferry!
Pour la personne qui sera chargée d’animer un service de «Competitive Intelligence», et qui
devra à l’intérieur de celui-ci recueillir l’information, l’analyser avec des groupes d’experts, puis
finaliser des produits à destination des décideurs, il n’y a pas d’alternative: seul le ou les réseaux
qui seront utilisés sans intervention bureaucratique pesante permettront d’arriver à un bon
résultat en un laps de temps suffisant. Cette notion même de réseau et d’entreprises travaillant
sur le modèle d’unités autonomes au de partenariats (ce serait la même chose pour les petites
entreprises, qui devront à terme se fédérer pour arriver à vivre et à se développer), montre
que l’organisation du service d’hyperinformation ne peut être que légère au niveau de la
coordination, et quelle doit essentiellement reposer sur de multiples points de compétence reliés
entre eux sous forme de réseaux. On peut alors parler d’Adocratie, c’est à dire d’un réseau
qui se modifie pour s’adapter aux circonstances.
Notre passé latin n’est pas fait pour nous aider dans l’acceptation et la mise en place de systèmes
peu ou pas hiérarchisés. L’Eglise catholique reste encore un «modèle» d’organisation
hiérarchique ou différentes fonctions sont encadrées très fermement. C’est en ce sens, que j’ai
souligné l’importance des systèmes religieux, sociaux, philosophiques des pays d’Asie qui sont
pour certains plus propices au développement de systèmes d’organisation et de développement
plus adaptés au monde actuel et aux nécessités de demain. Pour Max Weber (L’Ethique
protestante et l’Esprit du Capitalisme, Agora - Plon 1964):
«Si l’on consulte les statistiques professionnelles d’un pays où coexistent plusieurs confessions
religieuses, on constante avec une fréquence digne de remarque un fait qui a provoqué à
plusieurs reprise de vives discussions dans la presse, la littérature et les congrès catholiques en
Allemagne: que les chefs d’entreprise et les détenteurs de capitaux, aussi bien que les
représentants des couches supérieures qualifiées de la main-d’oeuvre et, plus encore, le
personnel technique et commercial hautement éduqué des entreprises modernes, sont en grande
majorité protestants».
Enfin, le confucianisme dont est empreint une grande partie de l’Orient porte en lui des vertus
propre au développement du commerce, de l’entreprise familiale et du développement en réseau
(Thèse du Rp Rivero, Technologie et Religions, Université Aix-Marseille III, Faculté des
Sciences et Techniques de Saint Jérôme, CRRM).
Comment vont évoluer les systèmes et leurs structures dans les organisations? Dans le proche
futur et même aujourd’hui une tendance semble s’imposer: le développement de systèmes
virtuels et de réseaux d’alliances et de partenariats, qui au grès des objectifs pourront se
modifier. L’importance du travail électronique délocalisé, de la puissance des messageries, du
commerce électronique, d’une publicité planétaire (à condition d’être attractif pour que celle-ci
soit utilisée, ce qui est le problème des serveurs WWW actuellement), vont dans cette direction.
Mais ceci, outre une dimension managériale très différente de celle du passé, va conduire à la
nécessité d’acquérir des compétences multiples, voire même à changer de travail plusieurs
fois dans sa vie.
Un bon exemple de cette approche est celui de plus en plus cité des V.C. (Virtual Companies)
qui, en mettant en commun des moyens, en cherchant des partenaires différents pour réaliser un
projet, conduisent au développement de consortiums à géométrie variable dont la durée de vie
est généralement celle du projet. Ensuite, au grès des affinités et des compétences se noueront
d’autres relations pour apporter des solutions à d’autres problèmes. (Virtual Companies
Reconsidered A.L. Porter, Technology Analysis an Strategic Management vol.5 N°4, 1993,
p.413-420)
On peut à ce sujet citer le développement du CRICQ (Centre de Recherche Industrielle du
Québec), 333 rue Franquet, Sainte Foy (Québec), Canada G1P 4C7), qui a pris l'initiative de
créer le Réseau Chimie qui est une véritable multinationale dans le domaine de l'information en
chimie. A partie d'une gestion d'information centralisée sur l'Internet, des experts de divers pays
travaillent en commun pour analyser des information brutes transmises par la centrale
québéquoise. Les analyses sont ensuite rendues disponibles aux adhérents (à un très faible coût).
Huit domaines sont actuellement couverts, d'autres vont bientôt le devenir. Pour le Sud de
l'Europe, l'Europôle de l'Arbois est un point d'entrée du Réseau Chimie.
Cette façon de faire s’impose de plus en plus dans les contrats de recherche ou de
développement proposés par la communauté européenne. On demande de multiples partenariats,
on réalise des annuaires, des rencontres, etc... on propose des objectifs, on fournit une
participation financière et on demande des résultats globaux et précis, devant être partagés par la
communauté (par exemple les programmes ADAPT). Cette façon de faire devrait conduire à une
meilleure connaissance des partenaires intercommunautaires et à une approche plus pragmatique
du travail en commun. Mais, pouvoir être partenaire dans un projet implique d’une part que l’on
possède un savoir applicable, permettant d’apporter des solutions, et que d’autre part on soit à
même d’utiliser des moyens de communication d’abord la langue (préférentiellement l’anglais),
puis les technologies modernes d’accès et de diffusion de l’information (messagerie, ftp, WWW,
etc.).
2.2 - Les structures de gestion et de management modélisent-elles les acteurs?
On peut se poser le problème, au vu de l’évolution de ces structures de l’interaction de celles-ci
avec les personnes qu’elles vont diriger et ainsi de leur poids sur l’économie. Il en est de même
pour l’entreprise, l’éducation et l’Etat. Je crois fermement, que lors de la mise en place d’un
système d’information, l’analyse des structures des concurrents, des alliés, des pays ou des
institutions qui feront l’objet de nos implantations commerciales, de nos transactions est une
nécessité. Cette analyse doit être faite sans concession en une sorte de «benchmarking» qui
soulignera notre avance ou notre retard, ou nos possibilités et la souplesse de notre système par
rapport à celui des concurrents. Cela nous donnera aussi une vision des habitudes et des
pratiques commerciales, voire même sociales de l’ensemble des partenaires ou des concurrents
embrassant le champ des nos activités. (Benchmarking the "External Technology Watching"
Process. Chevron's Experience. D.L. Ransley, Competitive Intelligence Review, vol.7-3, 1996)
Sans entrer dans le détail, on pourra aussi se référer au cas de la «non vente» des avions français
de Dassault Aviation à la Finlande, décrite par R. Guisnel dans le Point du 22 Février 1997. La
structure même de l’appareil d’Etat a conduit à un non échange de renseignement entre un
certain nombre de services et la Société française qui soumissionnait sur le terrain. Ce cas qui
selon Guisnel est du niveau de la «caricature» a été classé secret défense pour ne pas mettre en
lumière des pratiques de rétention digne d’un autre siècle.
Nous allons développer deux exemples plus simples, à la portée de tous, qui permettrons de
prendre conscience de l’importance de l’impact sur les hommes et les institutions des méthodes
de gestion
2.2.1 - Pour qui butinent les abeilles?
Pour faire mieux comprendre l’importance de cette analyse, nous allons nous placer dans le cas
d’une entité qui voudrait bénéficier de résultats gratuits dans le domaine de la recherche
fondamentale.
Une analyse mondiale des lieux où la recherche fondamentale est considérée comme étant une
sorte de nécessité, de devoir et de gratuité pour le monde, d’objet désintéressé permettra de
localiser quelques Pays, propices au développement de cette orientation. De multiples
institutions de recherche, souvent concurrentes, cherchent à promouvoir des règles de plus en
plus strictes (au fur et à mesure de la rareté des crédits) où la publication scientifique, le
colloque de haut niveau deviennent la réussite ultime, où les publications classées par ordre
hiérarchique peuvent constituer l’ultime parade pour avoir une bourse d’étude ou une création
de poste de chercheur. Dans un tel milieu, il va devenir très facile de réaliser une analyse
poussée des secteurs dont les résultats et les compétences pourraient être utiles. Reste alors
à mettre en place les conditions qui permettront de faire dévier une partie de la recherche vers
des thèmes non plus utiles au pays ou aux laboratoires qui travaillent sur ces derniers (souvent à
cause de la faiblesse ou de l’inadéquation de son potentiel industriel avec les recherches
entreprises), mais au pays tiers. Celui-ci pourra alors intégrer dans un puzzle planétaire les
résultats obtenus par d’autres à ses propres projets.
Ceci se fait généralement par le biais d’invitations, de groupes d’étude, de missions, de prise en
compte de communications dans des colloques prestigieux ainsi que des travaux des laboratoires
cibles identifiés dans la phase précédente. Cette approche est d’autant plus facile, qu’elle est
valorisante pour le laboratoire vis à vis de ses instances de Direction, l’interprétation étant
souvent réalisée par ces derniers au premier degré.
On aura ainsi réussi à faire ce qui est appelé généralement le «brain gain» qui conduit à faire
exécuter sur place le travail qui est utile à des tiers au lieu de déplacer comme dans le cas du
«brain drain» les spécialistes. Le gain est multiple puisqu’on bénéficie des résultats pour un
investissement quasi nul.
Le fonctionnement de ces méthodes est simple: lorsque le niveau de protection est fort, c’est à
dire lorsque les recherches sont finalisées en fonction de liaisons fortes avec des objectifs
industriels, on va essayer d’aller vers la naissance de l’idée plutôt que vers le résultats publiés.
En effet, ces derniers seraient alors trop anciens pour être directement intégrés aux
développements d’un projet ou d’un produit (deux à trois ans de travail sont souvent nécessaires
pour passer de l’idée à la publication). Dans d’autres cas, lorsque le programme de travail est à
plus long terme et que l’incidence commerciale est moins forte, on ira simplement générer les
idées de recherche chez ceux qui produiront ensuite à partir de celles-ci les résultats nécessaires
au développement des produits concurrents.
J’ai personnellement vécu des situations proches, lorsque j’étais Directeur de Recherche au
CNRS et que j’ai effectué plusieurs enquêtes internationales ( au moment de la première crise
pétrolière), puis lorsque j’ai représenté la France à la Commission Océanographique
Internationale. Cet aspect stratégique de production et de diffusion des connaissances m’a
conduit avec un groupe de chercheurs à approfondir ces notions, puis à quitter le CNRS pour
devenir Professeur à l’Université. En effet, les Sciences de l’Information, La Veille
Technologique, l’Intelligence Compétitive ne sont pas des domaines de recherche reconnus par
cet organisme. Peut être les discours peuvent ils marquer un attrait (et on rejoint ici le mal
Français d'Alain Peyrefitte), mais certainement pas la réalité des faits .
Un autre exemple proche des mêmes considérations est fourni par l’ADEME (Institution
française pour le développement des économies d’énergie). Les aides apportées à différents
partenaires industriels, après avoir selon ses missions accomplit un travail de structuration en
profondeur de la recherche de base dans les domaines des énergies renouvelables, ont conduit à
des développements, par exemple les pales d’éolienne de la Société A Tout Vent (ATV).
Mais, en même temps que se développait ce savoir faire, on ne prenait pas en compte la
nécessité de protéger ce capital. Actuellement, en Décembre 1996, la Société ATV a déposé son
bilan. L’investissement dans le domaine ne sera pas perdu pour tout le monde, et plus
particulièrement par les sociétés qui rachèteront celle-ci. Bilan de l’opération, un transfert
d’argent interne au pays, la création d’un savoir faire national, puis la perte de celui-ci à cause
d’une très faible exploitation industrielle. Dans ce cas précis, l’intervention et l'ingérence directe
n’ont même pas été nécessaires, l’organisme générant par sa structure les mécanismes
précédents.
2.2.2 - Les contraintes conduisent toujours à évoluer, mais
pas nécessairement dans le sens prévu.
Un travail récent publié dans La logique de la fraude, J.C. Ducatte, Humanisme et Entreprise,
100, 1996, pp.45 permettra de mettre certains comportements en lumière.
Citons l’auteur:
«Les comportements frauduleux de tous types se développent de façon exponentielle et s’organisent en de
véritables réseaux parallèles, mettant en danger les programmes gouvernementaux de réduction des
déficits, voire l’autorité de l’Etat. Plus grave une véritable «logique» de fraude se met en place ....»
De qui parle-t-on? D’un pays isolé d’Afrique ou de l’Est de l’Europe, de l’Italie avec l’opération
Manipullita, non, simplement de la France.
Si nous avons choisi cet exemple, traitant de la France, c’est bien pour interpeller le lecteur.
Mais, bien des ouvrages ont décrit la société parallèle «à l’italienne» et, lorsque celle-ci s’est
installée, les difficultés rencontrées pour revenir à une normale souvent perçue comme
contraignante et réductrice du développement ont été multiples. On peut citer à ce propos
l’Encyclopédie Universalis 1995:
"En 1967, la commission Katzenbach, dans son rapport intitulé The Challenge of Crime in a Free
Society, affirme l’existence d’une criminalité organisée comparable à une société criminelle, bien
structurée, habile à déjouer toute répression et qui s’infiltre dans certains secteurs de l’économie licite, y
introduisant l’esprit de cartel et les procédés susceptibles d’accroître la rentabilité et l’impunité. On dit
même que cette mafia moderne interviendrait à sa manière dans les conflits sociaux.....
Observons enfin que dans tous les pays socialistes s’est développée, en marge et à l’intérieur du secteur
d’État, une économie «parallèle»: semi-légale ou illégale, fondée sur la corruption et le détournement des
biens d’État à des fins privées, elle impliquait souvent une collusion entre la «mafia» et la nomenklatura
du parti, recréant un secteur privé par exploitation du secteur public."
Il est donc nécessaire, pour celui qui va s’engager dans une recherche d’informations pour
décision, de prendre en compte le contexte dans lequel il va évoluer. Mésestimer les
contraintes du aux pays, leurs caractéristiques à la fois sociales, techniques, les pratiques
qui y ont cours,.... c’est se placer en état d’infériorité devant le concurrent qui aura su se
doter des moyens d’information et d’analyse lui permettant une bonne connaissance du
contexte.
Pour ceux qui désireraient être informés plus particulièrement sur ce sujet, le livre publié par
l’Amiral Lacoste (Un Amiral au secret, Flammarion, 1997 voir aussi du même auteur la
Démocratie et les maffias, 1995) traitant de ce problème est particulièrement instructif.
2.3 - Les barycentres, les changements de référentiels
Nous allons réaliser dans ce paragraphe une présentation rapide de la nécessité de connaître les
référentiels (donc de mettre en place des procédures pour y accéder), ainsi que de déterminer à
partir de ces référentiels des barycentres de connaissances, d’intérêt... pour aider à la prise de
décision, ou pour mieux connaître les interlocuteurs avec lesquels nous devront dialoguer.
Pour illustrer ce propos, nous prendrons deux exemples. L’un, dont nous avons été l’un des
acteurs et qui concernait une section scientifique du CNRS. L’autre, qui consiste à ne plus
analyser un problème avec son propre référentiel, mais avec le référentiel de l’autre. Nous
insistons sur la transposition que devra faire le lecteur au niveau de ces deux exemples. La
notion de point de convergence, de la plus large base possible de discussion est un point très
important qui doit être dégagé lors de la construction de systèmes d’hyperinformation.
2.3.1 - Le Comité National du CNRS
Le Comité National du CNRS est formé de sections qui comprennent des membres élus ou
nommés. Ces sections, concernent des disciplines: chimie organique, économie.... et portent un
jugement sur la production scientifique des laboratoires, mais surtout sur le travail des
chercheurs. De ce fait elles assurent les avancements de carrières et le recrutement en postes dits
frais.
Leur rôle est donc important. Il est donc clair, qu’une des meilleures façons de dialoguer avec
les élus de ces sections, ou avec la section tout entière au niveau des réunions du Comité
National, c’est de comprendre les jeux des acteurs en présence, puis de déterminer le barycentre
scientifique autour duquel la meilleure compréhension possible sera obtenue. A charge ensuite
aux personnels des laboratoires appartenant à cette section de formuler les résultats et les
évolutions futures en tenant compte de ces paramètres.
Comment procéder?
La méthode est simple. Dans la majeure partie des cas, les personnes élues ou nommées ont une
formation scientifique qui les a conduit à publier leurs travaux, ou à diriger un laboratoire dont
les membres vont nécessairement publier. C’est la règle d’or: «publish or perish». Pour les
personnes venant de l’industrie, elles ont pu publier ou être inventeur d’un brevet, ou travailler
dans un laboratoire dont la dominante scientifique est connue.
De ce fait, il sera possible, pour chacune des personnes, de retracer, soit manuellement, soit ce
qui est généralement le cas informatiquement leur production scientifique. Ces données
permettront, par une analyse automatique de mettre en évidence les réseaux d’auteurs, les
adresses des laboratoires passés et présents, ainsi que le réseau des thèmes auxquels ces
chercheurs ont dédié tout ou partie de leurs travaux. Ces données sont aisément accessibles par
un simple télédéchargement (serveurs Dialog, Questel, Questel-Orbit, ESA...). Celui-ci
comprend, en fonction des bases de données utilisées, des codes (descriptifs des domaines
scientifiques), des noms d’auteurs, des adresses, qui seront si nécessaire homogénéisés. Ce
travail, pour une vingtaine de membres et pour une durée de vie de la section de 4 ans mérite
d’être réalisé.
Pour les personnes issues du milieu industriel, on ajustera une production scientifique
«virtuelle», en utilisant les mêmes codes que ceux utilisés par les banques de données consultées.
(Par exemple les sections des Chemical Abstracts qui divisent la chimie en quatre vingt domaines
scientifiques ou techniques).
Une fois le corpus réalisé, une simple analyse automatique se basant sur les principes de la
bibliométrie, permettra de tracer les différents réseaux, de déterminer des poids respectifs, etc.
Sur le réseau des noms d’auteurs, on placera ensuite les membres du bureau de la section
(personnages influents car ils distribuent les dossiers aux experts). Le réseau faisant apparaître
aussi les coauteurs, on aura des points d’entrée sur des personnes proches des élus.
On peut aussi, implémenter si nécessaire cette base de travail en indiquant pour chaque nom
l’appartenance syndicale, ce qui permettra de segmenter l’ensemble du corpus avec une donnée
non scientifique, mais tout de même importante.
On trouvera dans les chapitres suivants des exemples de graphes de thèmes et des
représentations tout à fait adaptées au problème traité ici. On n'a pas fait figurer ici de
représentations réelles pour éviter tout problème et toute polémique. Mais, cette méthode a été
utilisée avec succès. Elle rejoint, dans son essence même le chapitre traitant de l'information
d'influence et du lobbying, en mettant en place les bases de la communication d'influence qui sera
réalisée sur un certain nombre de cibles privilégiées.
De même la généalogie des élus peut être étudiée (filiation par rapport à un père puis à ses fils,
etc..) Cela permettra souvent de faire apparaître des lignes de force ou de répulsion qu’il est bon
de connaître.
2.3.2 - Analyse d'une communauté scientifique
L'exemple qui va être cité ici est extrait de l'habilitation à diriger des recherches (HDR) de Luc
Quoniam. (HDR, Analyse Bibliométrique d'un secteur de production scientifique, Université
Aix-Marseille, Faculté des Sciences et Techniques de Saint Jérôme, 13397 Marseille Cedex
20., 1996). Dans ce travail, l'auteur a analysé le positionnement de ses activités de recherche et
de sa production scientifique. Cette analyse est un travail de positionnement et de benchmarking
appliqué cette fois-ci à de la production scientifique. C'est une pratique qui devrait normalement
se généraliser. Il n'est pas question ici de porter un jugement sur la qualité du travail des autres
auteurs engagés dans le champ d'activité, mais de positionner les thèmes, de rechercher les
équipes réelles ou viruelles (cohortes d'auteurs publiant ensemble dans un intervalle de temps
donné), puis de tracer les réseaux d'auteurs pour déterminer les auteurs phares, etc.
Une analyse préalable des sources d'information a été faite en utilisant un cluster de diverses
bases de données sur le serveur Dialog. Ceci a permis d'extraite un certain nombre de notices
références d'articles traitant du sujet. Au paravant, une stratégie d'interrogation avait été réalisée
pour couvrir le champ d'activité du chercheur, dans le cas présent la bibliométrie, la
scientométrie, l'infométrie.
On peut aussi, et c'est l'exemple qui sera présenté ici, utiliser une base de données qui décrit bien
ces types de travaux et extrire ces derniers pour analyse de la base. Dans ce cas, c'est la base de
données PASCAL (INIST - CNRS) qui réponde le mieux. Ceci est important, car certaines de
bases de données, du fait de leur orientation anglo-saxonne trés marquée ne permettent pas une
couverture objective du champ d'activité. Ceci est le cas pour la base du SCI (Citation Index,
serveur DIALOG), qui est trés orientée vers des cibles anglaises ou américaines par un choix de
périodiques indexés restreint.
Nous avons déjà dit qu'une telle étude était à notre avis évidente. Ceci pourtant n'a pas été
compris dans ce sens par d'autres personnes, il a fallu situer le travail et légitimer ce choix. Voici
ce dit l'auteur Luc Quoniam à ce propos:
"Comme ces outils ont de plus en plus tendance à être utilisés dans le cadre de la programmation de la
recherche (au nom de l’évaluation), nous avons pris le parti de mettre en évidence dans ce travail
comment, à partir d’un corpus donné, on pouvait aborder, analyser, décrire et en quelque sorte modéliser
un champ d’action scientifique. D’autre part, la recherche échappe de moins en moins au principe général
de la concurrence. Cette concurrence est présente aussi bien sur le “ front ” scientifique, qu’au niveau de
la recherche de financement (institutionnel ou industriel), et surtout pour une reconnaissance par les pairs,
qui aboutira à une évaluation de la recherche. Cette concurrence joue également au niveau des étudiants
doctorants qui, à l’aide du fruit de leur recherche, doivent trouver du travail dans un contexte toujours
plus difficile. Le chercheur, ayant la responsabilité d’encadrer des étudiants doctorants, a alors le devoir
de se placer dans ce contexte concurrentiel. Diriger des recherches, c’est entre autres, être capable de se
positionner par rapport aux autres équipes nationales ou internationales, de s’auto-évaluer afin de pouvoir
se remettre en cause et sans cesse essayer d’améliorer ou d’orienter ses activités de recherche, ou la
perception de celles-ci, que ce soit par les pairs, les bailleurs de fond ou toute autre personne.
“ Elaborer une stratégie de recherche, c’est d’abord éclairer les enjeux. C’est organiser une
réflexion permanente, en amont, sur les orientations de la recherche nationale, en croisant les
approches et les objectifs des acteurs comme des utilisateurs de la science. ” F. Fillon "
Etant donné que nous analysons des productions scientifiques liées à des personnes physiques, nous
limiterons dans cet ouvrage public toute interprétation impliquant des personnes autres que celles de
notre équipe de recherche, ceci en accord avec les considérations éthiques en usage dans le domaine de
l’information
C’est également pour cette raison que nous avons choisi d’analyser une partie de notre domaine
(bibliométrie, scientométrie, informétrie) dans lequel les auteurs ont l’habitude de ce type d’approche et
ne s’en trouvent pas gênés. Ce ne serait peut-être pas le cas dans d’autres disciplines bien que la
transposition de ces méthodologies à d’autres domaines soit tout à fait possible si on peut faire valider le
corpus par des experts et si les conclusions des analyses sont réalisées en accord et/ou avec l’aide critique
de spécialistes. En outre, en étant en contact avec notre communauté par le biais du serveur de
l’International Society for Scientometrics and Informetrics (ISSI), nous sommes à même de répondre à
toutes les questions que pourraient susciter une telle étude.
J’ai délibérément choisi de mettre en avant les techniques et méthodes à travers une première
partie qui présente mes activités, puis à travers une deuxième partie constituée d’une analyse
bibliométrique des productions scientifiques de ce domaine . La mise en avant des techniques et
méthodes se justifie par leur grande part dans mon activité de recherche ainsi que par les considérations
éthiques déjà évoquées. De fait, l’analyse finale s’inscrit dans un domaine stratégique puisque la méthode
peut faire intégralement partie de la Veille Technologique ou de l’Intelligence Stratégique. Enfin, le type
d’analyse présenté ici est utilisé pour prendre des décisions stratégiques quant aux orientations de nos
recherches, cependant, si les travaux parus sont à caractère public, toutes nos nouvelles orientations ne le
sont pas, surtout dans une vision concurrentielle de la recherche. Ce qui explique que dans les
conclusions présentées, l’interprétation structurale et rétrospective est privilégiée face à
l’interprétation prospective qui doit intégrer d’autres éléments que l’information disponible
dans les bases de données, éléments qui ne sont pas forcément publics
."
Auteur Principal Nb Auteurs
du groupe
Fréq.
max.
Regroupement des principaux auteurs du domaine
Les différents groupes d'auteurs (laboratoires réels):
Groupe Pascal 4
Nombre d’auteurs dans le Groupe :11
Auteurs du Groupe :
VAN RAAN AFJ(18); NEDERHOF AJ(10); TIJSSEN RJW(7); MOED HF(7); PETERS HPF(4); NOYONS ECM(4); LUUKKONEN
T(4); PERSSON O(3); BRAAM RR(3); ZWAAN RA(2); DE BRUIN RE(2)
Copublication entre les auteurs
BRAAM RR [moed hf(2), van raan afj(2)]
DE BRUIN RE [moed hf(1), nederhof aj(1), zwaan ra(1)]
LUUKKONEN T [persson o(1), tijssen rjw(1)]
MOED HF [braam rr(2), de bruin re(1), nederhof aj(1), van raan afj(3)]
NEDERHOF AJ [de bruin re(1), moed hf(1), noyons ecm(2), van raan afj(3), zwaan ra(2)]
NOYONS ECM [nederhof aj(2), van raan afj(2)]
PERSSON O [luukkonen t(1), tijssen rjw(1)]
PETERS HPF [van raan afj(4)]
TIJSSEN RJW [luukkonen t(1), persson o(1), van raan afj(4)]
VAN RAAN AFJ [braam rr(2), moed hf(3), nederhof aj(3), noyons ecm(2), peters hpf(4), tijssen rjw(4)]
ZWAAN RA [de bruin re(1), nederhof aj(2)]
Affiliation de ces auteurs :
BRAAM RR [leiden, nld(3)]
DE BRUIN RE [leiden, nld(2)]
LUUKKONEN T [helsinki, fin(4)]
MOED HF [leiden, nld(6)]
NEDERHOF AJ [leiden, nld(9)]
NOYONS ECM [leiden, nld(4)]
PETERS HPF [leiden, nld(4)]
TIJSSEN RJW [budapest, hun(2), leiden, nld(6)]
VAN RAAN AFJ [leiden, nld(18)]
ZWAAN RA [leiden, nld(2)]
Journaux de publication :
BRAAM RR [aisjb6(2)]
DE BRUIN RE [scntdx(2)]
LUUKKONEN T [scntdx(3)]
MOED HF [aisjb6(2), scntdx(4)]
NEDERHOF AJ [aisjb6(2), scntdx(7)]
NOYONS ECM [scntdx(3)]
PETERS HPF [scntdx(3)]
TIJSSEN RJW [scntdx(4)]
VAN RAAN AFJ [aisjb6(4), scntdx(12)]
Années de Publication :
BRAAM RR [1991(2)]
MOED HF [1991(2), 1993(3)]
NEDERHOF AJ [1993(2), 1989(2), 1992(3)]
NOYONS ECM [1992(2), 1994(2)]
PERSSON O [1986(2)]
PETERS HPF [1994(2)]
TIJSSEN RJW [1990(2), 1993(4)]
VAN RAAN AFJ [ 1993(2), 1987(2), 1990(2), 1989(3), 1994(4), 1991(4)]
Thèmes des articles de ces auteurs :
BRAAM RR [bibliométrie(2), analyse citation(2), littérature scientifique(2), scientométrie(2), classification(2), code(2), analyse mots
associés(2), amas(2), cocitation(2), pondération(2), cluster word profile(2), contenu sujet(3), terme indexation(3)]
DE BRUIN RE [bibliométrie(2), analyse bibliométrique(2)]
LUUKKONEN T [europe(2), analyse bibliométrique(2), périodique(2), finlande(2), bibliométrie(2), evaluation(2), application(2), etude
critique(2), analyse citation(2), document publié(3), recherche scientifique(4)]
MOED HF [science(2), analyse bibliométrique(2), périodique(2), méthode(2), expérimentation(2), limitation(2), recherche
scientifique(2), scisearch(2), indicateur recherche(2), contenu sujet(2), terme indexation(2), classification(2), code(2),
analyse mots associés(2), amas(2), cocitation(2), pondération(2), cluster word profile(2), littérature scientifique(3),
discipline(4), scientométrie(4), analyse citation(4), bibliométrie(6)]
NEDERHOF AJ [ scientométrie(2), etude comparative(2), amérique(2), amérique du nord(2), echelon international(2), evaluation
performance(2), organisme recherche(2), etude critique(2), document publié(2), littérature scientifique(2), indicateur
recherche(2), sciences sociales(2), périodique(2), indicateur mesure(2), europe(3), méthode(3), pays bas(3), sciences
humaines(3), validité(3), littérature(3), analyse bibliométrique(4), evaluation(4), analyse citation(5), recherche
scientifique(6), bibliométrie(6)]
NOYONS ECM [echelon international(2), evaluation performance(2), organisme recherche(2), recherche développement(2),
cartographie(2), etude expérimentale(2), recherche appliquée(2), analyse mots associés(2), transfert(2), carte
bibliométrique(2), optomécatronique(2), relation science technologie(2), bibliométrie(3), recherche scientifique(4), analyse
bibliométrique(4), méthode(4)]
PERSSON O [bibliométrie(2), analyse bibliométrique(2)]
PETERS HPF [analyse citation(2), analyse bibliométrique(2), bibliométrie(2), evaluation(2), document publié(2), etude cas(3),
scientométrie(4), génie chimique(4)]
TIJSSEN RJW [analyse mots associés(2), carte bibliométrique(2), carte science(2), réseau neuronal(2), discipline(2), coopération(2),
structure domaine(2), multiple(2), indicateur(2), etude comparative(2), evaluation(2), périodique(2), astronomie(2),
astrophysique(2), science(3), recherche scientifique(3), représentation graphique(3), bibliométrie(4), analyse
bibliométrique(4), méthode(4), cartographie(4), echelle multidimensionnelle(4), scientométrie(5), application(5)]
VAN RAAN AFJ [application(2), représentation(2), travailleur scientifique(2), recherche développement(2), transfert(2),
optomécatronique(2), relation science technologie(2), indicateur recherche(2), relation(2), représentation graphique(2),
echelle multidimensionnelle(2), influence(2), astronomie(2), astrophysique(2), chercheur(2), classification(2), code(2),
pondération(2), cluster word profile(2), science(3), carte bibliométrique(3), document publié(3), citation(3), etude
expérimentale(3), recherche appliquée(3), périodique(3), contenu sujet(3), terme indexation(3), cocitation(3), amas(3),
littérature scientifique(4), etude cas(4), génie chimique(4), méthode(5), cartographie(5), evaluation(5), recherche
scientifique(5), analyse bibliométrique(6), analyse mots associés(6), analyse citation(10), bibliométrie(11),
scientométrie(11)]
ZWAAN RA [bibliométrie(2), sciences sociales(2), sciences humaines(2), littérature(2)]
On peut ainsi voir directement comment une analyse peut être effectuée à partir de sources
bibliographiques ouvertes. La même analyse peut être réalisée sur toutes données provenant
d'une base de données structurée. On voit donc tout l'intérêt pour une institution ou pour une
entreprise de constituer, si cela est nécessaire un capital d'information sous forme de bases de
données internes stratégiques.
L'ensemble de cette habilitation est disponible au format PDF sur le serveur: http://crrm.univmrs.fr/res-teach/staff/bibliom2.pdf.
2.3.3 - Le changement de référentiel
Le globalisme des économies, la diversité des nations qui évoluent sur la scène internationale
conduisent l’entreprise à prendre de plus en plus en compte les référentiels et les moeurs de ses
interlocuteurs.
On pourrait donner ici de multiples exemples à la fois politiques, religieux et économiques. Mais,
pour éviter toute polémique nous allons simplement citer une pratique qui est importante en
Asie. Les relations commerciales avec la partie du monde qui sera le lieux des affaires des
décennies à venir vont s’intensifier. Dans ce cadre, la connaissance de certaines pratiques sont
très importantes.
On citera par exemple la parole téléphonique: souvent, des affaires sont conclues par simple
accord téléphonique, on régularisera plus tard, mais on ne reviendra pas sur la transaction. C’est
une affaire d’honneur, de comportement. Celui qui transgresserait cette règle pourrait être mis à
l’écart du «groupe» et sans doute ne pas pouvoir (ou du moins n’y arriver que très difficilement)
rejoindre un autre «groupe». Avec cet éclairage, on peut analyser plus facilement les réactions
de la presse coréenne et du gouvernement coréen à la suite des différentes phases de la vente à
Daiwoo d’une partie de la Société Thomson (Thomson Multimédia). L’affaire était conclue,
mais, sous la pression des parlementaires et d’une partie de l’opinion française, l’affaire ne se fait
plus, on revient en arrière. En quelque sorte, on ne respecte pas sa parole, on «perd la face».
On ne mesurera sans doute que plus tard comment un fait de ce type peut faire du tort, non
seulement en Corée, mais aussi en Asie dans son ensemble, même si dans certains pays
l’animosité contre la Corée reste encore forte. En fait, à la stratégie et à la discussion
commerciale «à l’Occidentale», se superpose une notion plus floue, liée à la culture du pays et
dont il faut tenir compte.
Ce qui doit être évité à tout prix, c’est engager un effort important dans la collecte des
informations extérieures, puis, les interpréter comme si elles se situaient et interagissaient
dans la société française.
On peut aussi, dans le domaine des référentiels, citer en exemple la diminution quasi constante
de l’espace national. En effet, sur le plan économique, l’espace national se traduit par une unité
de marché, une stabilité relative des facteurs de production et de l’autorité de l’Etat. (Gauchon
Universalis Vers un espace économique mondial, 1996 pp.99-105) Hors, si on regarde
l’évolution du commerce international sous l’impulsion des Firmes Multinationales, on constate
que les échanges sont devenus mondiaux, que les flux de capitaux, que les cessions de
technologies, et que les flux transfrontières d’informations ne sont que très peu compatibles avec
la notion précédente d’espace national. Il faudra donc, tenir compte de ces facteurs, et ne pas
tout ramener, au plan des analyses et de la perception des contenus des informations à l’espace
économiquement trop restreint de la Nation.
C’est dans ce cadre que le terme GLOCAL est utilisé aux USA. Il est la contraction de deux
mots: Local et Global. Dans tout développement international, on va passer à partir du local
par une orientation nationale, puis, internationale. Ce passage s’accompagnera de deux faits
précis: un enracinement Local plus fort, une baisse d’activité au plan national.
Par exemple de grandes Sociétés Françaises internationales voient, sous la pression des
événements, évoluer leur chiffre d’affaire en 30% Français et 70% dans le reste du monde.
La figure suivante illustre ce fait, sans entrer dans les détails. Elle retrace l’évolution que nous
avons connue au CRRM depuis 12 ans: le passage du local au national, puis la baisse constante
de l’activité au plan national pour un enracinement local plus fort et un développement
international plus grand.
Ceci n’est du au hasard, mais simplement au fait que la recherche de partenariats internationaux,
la transposition de notre savoir faire la volonté d'échapper aux querelles nationales (le monde est
grand!) vous conduisent naturellement à ce type de configuration.
During those past twenty years we
move from local to GLOCAL
moves
Competitive Technical Intelligence
Glocal
Global
local
Technology Watch
National (hexagonal)
Documentation (online)
Local (feodal)
Strong change in goals and
organization
years
Le passage à l'international: du local au global, le Glocal
Le mise en pratique du passage vers le GLOCAL, nous a conduit, en tant que structure de
recherche et d'enseignement à nous orienter vers un redéploiement particulier, avec de fortes
interactions internationales et une forte assise locale.
From Local to Glocal
DEA, doctoral programs, post-doctoral collaborations
and research contracts with industries
Europe
North America
Luxembourg CRHPT
Portugal, Spain
USA
France
CESD (Paris)
Galveston
Marseille
Sophia
PACA
Brasil
Arbois Chateau
Antipolis
IDS
Rio de Janeiro
Gombert CERAM
Curitiba
Kuala-lumpur
Florianapolis
Indonesia
Canoas, Caxias
South America
Cilegon
Local = strong
Jakarta
National = weak
Bandung
International = strong
Asia
Surrabaya
CRRM
La situation actuelle du CRRM, un exemple de passage du local au Glocal
On constate un renforcement des liens et opérations locales avec les technopôles de l’Arbois
(IDS) de Château Gombert (Pépinières et ESIM), et de Sophia Antipolis (CERAM). En même
temps un seul laboratoire français reste concerné: le CESD Centre d’Etude Scientifique de
Défense situé à Marne la Vallée prés de Paris (on ne cite pas ici les laboratoires de la région). Au
plan International trois zones sont concernées, avec de fortes complémentarités entre zones:
Europe (Luxembourg, Portugal et Espagne à travers des programmes ADAPT de la CEE), le
Brésil avec un fort développement de le formation continue et certains cours du DEA Veille
Technologique et Intelligence Compétitive (Rio de Janeiro). En Asie, principalement l’Indonésie
avec des formations continues, des séminaires et une forte présence d’étudiants au CRRM. Le
relais vers ces pays est assuré par notre propre réseau, mais aussi par des institutions privées
(SFERE en Indonésie), ou par des agences de financement de projets (FINEP au Brésil).
Cette configuration, pour le moins originale pour un laboratoire universitaire, nécessite une
structuration des enseignements et des recherches particulière, avec un travail à distance qu’il
faut maîtriser, avec des déplacements fréquents qu’il faut assurer. L’ensemble est réalisé sur
une base d'autofinancement.
Cependant, ce type d’évolution est aussi favorisé par un moindre coût des transports au plan
international: Marseille Rennes revient à 4.400 fr. en avion! Marseille New-York à 2.200 fr.,
ainsi que par un développement constant des facilités de communications informatiques, entre
autre internet.
3 - Le concept d’Intelligence Compétitive ou d’Intelligence
Economique
L’Intelligence Economique ne doit pas être réduite à la simple collecte des informations, même
si elles proviennent de l’Internet!. Elle va nécessiter un usage intensif d’informations de natures
très diverses. Elle sera aussi caractérisée par la manière dont les informations sont utilisées pour
dégager une pensée latérale, pour maîtriser les conflits, pour minimiser les risques et pour en
somme acquérir un esprit «guerrier»... Il est donc évident que les informations nécessaires seront
très diverses, mais devront dans cette diversité être soigneusement sélectionnées. L’objectif est
d’agir vite, de façon efficace, en se trompant le moins possible. Ce n’est donc pas le volume
d’information qui va jouer, mais tout le travail préalable à son utilisation: la détermination des
cibles, la collecte, l’analyse, la compréhension des relations existant entre les informations. C’est
en ce sens que le couple Intelligence Economique, hyperinformation ne peut que difficilement
être dissocié.
Ensuite, l’attitude personnelle devant l’information elle même, son intégration dans la décision et
dans la stratégie de l’entreprise compléteront l’ensemble précédent.
L’analyse effectuée dans les chapitres précédents nous a montré comment un certain nombre de
facteurs devaient être maîtrisés, tant au plan de l’information qu’au niveau de l’action pour
rester toujours compétitif et assurer aux entreprises un avantage par rapport à leurs concurrents.
La nécessité d’intégrer dans la décision une réflexion plus globale est une nécessité. Cela veut
dire que l’ensemble des systèmes d’observation qui sont souvent mis en jeu séparément et avec
un cloisonnement plus ou moins grand dans les entreprises, verront leurs résultats rassemblés et
analysés par un service spécialisé qui de ce fait embrassera l’ensemble des paramètres qui sont
nécessaires à la production d’informations pour décision.
C’est cette nécessité de rassembler les résultats de l’ensemble des Veilles, des surveillances dans
un même système qui donnera toute la qualité et l’efficacité au service qui se chargera de cette
mission. Le nom d’un tel service est plus ou moins «ronflant» selon les entreprises, les personnes
concernées et les jeux de carrières. Disons que ce service relève de la stratégie, mais aussi au
niveau de l’hyperinformation d’un véritable service de renseignement avec les personnes
nécessaires au développement d’un plan de renseignement, puis celles nécessaires pour aller
chercher sur le terrain les informations, et ensuite le niveau d’analyse et de validation.
On peut schématiser la partie observation et recherche du renseignement de la manière
suivante:
Organisation du renseignement
Transmission
Vision et questions asociées
Validation et
compréhension
Plan de
renseignement
Sources
Qui va
Rechercher les
Informations
Coût difficulté
Collecte des Informations
Organisation et
recueil des informations
formelles et informelles
CRRM
Organisation du renseignement dans une entreprise ou une institution
Bien souvent, on entend dire à propos des PME et PMI, que rares sont les sociétés qui ont une
stratégie! Je pense que cela est faut compte tenu du fait simple, qu’existant encore elles doivent
se battre et donc avoir tout de même une vision de leur avenir. Par contre, rares sont celles qui
ont mis en place, à côté de leur vision et des questions suscitées par cette dernière un plan de
renseignement. On pourra lire à ce propos: La prospective stratégique d'entreprise, J. Lesourne
et C. Stoffaes, Lavoisier 1997.
Le plan de renseignement
Généralement, quand on se déplace et que l’on veut aller quelque part, on détermine un
itinéraire, on va demander les horaires des trains, comparer avec ceux des avions ou avec
l’utilisation de sa voiture, on comptera les journées d’hôtel, le temps passé en déplacement, etc.
Ce travail conduit à un ensemble d’informations validées qui conduira à l’achat du billet.
Ensuite, le ou les billets seront transmis à la personne concernée qui réalisera l’acte final, c’est à
dire l’action de partir pour se rendre à l’endroit décidé.
Il en va de même dans un plan de renseignement.
La vision de l’évolution de l’entreprise va conduire à se poser des questions, dont les réponses
ne sont pas nécessairement au niveau des informations techniques, scientifiques, ou technicoéconomiques. Cette étape va se prolonger au niveau de la détermination des sources possibles
d’informations pour répondre à ces questions, puis de la connaissance des acteurs qui vont aller
«les chercher», que ce soit au niveau du service de documentation, du terrain, ou d’agents
d’influence que l’on peut connaître ou entretenir. Nous exposerons, au sens strict de
l’information documentaire, comment il faut avant de se lancer dans une recherche analyser les
sources d’informations (les bases de données disponibles), puis les valider. Ici, le problème posé
est plus large puisque l’on ne se préoccupe pas d’une question bien précise, mais d’un ensemble
de questions associées au devenir de l’entreprise.
La maîtrise du plan de renseignement nécessite bien entendu une connaissance très poussée de
toutes les personnes susceptibles de renseigner l’entreprise, que ces personnes soient internes ou
externes. Elle nécessite aussi une bonne connaissance des lieux privilégiés (colloques, réunions
ou manifestations existantes ou provoquées si on en a les moyens, etc..). Elle doit aussi être
couplée avec un travail de fond sur la connaissance des cibles potentielles, c’est à dire une bonne
connaissance des experts du domaine, des laboratoires d’excellence si on est en milieu
recherche, ou de la manière dont on peut diminuer l’interface entre la cible potentielle qui détient
les informations et la personne de l’entreprise qui doit aller «les chercher».
Cette partie du plan de renseignement est essentielle. Bien que le système complet, sur le
plan de la méthode paraisse compliqué, celui-ci peut être simplifié et adapté au besoin de très
petites entreprises si nécessaires.
A mon avis, c’est à l’intersection de la vison de l’entreprise, des questions posées par celleci et du plan de renseignement que se situe l’étape décisive.
La seconde étape, va consister à valider les informations transmises, peut être à les compléter, et
aussi à comprendre leur importance. Ceci conduira à l’étape de transmission qui permettra
ensuite l’intégration de ces informations dans la prise de décision. Au niveau «militaire» on dirait
que ce ne sont pas les mêmes personnes qui agissent dans les différentes étapes. Mais, pour une
entreprise cela peut être différent, compte tenu des moyens, des personnes misent en jeu, etc.
Dans les très grandes entreprises (multinationales...) on retrouvera une forte analogie avec le
renseignement militaire, dans une PME, ce qui comptera surtout ce sera l’esprit, la méthode, et
la mobilisation des moyens qui sera primordiale.
Je pense que l’Intelligence de l’entreprise et de ses dirigeants commence à ce niveau. Il est
fondamentalement différent du système documentaire, des dossiers techniques, de l’information
brevets, de l’information économique,..etc. En fait c’est un tout, que certain segmentent selon
les besoins en différents types de veilles, de surveillance, de «benchmarking».
Nous allons donc reprendre un certain nombre de Veilles, pour les situer et montrer ensuite
comment on va globaliser les résultats.
3.1 - Le déroulement des Veilles
On entend souvent parler de Veilles Technologique, Scientifique, Concurrentielle, Financière, de
Benchmarking, de Veille globale, etc. Cette terminologie recouvre en fait la même
préoccupation et les mêmes méthodes. Essayons d’y voir un peu plus clair.
3.1.1 - La création d’un produit et son passage dans le domaine commercial
On peut schématiser rapidement le passage de la Veille Scientifique, Technologique et
Concurrentielle au cours de la vie d’un produit. Le schéma suivant montre simplement comment
cela se passe. Ce n’est volontairement pas un schéma détaillé, l’objectif de cet ouvrage n’étant
pas de se perdre dans les détails, mais de donner au lecteur un certain nombre de clés
susceptibles de l’aider dans sa réflexion.
Veille Technologique et Veille Commerciale ou Concurrentielle
Intensité de la
Veille
Veille
Veilles
Commerciale
et
Concurrentielle
Technologique
Second souffle
Technologique
Temps
La Veille Technologique se s'arrête pas, mais elle diminue
lorsque le produit passe au stade de la fabrication et du marché.
Quand les ventes faiblissent un second souffle peut être nécessaire.
Positionnement dans le temps de différents types de veilles
On peut considérer qu’avant de lancer la conception et même au cours de la conception du
produit la Veille Technologique sera forte. Une fois que le produit passe sur le marché, et même
un peu avant, ce sont les Veilles Commerciale et Concurrentielle qui sont majoritaires. Lorsque
le produit commence à «faiblir», ou que de nouveaux produits concurrents apparaissent, un
second souffle technologique peut devenir nécessaire pour «revamper» le produit ou redéfinir
une nouvelle qualité perçue par le consommateur.
Ces derniers points sont centrés sur la technologie et le commercial. Mais, il faut bien
comprendre que d’autres Veilles seront aussi nécessaires: par exemple la Veille d’Influence et de
Lobbying, la Veille Géopolitique, etc.. Dans les chapitres traitant plus particulièrement des
informations, nous reviendront brièvement sur les informations d’influences et sur le lobbying.
De même, certaines sociétés de consultants regroupent des industries sur un domaine donnée et
réalisent des études génériques sur les technologies, les brevets cessibles etc.. par exemple aux
USA MCC Global Technology Services ([email protected]) propose (Competitive Technical
Intelligence Symposium, Boston, Feb. 20-21, 1997) propose l'approche suivante:
Les cycle technologiques et les cycles de vie des produits
On retrouve sur cette approche les différents traitements de l'information; analyses globales
bibliométriques au niveau de la science, donc très en amont, l'utilisation des brevets au niveau
des technologies, l'aspect commercialisation et les éléments d'information sur ce thème lorsque la
technologie est mature ou sur le déclin.
3.1.2 - Le benchmarking
Le benchmarking peut être considéré comme un étalonnage des performances de soi-même ou
d’une société ou d’une institution par rapport à une autre entité. De nombreux ouvrages et de
nombreuses conférences sont organisées sur ce thème. Nous allons simplement présenter les
quelques points qui nous paraissent importants et qui nous semblent liés à l’hyperinformation.
Tout d’abord, de même que dans le domaine de l’hypercompétition, les experts engagés dans ce
processus doivent travailler en groupe et doivent appartenir à des services différents et
complémentaires de la société.
Ensuite, le benchmarking n’est jamais global. On travaille toujours en se fixant un objectif réduit,
bien précis, généralement axé sur une faiblesse de notre société. Par exemple comment accélérer
la facturation ou le service après vente? Comment nos concurrents gèrent ils leurs cadres?,
Quelle est la politique de propriété industrielle? Quels sont les sujets protégés? ..etc.
Cette approche fractionnée qui est à notre avis la meilleure, pose le problème de l’étalon de
comparaison. Il est évident que l’on peut réaliser le benchmarking d’un procédé ou d’une tâche
telle que la facturation, ou on peut vouloir comparer directement une de nos pratiques avec celle
d’un de nos concurrents directs: comment les cadres sont ils gérés.
Dans le premier des cas, le choix de l’étalon de comparaison est simple: on prend l’entreprise qui
réalise la tâche la plus proche et qui est la meilleure dans le domaine, même si celle-ci n’est pas
active dans notre secteur de travail. Par exemple la gestion et l’acheminement des lettres et des
paquets dans une entreprise du type DHL ou Chronopost,... pourraient être comparés au tri des
chèques et à leur acheminement vers les banques débitrices. C’est la fonction de tri et
d’acheminement qui est importante.
Dans le second cas, il est évident que la cible est fixée par avance, c’est un concurrent direct.
Pourtant, dans un deuxième temps, si on veut améliorer ou affiner ou complémenter les
conclusions, on pourra choisir un autre étalon: une entreprise connue pour avoir une certaine
paix sociale et des cadres stables et heureux!
Mais, même si le choix de l’étalon peut poser problème, la véritable difficulté du benchmarking
c’est d’accéder aux données qui permettrons de réaliser la comparaison réelle avec le
concurrent. Par exemple, si le traitement d’une facture va deux fois plus vite chez un concurrent,
on peut mesurer ce temps de traitement en achetant un produit et en voyant à quel moment la
facture arrive. Mais, cela n’est que le résultat de l’action, la difficulté sera de réellement réunir
les informations des différentes phases de traitement chez le concurrent afin de les comparer aux
nôtres.
On voit ainsi en quoi, les données nécessaires au benchmarking sont très proches de celles,
informelles, très utiles en hypercompétition. Méfions nous donc des officines qui vont nous
apprendre à réaliser un benchmarking. Elles procèdent généralement par comparaison externe (le
temps de facturation), mais souvent elles sont muettes sur les stratégies permettant d’accéder
aux véritables données et processus en fonction chez le concurrent.
Une bonne vision de l’Intelligence Economique (Competitive Intelligence en anglais) est donnée
dans un article de Business Week du 28 Octobre 1996, p.73-76:
«The number of large corporations with CI units has tripled since 1988 to about 10%, estimates David H.
Harkleroad, director of Business Intelligence for Future Group Inc. a Glastonbury (Conn.) conculting
firm. CI «is imperative for survival», declares Robert C. Mauch, retired president and CEO of UGI
Corp.’s AmeriGas Propane Inc., a $1 billion Valley Forge (Pa.) gas marketer.
What is competitive intelligence? It is not illegal spying or theft of trade secrets. Rather, il is much like
the classic intelligence gathering that has long been used to guide public policy. But in the corpôrate
world, CI experts have a more prosaic goal: to give executives a systematic way to collect and analyse
public information about rivals and use it to make decisions. «I don’t ever want to be in a fait fight, «says
Quaker State Corp. Chairman and CEO Herbert M. Baum. «I want an edge everyplace I go.».
3.2 - Les décalages
L’ensemble des éléments qui constituent l’Intelligence Economique conduisent à un état
d’esprit, une façon d’être qui modifiera sans doute l’entreprise dans ses fondements même. Les
progrès des technologies de communication, de recherche, d’analyse de l’information, la
possibilité de valider des hypothèses très rapidement, d’évaluer les risques, ... sont au coeur
d’une réflexion qui touche le fondement même de la société: le décalage.
Examinons la figure suivante, qui brosse très rapidement l’évolution globale de la vitesse
d'évolution d’une entité A (ligne pointillée) par rapport à l’évolution globale du monde qui nous
entoure, l’entité B (ligne continue):
Le Décalage, un fait fondamental qui va
bouleverser les sociétés
Décalage
A est de plus en
plus décalé
A est en avance
B
A
Point critique
Temps
On vivait les décalages sur 20 ans, on les vit sur 20 mois
CRRM
Le décalage, ou positionnement par rapport au point critique
Ainsi, une entreprise qui ne sait pas apprécier quand le point de croisement s’est produit, ou
quand il va se produire se trouvera en position d’infériorité, souvent tragique, sans s’en rendre
compte. Ayant toujours l'impression de bien faire (selon les critères et les standards du
passé), elle ne comprendra pas ce qui lui arrive et ne pourra pas réagir.
Malheureusement, cette situation n’est pas présente qu’au niveau des systèmes d’Intelligence
Economique, de Veille ou de l'Information, mais aussi dans bien d’autres secteurs de la société,
par exemples la pénétration des ordinateurs à l’école et dans les foyers, l'accès gratuits à certains
programmes télévisés, l’action des groupes de consommateurs, la publicité donnée aux accidents
industriels ou nucléaires (rappelons nous la trajectoire du nuage radioactif venant de Tchernobyl
sur l’Europe de l’Ouest: il s’était tout bonnement arrêté à notre frontière!), etc...
Le Benchmarking que l’on vient de voir brièvement peut être une manière d’analyser les
décalages. C’est à dire de mettre en situation l’évolution des systèmes au plan des concepts, des
méthodes, des outils et des moyens par rapport à sa propre entreprise et par rapport aux
concurrents. Cette technique permet aussi, en étant conscient par exemple au niveau des
systèmes d’information de ses propres faiblesses (souvent financières, de compétences ...) de
voir à quel moment, face à des concurrents plus actifs ou dotés de moyens plus puissants, le
point d’inflexion va se produire. Ceci permettra de réagir, de s’adapter, de rechercher des
alliances, ... en fait de ne pas subir.
Une autre vision du décalage a été présenté par Yves Le Coadic dans un article publié dans Le
Monde du 13 Juin 1997 page 13. C’est ce que l’on nomme «principe de Mathieu»:
«à tout homme à qui l’on donnera, il aura du surplus; mais à celui qui n’a pas, on enlèvera même ce qu’il
a». (Evangile selon Saint Mathieu)..... Récemment des chercheurs allemands en science de l’information
ont eu l’idée de vérifier la pertinence de ce principe en ce qui concerne la recherche scientifique de
différentes nations. .... La France fait maintenant partie du groupe des pays pauvres en science. Et elle
risque de le devenir encore plus selon le «principe de Mathieu». Certains indicateurs ponctuels, comme le
faible nombre de chercheurs français membres des comités de lecture des revues internationales, le faible
nombre d’inventions brevetées, le nombre limité d’intervenants français dans des conférences
internationales, dans les Instituts de haut niveau le laissent présager. .... Mais la baisse constante, ces
dernières années, de l’effort de recherche en termes de crédits... de main d’oeuvre, de bourses doctorales,
etc... explique cette pauvreté. Et laisse deviner, si rien n’est fait, le déclin inexorable de la science
française.»
On constate ici, exprimé en d’autres termes, la notion d’accroissement du décalage,
principalement du à des courbes de croissances différentes. Cet article montre aussi, comment
des indicateurs simples permettent de créer des signaux révélateurs du positionnement. Dans le
cas présent, le point de croisement est dépassé, et on se trouve dans la partie droite du graphe, là
où, même avec un taux de croissance positif, le décalage va s’accroître. L’importance des
signaux est nécessaire, mais, positionner leur résultante sur une courbe de croissance, et
comparer celle-ci à d’autres courbes de croissance (autres pays, autres régions du monde....) est
encore plus révélateur. On associe ainsi la connaissance des décalages avec la notion intuitive de
«Benchmarking».
Mais, la notion de décalage peut aussi être induite par des faits mécaniques. Nous livrons ici
cette observation: "nous vivons de plus en plus vieux". Voyons comment, sur le plan de l'analyse
au second degré cette information peut être perçue et qu'elles pourraient en être les
conséquences:
Cette information a pour conséquence un accroissement du décalage au niveau de la répartition
des richesses. Comment arriver à cette idée, en partant de l'information précédente ?
Prenons un exemple, une personne, a économisée toute sa vie et a ainsi un patrimoine important,
de l'ordre d'un million et demi de francs par exemple. Ses enfants, et ses petits enfants ont une
situation (certains des petits enfants vont encore à l'Université, d'autres sont en recherche
d'emploi). Mais, ce contexte ne leur permettra que difficilement d'aider les grands-parents au
niveau financier de façon efficace.
La personne en question, à 85 ans tombe malade, ou subissant les atteintes de la vieillesse, ne
peut plus assurer elle même son entretien. Il faut donc qu'elle aille dans une maison de retraite
spécialisée, ou qu'elle soit assistée en permanence à domicile. Qu'en est-il ? L'assistance à
domicile, du fait des charges sur les salaires impliqués devient rapidement non envisageable. De
ce fait, la solution de la maison de retraite est adoptée (de l'ordre de 9.000 à 12.000 fr. par
mois). Ceci conduit alors à une concentration du capital, puisque les sommes versées, seront
utilisées à la fois pour rembourser entretien, emprunts, ... qui ont servis à la construction de la
maison de retraite, puis aux salaires personnes assurant le travail dans la maison, et aussi à la
rétribution des actionnaires de la Société créatrice à qui appartient la maison en question.
Ceci n'est qu'un exemple, bien sûr on peut adapter la discussion, ne pas être d'accord, etc... mais
simplement on voit comment une information peut être analysée de façons différentes. Ici sur le
plan des décalages du patrimoine, là sur le fait que les retraités constituent une nouvelle cible
pour la consommation, etc... On retrouve un grand principe: une information n'a de valeur qu'en
fonction de ce que l'on va en faire, ce qui implique une vision du développement et une stratégie
pour mieux anticiper.
4 - L’hypercompétititon
Toutes ces considérations sont bien bonnes, mais pour moi, entrepreneur, au delà des
discours que dois-je faire? On a va donc aborder, dans ce chapitre le concept d’hypercompétition. Nous avons vu rapidement les différentes visions qui conduisaient à l’Intelligence,
en globalisant les systèmes d’information en fonction d’objectifs précis, et en développant
ensuite une stratégie de recueil, de management et d’analyse, puis de compréhension. Nous
allons maintenant nous mettre à la place d’une entreprise pour aborder certains concepts de
compétition.
Le but poursuivi n’est pas de reprendre en détail le livre de Richard D’Aveni (Hypercompétition
Richard d'AveniVuibert, 1995), clair, pratique et d’une utilité sans doute encore plus forte pour
les personnes faisant métier d’information que pour les économistes. Mais, dans l’approche de
ce dernier, la mise en évidence des changements de comportement, la nécessité de changer en
permanence les règles du «combat», de redéfinir en permanence la qualité perçue, ou de changer
de théâtre d’opération pour rester maître des prix et dominer les concurrents sont des concepts
fondamentaux qui au-delà de leurs implications dans le domaine économique, ont des
répercussions importantes dans le domaine de l’information. On trouvera aussi dans le livre écrit
par Annick Renaud Coulon (La désorganisation Compétitive, Maxima, Paris, 1996 ISBN 284001-126-3) de multiples références au travail de Richard d'Aveni, non pas dans le domaine de
l'hyperinformation mais dans celui des changements organisationnels dans l'entreprise.
Dans le domaine de la Veille Technologique, de nombreux ouvrages:
Pratique de la Veille Technologique, Jakobiak F. Editions d'Organisation, Paris, 1991 ISBN
2-7081-1262-7- Exemples commentés de Veille Technologique, Jakobiak F., Editions
d'Organisation, Paris, 1992 -Le management des technologies, Martinet B., Ribault J.M.,
Lebidois D., Editions d'Organisation, Paris, 1991 - Des technologies, des marchés et des
hommes, , J. Morin, Edition d'Organisation, Paris, 1992 - L'entreprise face à la mutation
technologique, Smail Ait-El-Hadj, Editions d'Organisation, Paris, 1990 - Le Management
stratégique de l'innovation, Broustail J., Frery F., Précis Dalloz, Paris, 1992 - Stratégies
Technologiques et Processus d'Innovation, Larue de Tournemine R., Campus Entreprise
Université, Editions d'Organisation, Paris, 1992 - Le marketing technologique, Dayan , Que
sais-je, Paris, 1991 - Veille Technologique, Dou H., Techniques pour l'Ingénieur, T-45 pp.119, 1997 - Veille Technologique et Compétitivité, H. Dou, Dunod, 1995 ISBN 2-10-002815-4
- Veille Technologique, H. Dou, H. Desvals, Dunod 1992 ISBN 2-10-000246-5, Le
Management des Ressources Technologiques, J. Morin, R. Seurat, Les Editions
d'Organisation, 1989, ISBN 2-7081-1058-6)
ont bien décrits un certains nombre de méthodes, d’outils, de mise en place de systèmes de
Veille. De même au plan de l’Intelligence Economique de nombreux ouvrages décrivent les
menaces tant physiques que commerciales sans pour autant aborder un point qui semble crucial:
celui de la mise en perspective de l’information par rapport au positionnement des entreprises
sur un marché, puis ensuite de la manière dont doivent être formulées les bonnes questions (non
pas au sens documentaire du terme), qui seront directement liées aux informations à rechercher
et donc à la stratégie, à la vision que doit avoir l'entreprise de son devenir.
4.1 - Où nous battons nous?
Les entreprises, sont généralement en compétition dans quatre domaines, quatre plans ou quatre
arènes pour utiliser un langage plus imagé. On peut, typer ces quatre plans de façon relativement
précise, en dessinant leurs contours. Nous n’avons pas pour objectif de reprendre ici un cours
d’économie, mais d’essayer de nous appuyer sur les travaux de D’Aveni pour donner au lecteur,
peut être peu familier avec ces concepts, des points de références.
4.1.1 - Il existe quatre domaines dans lesquels la compétition va s’exercer
Le premier peut être décrit par la relation entre le prix et la qualité perçue par le consommateur.
Le deuxième, par les introductions de technologies, les changements technologiques qui vont
permettre à une société industrielle ou commerciale de passer dans une autre phase de
compétition, pour gagner de nouveaux marchés et pour gagner des avantages par rapport à ses
concurrents. Le troisième fait référence aux «forteresses» qui étaient par le passé élaborées
autour d’une activité ou d’un produit pour rester maître du marché. De nos jours bien des
stratégies permettent de «casser» cette façon de procéder et de la reléguer au niveau d’anciennes
pratiques ayant peu de rapport avec la compétition actuelle ou à venir. Le quatrième enfin est
celui des «deep pockets», sociétés, voire états, qui peuvent lorsque cela est nécessaire investir
massivement et longtemps dans une activité donnée, même si celle-ci n’est pas directement
rentable.
En ce qui concerne l’information à la foi formelle et informelle, scientifique, technique, technicoéconomique et d’action (celle qui va concerner les biens, les personnes, les acteurs directs mis en
jeu dans la compétition), ce sont les deux premiers domaines qui sont les plus concernés, et nous
allons brièvement les décrire.
4.1.2 - Prix et qualité perçue, l'un des domaines les plus importants
Lorsqu’on achète un produit, lorsqu’on utilise un service, ces derniers se situent dans un plan
que l’on peut représenter par un diagramme portant en ordonnées le prix, et en abscisse la
qualité perçue. On entend par le prix, celui que va payer le consommateur, et par qualité, non
pas la qualité intrinsèque du produit, mais ce qui est plus subtil, la qualité perçue par le
consommateur.
La figure 1 représente la situation de trois sociétés A, B, C dans ce diagramme, ces sociétés
étant concurrentes au niveau de leurs produits et de leurs offres de services.
Prix et Qualité Perçue
• La position de A dépend des mouvements
de B et C
C
Prix
A
haut
B
$
UV Valeur Ultime
bas
Qualité Perçue CRRM
Un premier champ d'affrontement: le pris versus la qualité perçue
Si la stratégie des entreprises s’exerce, comme il est logique que cela soit, (on ne peu pas rester
immobile), elle va conduire une société, A par exemple à réaliser un certains nombre d’actions
qui la conduira à se positionner différemment dans ce plan. Par exemple elle pourra viser une
légère augmentation de qualité tout en gardant son prix constant, afin de gagner sur le
positionnement de la société C (en fait essayer de gagner de nouveaux clients, donc de nouvelles
parts de marché). Mais, le nouveau positionnement de la société A, a bien une valeur
intrinsèque, mais il vaut surtout par le positionnement qu’il induit au niveau des trois sociétés A,
B, C. C’est ainsi que cela conduit, si en même temps la société C décide une baisse importante
du prix de ses produits cela mènera à un positionnement réel de la société A qui sera totalement
différent de ce qu’elle avait prévue dans sa stratégie, et qui en outre ne sera pas à son avantage.
Prix et Qualité Perçue
• Une stratégie n'est jamais indépendante !
haut
A améliore sa qualité
A
$
C C diminue ses prix
B
bas
UV Valeur Ultime
Qualité Perçue
CRRM
On ne peut plus agir de façon indépendante. Les stratégies ne sont que relatives
Cela introduit un première notion:
Sa propre stratégie ne peut pas être réfléchie indépendamment de la stratégie des autres.
Nous ne sommes pas seuls.
Dans ces repositionnements constants qui caractérisent les sociétés qui se situent dans ce plan de
concurrence, les entreprises sont inévitablement entraînées vers un positionnement (Ultimate
Value selon d’Aveni) qui conduit à proposer des produits de bonne qualité pour un coût de plus
en plus faible. On voit tout de suite que dans de telles circonstances, que soit on périt par
diminution constantes des bénéfices, soit on accroît en permanence son marché pour maintenir
un niveau de bénéfice acceptable. Cette situation, conduit alors les entreprises à essayer de se
repositionner dans ce diagramme par diverses actions: soit rester dans le même plan et changer
un certains nombre de règles, entre autre la qualité perçue, soit passer dans un autre plan en
modifiant suffisamment les produits en utilisant des technologies nouvelles, etc...
A propos des prix, il faut citer une méthode globale nouvelle qui se développe surtout en
électronique. La globalisation introduisant de nouveaux paramètres, tant au niveau des coûts de
fabrication que de ceux des composants, ou des droits de douane selon les pays d'exportation ou
d'importation, il va falloir prendre en compte cet ensemble pour calculer le meilleur prix
possible.
C'est ce que l'on nomme la méthode CAI: Coût Asymptote Instantané qui est développée par
François Bus (La stratégie du Meilleur Prix de Revient, Les Editions d'Organisation, 1995,
ISBN 2-7081-1773-4. Voir aussi http://[email protected]).
La CAI est une méthode globale qui intègre les autres méthodes de réduction des coûts (Benchmarking, conception à coût objectif, ingénierie simultanée, Time based compétitiveness, ...).
Citons François Bus:
"...Il est essentiel de connaître le coût asymptote instantané, car c'est le coût auquel vous pourrait
fabriquer vos concurrents. Le coût asymptote instantané ne représente souvent que la moitié de votre prix
de revient actuel, parfois seulement 20%, voire 10%. C'est aussi le coût auquel vous pourriez fabriquer
pour prendre un avantage décisif, sur les meilleurs."
4.2. - Les changements de règles
Généralement, les changements, une nouvelle définition des règles (entre autre de la qualité
perçue...) se produisent souvent imbriqués c’est à dire avec pour objectif de redéfinir la qualité
en introduisant un certain taux de changements technologiques, voire de simple publicité ou de
changement de packaging !
4.2.2 - Prenons comme exemple les voitures
Dans les années 60, le design, l’aspect (d’ou le concept de «Belle Américaine») participait très
largement à la notion de qualité perçue, dans la décision d’achat. La dauphine se transformait en
Caravelle, etc. Mais, après le premier choc pétrolier, la brusque augmentation du prix des
carburants a fait évoluer le concept de qualité perçue. Le moteur devait être économe, la
consommation de la voiture jouait un rôle important dans la décision d’achat. Ceci a été valable
pendant plusieurs années, mais, sous l’effet d’un certain nombre de fabricants, entre autre
scandinaves et japonais, de nouvelles motivations ont été avancées, entre autre le concept de
sécurité. On achetait une voiture, entre autre pour la sécurité qu’elle vous procurait: «caisse
autodéformable», air bags, volant rétractable, etc. C’est actuellement un aspect non négligeable
de la qualité perçue, mais celui-ci est entrain d’évoluer vers le confort sous toutes ses formes du
ou des passagers. En effet, on passe de plus en plus de temps dans sa voiture avec des
environnements plus ou moins agressifs (odeurs, gaz d’échappements, poussières dues au fioul,
bruits...). Ce nouveau concept assez lié à la pollution de l’air et à la pollution sonore est entrain
d’apparaître. La croissance des allergies, l’introduction de plus en plus fréquente du
conditionnement de l’air induisent l’apparition de filtres de plus en plus performants... et une
publicité ciblée sur le confort. On peut noter que cette notion est déjà introduite de façon plus
marquée au niveau de transport aérien, avec la couchette privative d’Air France, ou la «sphère
reposante» d’Américan Air Lines.
4.2.3 - Le passage du produit au service
Une autre manière de changer les règles consiste aussi à passer par exemple du produit au
service, à la fois pour redéfinir les règles, aller vers de nouveaux marchés, mais aussi changer
d’interlocuteurs. Je me souviens à ce propos, d’un exemple précis d’IBM. IBM France a
développé à une époque le logiciel TEWATCH qui permet l’analyse automatique de larges
corpus de texte. Ce développement s’est fait entre autre à l’initiative de Charles Huot, qui a
réalisé sa thèse au CRRM, d’où la connaissance de cet aspect du problème. Vendre une station
RISC 6000 était difficile compte tenu de la concurrence. A cette époque, un certain nombre
d’acteurs pensaient que l’argument de vente d’une telle station restait les logiciels accompagnant
celle-ci et permettant de réaliser de multiples activités, entre autre celle d’analyse de texte. Mais,
avec cette stratégie, la vente du produit conduit comme interlocuteur à des personnes qui
utilisent des stations de travail et qui nécessairement ont une «culture informatique dans le
domaine» qui peut être très différente de celle d’IBM et de ses stations. Par exemple une culture
SUN très marquée. La vente du produit devenant alors une comparaison non pas avec ce que la
station de travail permettrait de faire (et que ne permettrait pas de réaliser la station SUN), mais
comme une comparaison technique entre deux machines. C’est alors, que le concept évoluant,
IBM a présenté une solution d’analyse des textes permettant de créer des informations
stratégiques, globalisées dans une interface infographique de qualité. A ce moment, la recherche
a consisté à trouver les interlocuteurs ayant besoin de ce service. Le positionnement des
acteurs devenaient très différent, le niveau de décision aussi. L'analyse pour être réalisée
comportait l’utilisation d’une station RISC 6000 qui de ce fait était englobée dans la solution.
Voire même, IBM pouvait traiter à la demande et la station de travail n’apparaissait plus du
tout. On voit donc comment, un changement de règle permet alors de changer totalement la
qualité perçue et va même au-delà, en repositionnant les interlocuteurs.
Ce concept, de solutions, est caractérisé par le slogan: IBM solutions pour une petite
planète, etc...
4.2.4 - Autres façons de faire
D’autres manières de faire existent, la recherche de niches, par exemples pour utiliser les
téléphones mobiles en main libre dans les voitures, ou le développement de logiciels spécifiques
de traitement de la parole pour les ordinateurs (commandes vocales) utilisés par les chirurgiens
en cours d’opération, constituent des domaines très spécifiques où l’entreprise qui est présente
ne sera réellement attaquée que si le domaine s’accroît et passe du niveau de la niche à celui plus
large d’un marché.
On pourrait citer aussi la diversifications des lignes de produits avec des produits dérivés pour
atteindre divers segments de clientèle, etc.
4.3 - Les maîtres mots
Si nous retournons à des lectures anciennes, par exemple le livre de la jungle, nous nous
apercevons que bien des comportements sont réglés par des mots forts recouvrant une attitude,
un comportement, nécessaire pour accomplir un certain nombre de tâches en accord avec soimême.
Et bien, dans le domaine de l’hypercompétitition, comme dans celui de l’hyperinformation, il
existe d’après nous un certain nombre de maîtres mots dont l’évolution, la signification doit faire
l’objet d’une attention particulière.
4.3.1 - Une nécessité
Ce mot recouvre ce qui est nécessaire, ce que tout le monde possède. Ne pas l’avoir c’est se
priver des éléments indispensables pour accomplir certaines tâches. Une nécessité n’est pas que
matérielle, elle devient immatérielle quand elle concerne des méthodes, des comportements ou
elle peut aussi se placer sur un plan intermédiaire quand elle se situe au niveau des organisations,
des systèmes de gestion, de diffusion. L’Internet, les réseaux informatiques, l’ordinateur
individuel font partis de cette catégorie de biens physiques déclenchant des avancées importantes
dans le domaine immatériel.
Ne pas posséder les nécessités essentielles pour effectuer son travail, tant au niveau des
moyens matériels que des méthodes et des comportements introduit des éléments de
discrimination négatifs.
4.3.2 - Un avantage
Un avantage c’est lorsque l’on va posséder quelque chose que les autres n’ont pas, mais qui
utilisé pour atteindre un objectif précis nous permettra d’aller plus vite, de surprendre un
concurrent, d’être plus pertinent et plus averti que lui. L’hypercompétitition consiste à créer
des avantages, l’hyperinformation à les sous-tendre pour leur permettre d’évoluer ou de durer.
Mais, le monde moderne où nous vivons implique des changements permanents. Le passage de
la recherche à la technologie puis aux produits est de plus en plus rapide. Des compétiteurs
nouveaux apparaissent dans le monde, souvent à notre insu. Des produits nouveaux de nouvelles
façon de travailler, de communiquer entre autre avec l’Internet, l'Extranet, l’Intranet, les
messageries, le début du commerce électronique, les «virtual companies». Ainsi apparaît une
notion indispensable liée très fortement à la notion d’avantage:
Un avantage dure de moins en moins longtemps. Elément de discrimination positif au départ, il
se transforme sous la poussée des technologies, de la concurrence, de la demande sociale, en
nécessité. Il va alors être indispensable avant que l’avantage ne soit tout à fait perdu (en
devenant une nécessité), de créer les conditions du développement d’un nouvel avantage.
Cet ensemble est illustré sur la figure suivante qui montre comment la disparition des avantages
et leur transformation en nécessités, puis la création de nouveaux avantages est un système
cyclique.
Avantages et nécessités
AVANTAGE
TEMPS
NECESSITE
NOUVEL AVANTAGE
Les avantages durent de moins en moins longtemps. De Nouveaux avantages
doivent être créés en permanence
C’est sans doute dans ce contexte que l’hyperinformation et l’ingénierie des
compétences trouvent leur plus forte expression au sein des entreprises et des
organisations.
Premier exemple l'école et le tableau noir:
Prenons un exemple simple, que tous ceux qui suivent ou qui ont suivi des cours, que soit à
l’Université ou en formation permanente peuvent facilement constater: l’enseignement s’est
longtemps exercé par l’écriture sur un tableau noir. Puis, les avancées technologiques ou une
meilleure connaissance du contraste visuel ont conduit à utiliser des tableaux verts. Ensuite
l’apparition des tableaux du type «Véléda» et des marqueurs effaçables en couleur ont permis
une expression de l’enseignant plus complète ainsi que le maintien de salles de cours plus
propres. Mais l’évolution des techniques a conduit à l’apparition de la diapositive qui a changé
pour un temps le mode d’expression. Ensuit est apparu l’épidiascope qui a été rapidement
supplanté par le rétroprojecteur (utilisant des transparents noirs puis en couleurs). Ainsi, il est
inconcevable de nos jours qu’une salle de cours ne soit pas équipée d’un rétroprojecteur et d’un
écran. Ce qui était il y a quelque temps un avantage est devenu une nécessité. Qu’en est-il
de son évolution ?
L’introduction du multimédia conduit maintenant à considérer comme quasi normal d’avoir à
disposition les moyens de projeter un écran d’ordinateur pendant un cours. Non seulement les
transparents généralement des textes ou graphes sous Powerpoint seront en couleurs,
l’exécution de programmes, la projection de photographies, voire de séquences animées
permettront de donner au cours une autre dimension. Posséder de tels équipements donnent à
l’organisation un avantage certain. Même, si un «Barco» coûtait cher, l’apparition des
platines de rétroprojection, puis de systèmes du type «Infocus» ou «Sharp» ont
considérablement aplanis les problèmes financiers et techniques et maintenant l’utilisation du
micro-ordinateur comme support de cours est largement vulgarisée. On voit donc comment un
tel avantage se transformera bientôt en nécessité.
Un tel exemple peut nous permettre de présenter aussi les nécessités et les avantages non
plus sur le plan du matériel, mais sur le plan des compétences. Utiliser de tels médias, c’est
souvent remettre le cours en cause et le faire évoluer. Certes, des disciplines très traditionnelles
peuvent dit-on encore s’enseigner avec un tableau et une craie, mais cela ne deviendrait il pas le
refuge dialectique de ceux qui ne veulent pas évoluer ? Le multimédia, la photographie,
l’utilisation de programmes informatiques pour présenter visuellement les effets des différentes
forces sur le pendule à ressort en mathématiques ou en physique, vont permettre aux étudiants
une plus large compréhension du cours. L’avantage, dans ces conditions va aussi provenir de
l’évolution, du volontarisme du corps enseignant (et aussi de la demande des élèves). Le fait
technique, va donc entraîner une modification de la présentation des contenus, et une réflexion
générale sur l'intégration de cet avantage dans la manière de réaliser le cours.
Souvent, on entend la phrase suivante: nous n’avons pas besoin de cette spécialité, en parlant du
savoir faire d’une personne donnée. Il faut analyser cette prise de position d’un double point de
vue: en l’état actuel et si on n’évolue pas, la réponse est correcte. Mais, l’autre partie de
l’analyse c’est de se poser la question du moment (si possible en chiffrant dans le temps) où on
aura besoin de cette spécialité ou de ce spécialiste pour évoluer, c’est à dire pour préparer de
nouveaux avantages.
Un deuxième exemple d'actualité le Minitel:
La récente (Le Monde du 28 Avril 1997, page 17, article de Michel Alberganti) prise de
position lucide et courageuse de Lionel Jospin, Premier Ministre en faveur de l'Internet, inquiète
les professionnels de la télématique. Qu'en est il en effet ? Le Minitel, qui au départ a créé en
France, sous l'incitation des pouvoirs publics un certain avantage dans la consultation rapide de
services comme l'annuaire téléphonique, n'a pas évolué depuis quinze ans. Il se trouve
maintenant localisé dans le seul territoire national, avec une clientèle captive, et un service
kiosque télématique, véritable "vache à lait" pour les promoteurs de services et pour les
opérateurs. Cependant, l'arrivée de l'Internet, encore tardive en France à cause du retard
considérable en équipement informatique des ménages, vient bouleverser cet état de fait. C'est
ainsi, que dans le même article, Louis Roncin Président du Syndicat National Télématique
indique:
"Je suis choqué par l'intervention du Gouvernement sur un choix technique aussi complexe... Ce n'est pas
à un premier ministre de donner des conseils de stratégie industrielle ....Le seul défaut du système (le
Minitel) c'est son terminal qui est dépassé ....".
Nous avons là, tous les ingrédients montrant comment un avantage, au départ, doit être vécu
comme une situation transitoire permettant de bâtir rapidement d'autres avantages conduisant à
une évolution et une commercialisation à l'échelle mondiale.
Ce n'est que sous la pression des événements (l'Internet), que le Minitel devrait évoluer (ou
disparaître ?), et c'est quinze ans après que l'on se rend compte, lorsque le marché n'est plus
captif que la solution technologique actuelle est dépassée.
Ce n'est en outre pas seulement par une évolution du terminal, ni par la traduction en HTML de
l'ensemble des services disponibles que la solution sera trouvée, car il faut refondre la totalité des
présentations, mettre en place une forte intéractivité, des images et de la couleur, voire de
l'animation dans les présentations. On retrouve ici la situation précédente, où la technique et son
évolution vont être nécessairement couplées avec des savoirs faire nouveaux.
Dans le même ordre d'idée, je ne peux pas m'empêcher de citer l'article paru dans la rubrique
ECOFAX, du Figaro du 19,09,1997 (Didier Salavert Président de Finatech Holding) dont le
titre est évocateur:
Internet ne se décrète pas. La culture technocratique française est responsable de notre retard.
"Le premier ministre vient de déclarer qu'il était urgent pour la France de combler son retard en matière
d'Internet. Au-delà de cette déclaration et des annonces qui vont suivre, il convient de s'interroger sur un
tel retard afin de rechercher les moyens à mettre en oeuvre pour y remédier.
Internet est-il un super Minitel ? Il est souvent perçu comme tel en France. En fait il s'agit d'une erreur car
il est juste l'opposé."
"Ce n'est pas une analyse réductrice que d'affirmer que Minitel est le fruit d'un Etat colbertiste gouverné
par des ingénieurs et Internet celui d'un Etat libéral dont l'un des piliers est la liberté d'accès à
l'information. Minitel et Internet sont chacun le fruit et l'expression d'une culture différente."
L'exemple du Minitel est réellement important, en ce sens qu'il touche un point crucial, celui
d'une discontinuité dans la société. La société passée a été celle des machines, celle du progrès
technique et technologique, la société nouvelle sera une société d'information qui sera ancrée sur
de nouveaux paradigmes et sans doute une approche différente du travail et de la répartition des
richesses.
Une analyse fine des contraintes liées au capital risque, aux facilités accessibles en France pour le
développement de l'innovation, à la fiscalité à laquelle sont soumises les entreprises qui viennent
d'être créées.... laisse penser que dans le cadre de la société d'information, nous nous trouvons
placé dans la figure représentant la croissance endogène du Pays par rapport à la croissance
globale du monde, aux environ du point critique, voire, dans certains domaines du mauvais côté
de celui-ci. Ainsi, en toute bonne fois, nous continuons notre chemin sans nous rendre compte
que le décalage de notre pays par rapport à des pays plus actifs dans le domaine s'accroît.
Je reviens à l'article précédent pour citer:
"Le passé montre que les Etats qui n'ont pas participé activement aux révolutions technologiques ont
finalement vu leur rôle historique disparaître. La culture technocratique française sera seule responsable
de cette disparition."
Troisième exemple Microsoft:
Cet exemple met en évidence le type même de société commerciale hypercompétitive. En effet,
Microsoft n'hésite pas à détruire ses propres avantages pour en créer de nouveaux afin de
toujours garder ses concurrents à distance, voire même d'accroître celle-ci.
Microsoft, en utilisant le système d'exploitation MS-DOS a permis un certain développement de
la micro-informatique, en créant des séries d'applications comme Word, et en unifiant les
commandes les plus générales de la conduite d'un ordinateur, etc...
L'apparition du système Windows, a permis une utilisation plus aisée du micro-ordinateur, en
standardisant les applications. Mais, le système Windows (par exemple le 3.11), même en cours
de développement a été concurrencé par un nouveau système d'exploitation: windows 95, qui
après différentes modifications devient windows 97 puis bientôt Windows 98. En même temps
un autre système d'exploitation Windows NT, était mis sur le marché pour favoriser le
développement d'applications serveurs.
On constate ici, que la société Microsoft, n'attend pas qu'un avantage soit proche de sa
disparition pour en introduire un nouveau. Quelle différence de comportement avec l'attitude
décrite dans l'exemple précédent !
C'est sans doute cette agressivité qui maintien à distance respectable le système d'exploitation
OS2 d'IBM, et qui a conduit aussi à la situation actuelle du Mac-Intosh d'Apple.
Avantages matériels et avantages immatériels:
Ainsi, un avantage peut n’être que matériel. Mais il peut être aussi immatériel, ou le
devenir, lorsqu’il est couplé à un système matériel. Ainsi, lorsque Sony a créé le Walkman, un
nouveau concept est né, donnant à ceux qui l’ont utilisé les premiers un avantage sur le plan
musical, mais ensuite sur les moyens de transfert de connaissance et d’apprentissage lié à
l’utilisation des systèmes audio lors de son temps libre.
Dans le même ordre d'idée, nous venons de voir pour l'exemple de l'école, que le développement
d'avantages technologiques, créera ou modifiera les formes d'enseignement, ce qui va conduire
au développement de pratiques et de réflexions qui enrichiront les compétences des enseignants.
De même, le développement de l'Internet sur le câble, conduira aussi certains enseignés à
développer des approches nouvelles vis à vis de l'information. Ces comportements entrent dans
l'immatérialité et constituent donc une forme d'enrichissement nouveau.
Le cas du Minitel est à nouveau exemplaire. S'il est évident que nous avons perdu sur le plan
technologique notre avantage, du fait du changement de vitesse et de définition des informations
transmises ainsi que des terminaux et des réseaux, nous avons tout de même acquis, au plan
national (le Minitel étant limité à l'hexagone), un certain savoir faire et des compétences dans le
développement de services électroniques. Un des enjeux actuel sera de savoir, si ces
compétences, très régionales, pourront s'étendre au plan international. S'il est vrai que des
maisons de vente par correspondance utilisent le Minitel, celles-ci vont se trouver via l'Internet
et le commerce électronique en concurrence avec d'autres entreprises localisées dans d'autres
pays, entre autre au niveau de la Communauté Européenne (ceci a déjà commencé dans le téléachat). Il sera donc nécessaire, pour survivre et créer un apport de devises, donc une richesse,
de transposer cette compétence au niveau international en étendant les services dans
d'autres pays. Si non cette pratique, locale à l'échelle du monde, finira par disparaître et on aura
ainsi perdu à la fois l'avantage technique et les compétences immatérielles que cette avantage
technique avait contribué à créer. En effet, il faut voir le problème d'un double point de vue:
d'une part les entreprises utilisant le Minitel comme vecteur ont acquis une expérience (dans les
domaines les plus divers, allant de la vente, à la réservation automatique, en passant par les clubs
de rencontres, la piblicité, etc...), mais d'autre part, les clients, le public (quand on parle de
l'annuaire électronique), s'est lui aussi habitué à cette forme de consultation, de réservation ou
d'achat. Il est donc prêt à recevoir, intégrer et utiliser les sollicitations qui lui viendront
d'ailleurs. Ainsi, toute médaille a son revers, et si on reste statique on risque de jouer à
l'arroseur arrosé. En ce sens, on rejoint un certain nombre de réflexions développées au niveau
de la recherche et exposées dans le sous-chapitre "pour qui butinent les abeilles".
4.3.3 - La pensée inductive et la pensée déductive
Dans l’ouvrage Reengineering the Corporation, Harper Collins, NY, 1993, ISBN 0-88730640-3 Michael Hammer et James Champy indiquent comment les phases cruciales du
reengineering passent souvent par la pensée inductive. Les responsables de beaucoup
d’entreprises ont, par formation une pensée déductive. Ils savent comment diviser un
problème en un certain nombre de sous ensembles auxquels ils apportent une solution en
utilisant les facilités du moment ou les méthodes et recettes apprises «à l’école» il y a bien des
années. Pourtant, si l’on veut vraiment créer de nouveaux avantages, mettre en place des façons
de faire différentes, faisant appel à des méthodes ou à des technologies nouvelles, c’est vraiment
à la pensée inductive qu’il faut avoir recours.
Essayons d’analyser les méthodes nouvelles, les faits nouveaux, les technologies nouvelles, les
produits nouveaux présents sur le marché, et posons nous la question: que pourrait on faire
avec cela ? Comment ces nouvelles avancées peuvent-elles être utiles dans mon entreprise, dans
mon travail, comment les utiliser au mieux, même si pour cela on doit changer ou remodeler
l’existant.
Cette pensée est fondamentale pour accompagner le changement, le précéder dans
certains cas.
On pourra aussi opposer dans le même ordre d’idée le holisme (il consiste à affirmer que le tout
est plus que la collection des parties) et le globalisme à la pensée réductionniste, l’ordre au
mouvement, etc. On retrouvera très fortement cette façon d’aborder les problèmes au niveau de
l’hyperinformation. Avoir les yeux grands ouverts, «sentir» les domaines nouveaux, les
applications nouvelles les orientations technologiques qui pourront faire évoluer un métier,
même différent de celui qui leur a donné naissance. Ne pas être figé dans l’existant, immobile et
conservateur voila un des enjeux les plus importants pour l’entreprise.
4.3.4 - La technosphère et le technoglobalisme
Nous ne sommes pas seuls. L’entreprise est immergée dans un environnement fait à la fois de la
société et de ses composantes ainsi que des contraintes scientifiques, technologiques,
économiques, commerciales.... Deux définitions sont souvent employées à ce propos.
4.3.4.1 - La technospère
L’entreprise est plongée dans un environnement plus ou moins complexe, et elle réagit avec lui.
Quand tout va bien, et surtout pour une entreprise moyenne, le taux de réaction avec la
technosphère est faible. Mais, lorsque des problèmes se posent, ce taux de réaction va
augmenter. Préparer l’entreprise à ce changement brusque de périmètre, c’est en quelque sorte
prendre une assurance pour l’avenir. Pour atteindre cet objectif, bien connaître son
environnement, mettre en place les systèmes d’information nécessaires et les personnes
susceptibles de comprendre contribuera a diminuer l’effort nécessaire et permettra à l’entreprise
un temps de réaction plus court et une effort moindre pour l’accomplir (Veille Technologique
et Compétitivité, H. Dou, Dunod, 1996).
LA TECHNOSPHERE
C'est l'environnement de l'Entreprise dans lequel on va retrouver
l'ensemble des contraintes et des liaisons avec différents domaines
Technosphère classique (celle que l'on apprend en formation)
Science Technique
Formation
Technologie
Finance
Relations
Entreprise
publiques
Protection
Achats
Relations clients
Marketing
et fournisseurs
Communication
CRRM
Les différentes entités réagissant avec l'entreprise dans sa technosphère
C'est la maîtrise des interactions avec ces différents domaines (pour simplifier on n'en a indiqué
que quelques uns) qui va conduire l'entreprise à la maîtrise de son environnement. Il sera donc
nécessaire d'analyser le milieu pour détecter les domaines avec lesquels on doit réagir, puis de
mettre en place les systèmes d'information, de réflexion, d'analyse qui conduiront à les maîtriser
et à bien les comprendre (à la fois au niveau actuel, mais aussi en projection dans le temps).
Les clusters, le développement économique et la politique de développement.
Dans le cadre de l'étude de la technosphère d'une entreprise, on peut aussi situer à un niveau
plus macro que l'environnement de l'entreprise elle même. C'est ainsi qu'un certain nombre de
travaux relatifs aux "clusters" industriels ont été développés (Clusters, Industrial Policy and
Firms Strategy: A Menu Approach, Dany Jacobs & Ard-Pieter de Man, Technology Analysis
& Strategic Management, vol.8, n°4, 1996). Dans cette approche, on distinguera trois manières
de déterminer les clusters, et celles-ci auront une répercussion sur les systèmes d'information à
mettre en oeuvre.
Le cluster régional:
Il est essentiellement basé sur une approche géographique. On peut en définir les facteurs clés de
développement, qui sont généralement basés sur les infrastructures d'enseignement ou de
recherche (exemple centres de recherches, universités, ...), sur des infrastructures physiques
comme par exemple un Port, sur des grandes entreprises (par exemple dans la région de
Marseille sur Eurocopter). Mais, il ne faut pas oublier que l'analyse géographique déborde de
plus en plus de la région elle même, par exemple on peut trouver une entreprise locale qui
exporte dans le monde entier, des entreprises qui se sont crées à l'origine sur des compétences
issues d'un secteur de recherche local, puis qui ont évolué et qui ne sont plus en adéquation avec
l'expertise locale qui souvent du fait de la rigidité de la recherche et des institution dirigeantes
reste figée, il faut donc aller chercher celle-ci ailleurs, ou des entreprises dont l'activité est
mondiale, par exemple l'affrètement de navires et le transport de marchandises.
On voit donc, que même dans l'approche géographique, le système d'information susceptible de
confronter la ou les décisions politiques, va être très différents selon le "clusters" auquel on se
réfère.
Le cluster vertical:
C'est la notion de filières. Elle est très subjective et doit pour être déterminée de façon
rationnelle. Il faut tenir compte des flux de marchandises entre les firmes ce qui permettra de
délimiter les dimensions du cluster. Cette vision très verticale est de moins en moins utilisée
comme outil de développement et de motivation dans le développement des innovations.
L'agglomération de secteurs:
Cette large agrégation permet de s'éloigner de la vision verticale et figée, pour aller vers une
interrelation plus forte entre différents domaines. C'est une des qualités de l'approche
méthodologique développée par Porter (M.E. Porter, The Competitive Advantage of nations,
London, Macmillan Press, 1990) que de s'éloigner de l'approche traditionnelle des secteurs
primaires, secondaires ou tertiaires et plutôt d'examiner les relations entre secteurs (agriculture,
industrie et services par exemple).
La tendance actuelle, dans le développement des informations et des infrastructures est de
penser que les dimensions et le rôle des institutions de recherche ne doit pas être surestimé. La
majeure partie des informations nécessaires aux entreprises venant des fournisseurs, des clients,
des concurrents, d'autres secteurs spécifiques, de l'ensemble foires et salons et des journaux
professionnels. (On se reportera pour plus de détail au chapitre traitant de la typologie des
informations). On peut consulter à ce propos The sources of Innovation, E. von Hippel, (New
York, Oxford University Press, 1988, et Waar haalt het mkb zijn kennis vandaan?, R. van der
Meijden et D. Jacobs, Economisch Statistische Beritchen, 25 Janvier 1995, pp.80-83. Pour un
cluster qui se développe sur une base nationale, il faudra privilégier un centre de recherche
national et des infrastructures décentralisées pour diffuser les innovations vers les PMI et les
PME. Au contraire quand le cluster comprend des éléments nationaux ou internationaux qui
sont concentrés sur une région, une infrastructure de recherche régionale constitue un apport
décisif. Lorsque le cluster est très international, il conviendra de favoriser les participations à des
programmes internationaux et des liens avec les pays ou les institutions qui ont les meilleures
pratiques dans le domaine.
On constate ainsi que l'environnement d'une entreprise est variable, mais qu'il est nécessaire de
situer celle-ci dans un environnement dont on perçoit les contours, pour que les informations
nécessaires à son développement soient recherchées. Un exercice de ce type évite de se laisser
emporter par des attitudes naïves sur une vision tous azimuts du développement des
compétences et des recherches. Par exemples, si on regarde les clusters par le biais des réseaux
d'entreprises, on constate que tôt ou tard, sous la pression des événements, elles seront obligées
de rentrer dans un niveau de coopération important et donc de développer des structures de
coopération. C'est donc pas nécessairement dans cette direction que doivent se porter les efforts
(sauf peut être pour accélérer le mouvement). Par contre, une seconde approche est bien plus
importante et constitue un véritable challenge dans les régions où les industries traditionnelles
sont en déclin et n'ont pas encore été remplacées: est-il possible de créer des clusters
relativement nouveaux et basés sur de nouveaux réseaux. Il y a la tout un champ de
recherche et de développement qui reste ouvert: comment stimuler cette nouvelle approche.
Dans ce cadre novateur, on peut citer l'action entreprise sur l'Europôle de l'Arbois, entre Aix en
Provence, Marseille et l'Aéroport de Marseille Provence, pour développer un centre de savoir
ancré sur une micro-région, basé sur une mise en réseau de compétences régionales, nationales
et internationales. Cette approche met en jeu des institutions à la fois publiques et privées
comme la Communauté Européenne programmes ADAPT (deux étant localisés sur le site) et
programme d'innovation avec le CRPHT (Luxembourg) des Institutions Espagnoles (IMPIVA et
Université privée), l'Université Aix-Marseille III (CRRM, Ecole doctorale transversale), le
CERE (Chaire d'Enseignement et de Recherche Européenne en Intelligence Economique), IDS
(Information Décision et Stratégie) qui est un centre de formation, le Conseil Général, etc. Ces
modèles nouveaux qui bouleversent les règles classiques de la séparation du public et du privé,
de l'intangibilité des diplômes universitaires nationaux, de la prédominance du savoir sur l'action,
etc... sont faits pour créer, à partir d'infrastructures légères un ensemble de compétences depuis
la région jusqu'au niveau international, qui permettront la réalisation de clusters nouveaux, basés
sur des approches nouvelles. Quand les industries traditionnelles perdent de leur importance et
quand le développement d'orientations nouvelles doit être conforté ou stimulé, les approches
basées uniquement sur le présentiel lourd et des structures classiques (tant au point de vue
académique, que pépinières d'entreprises, ou implantations industrielle), ne peut fonctionner que
difficilement. Il faut substituer à cette attitude une approche multidimensionnelle en réseau,
basées sur des compétences qui se regroupent en fonction des besoins, sur de la formation
délocalisée et sur une vision du développement et de l'innovation englobant à la fois le vertical
(produits par exemple) que le transversal (sciences d'accompagnement, information, business
development).
4.3.4.2 - Le technoglobalisme
Si l’entreprise se trouve plongée dans son environnement, celui-ci est parti intégrante d’un
ensemble régional, national et international de plus en plus lié au plan économique, politique,
technologique. Bénéficier au maximum des résultats des autres, penser que ceux qui introduisent
des avancées scientifiques, techniques, technologiques sont dignes d’intérêt et que leurs travaux
doivent être analysés, appropriés, telle est la pensée du technoglobalisme. Elle a été développée
au japon principalement, où, après avoir acquis la maîtrise d’un certain nombre de technologies
par le «learning by watching» ou innovation incrémentale, il faut bien faire évoluer le système.
Alors, le technoglobalisme constitue une réponse où, sans directement s’inspirer des produits
concurrents ou des technologies alternative, on va faire évoluer le système en bénéficiant au
maximum des avancées produites par les autres. (Le Technoglobalisme, Technologies
Internationales, n°1, Novembre 1993, ADIT)
4.3.4.3 - Anticiper
Puisque la stratégie de l'entreprise dépend largement de ce que feront les concurrents, puisque
les mouvements que je vais faire s'inscriront dans l’ensemble des mouvements réalisés sur ce
théâtre d’opération, une des fonctions principales que je dois accomplir, c’est ANTICIPER. De
même que nous venons de voir le passage des avantages aux nécessités, l’anticipation sera un
élément de base qui permettra la création de nouveaux avantages.
Faire évoluer son système d’information pour permettre un niveau d’anticipation
suffisant doit être un objectif important, dans certains cas une nécessité.
4.4 - Les changements technologiques, le passage dans le second plan
Une autres façon d’échapper au domaine de la valeur ultime, qui conduit à proposer une
stratégie d’extension mondialiste qui ne peut pas être le cas de toutes les entreprises, va
consister à un changement de plan. On va modifier, améliorer, proposer des produits ou services
suffisamment différents pour que l’on puisse passer dans un nouveau plan où on pourra redéfinir
à nouveau les règles et se trouver en compétition avec des concurrents différents sur des
marchés différents.
Dans ce domaine, la stratégie technologique, l’intégration des avancées scientifiques aux
produits vont jouer de façon primordiale. Quand doit-on faire ce mouvement, que doit on
surveiller, comme vont se produire dans ce domaine les processus d’innovation. Comment pour
assurer ces changements faire évoluer les compétences des entreprises ? Nous traiterons plus en
détail ces divers aspects dans les chapitres qui seront dédiés à l’hyperinformation. Cependant,
nous devons insister ici sur un point précis: le passage dans ce nouveau plan ne peut se faire que
si l’entreprise a les compétences nécessaires pour le réaliser.
Ainsi, dans une entreprise hypercompétitive, le capital de l’entreprise est sans doute plus
lié aux compétences des acteurs qu’au portefeuille des produits.
L’ingénierie des compétences reste un atout majeur. L’évolution de ces dernières est vitale, leur
utilisation aussi. Ce point est capital, surtout dans la vente ou la prise de participations. Les
récents débats concernant la Société Française Thomson multimédia et la société Coréenne
DAEWOO en sont la preuve.
4.4.1 Intégrer plus de technologie dans les produits et les services
Pour passer dans un autre plan que celui du rapport prix de vente/qualité perçue, il est nécessaire
de faire subir aux produits que l’on vend, aux services de l’on rend des modifications plus
profondes que celles nécessaires pour continuer une compétition dans le plan précédent. Dans ce
cadre, un aspect qui nous paraît fondamental est d’utiliser une connaissance accrue des
évolutions sociales, des perceptions globales de la société ainsi que des évolutions scientifiques
ou technologiques pour réaliser des changements importants, voire des mutations dans les
produits vendus et services rendus.
Cette intégration technologique passe souvent par le biais de l’innovation. Nous la définissons ici
comme le passage d’une invention (c’est à dire quelque chose d’entièrement nouveau) dans le
domaine courant qui rendra celle-ci «thermodynamiquement irréversible». Il faut donc tenir
compte, dans ce domaine d’une double approche pouvant en un certain sens s’apparenter au
«market pull» et au «technologie push». C’est à dire tenir compte à la fois des rapides
changements dans les sciences et les techniques et de l’interaction forte qui existe entre la
science et la société. L’approche de l’innovation (incrémentale et de rupture) est tout à fait
significative et montre que ce ne sont pas nécessairement sur le plan économique les avancée les
plus dramatiques qui ont conduit au maximum de bénéfices et de rentabilité.
Evidemment, dans ce contexte, les grandes entreprises ont nécessairement plus d’atouts que les
petites pour réaliser de tels changements. Mais, au-delà de ces atouts elles sont souvent limitées
par un immobilisme plus grand, par une répétition d’une vison immuable où seule la puissance
des faits et la limite de rupture va enclencher le mouvement. «La France n’a pas besoin
d’autoroutes» est une vison des années 50, la considération pour la micro-informatique d’IBM a
ses débuts relève du même principe, etc...
Les modifications technologiques («to add ribbons and whistles» selon D’Aveni), passe souvent
par l’intégration d’informations précises, le suivi des concurrents, la focalisation des
compétences de l’entreprise sur un objet précis. Cette prise en compte des compétences
commence à être acceptée. Elle va nécessiter la mise en place d’une stratégie pour savoir ce qui
doit être maintenu, ce qui peut être diminué, voire perdu. La gestion des compétences,
débouchera largement dans les chapitres afférents à l’hyperinformation sur la nécessité de
gérer la mémoire de l’entreprise, et sur la localisation et l’utilisation des experts. La dimension
des «technologies et des hommes» introduite par Jacques Morin prend ici toute sa signification.
4.4.2 - Le produit ou la fonction ?
Depuis que les hommes fabriquent des objets, deux tendances complémentaires peuvent être
analysées. Nous les indiquons ici comme complémentaires, mais souvent, du fait de l’habitude,
de la facilité des profits et des hommes elles sont contradictoires. Il s’agit de ce qui touche au
produit et de ce qui touche à la fonction de ce même produit.
4.4.2.1 - Le produit
Souvent, au fil des années, la fabrication d’un produit va conduire par améliorations successives,
par introduction de technologies nouvelles, de tours de main, de savoir faire, à rendre presque
parfaite sa fabrication qui sera alors optimisée au maximum. C’est ainsi, qu’au temps de
l’horlogerie mécanique, il existait un produit très particulier: l’huile pour pignon de montre, dont
la fabrication et les propriété atteignaient la perfection.
Cependant, de nos jours, la diminution considérable de la production de montres mécaniques
(même si certaines d’entre elles reviennent à la mode comme produits de luxe) a fait quasiment
disparaître cette activité. De même, la réalisation de règles à calcul logarithmiques («les
Graphoplex Log Log» par exemple) a disparu lorsque les machines à calculer perfectionnées
sont arrivées sur le marché.
Un autre exemple est celui du disque vinyl 45 tours, qui a été supplanté par le compact disc. La
même situation risque fort de se reproduire avec les cassettes vidéo!
Ainsi, face à une position tenu par un produit, force est de penser que celle-ci peut ne pas durer
très longtemps. En effet, un produit a une fonction, et celle-ci peut, lorsque la technologie
évolue, être accomplie par d’autres produits, d’autres systèmes. Prévoir, anticiper sera sans
aucun doute l’assurance de base pour ne pas mourir.
4.4.2.2 - La fonction
Un produit, par exemple un cadrant solaire donne l’heure. Le produit est une tige métallique
dont l’ombre suit les mouvements du soleil et se projette sur des graduations fixes qui nous
indiquent l’heure du jour. La fonction, c’est donner l’heure. L’industrie du cadran solaire a
disparue, remplacée en un temps par les montres mécaniques, puis par les montres à quartz, etc.
Il sera donc nécessaire, chaque fois que cela sera possible, de se donner les moyens informatifs
nécessaires à constamment replacer dans le contexte de la recherche et des technologies le
produit que nous fabriquons. De quoi sera fait demain aurait du logiquement se demander les
fabricants de lessive de soude («le cristaux»), en voyant les progrès de la détergence solide
(poudre à laver) ou liquide (gel et liquides de lavage). Sans doute pour n’avoir pas anticipé,
pour n’avoir pas su prévoir le lendemain, le savon de Marseille a quasiment disparu (L'autre
modèle industriel (en Méditerranée),Chastagneret G. (entretien) Terres Marines pp.4-9, n°67, Juin-Juillet 1994).
Chaque action, chaque résultante, qu'elle soit individuelle, industrielle, commerciale, de service,
conduit à un résultat: le savon de Marseille, le programme d'un enseignement, le choix d'un
logiciel informatique, des réparations à domicile, etc.. Chacune de ces activités est liée au
comportement social des utilisateurs (à leurs habitudes), aux évolutions économiques
(permettant de trouver de nouveaux marchés), aux technologies qui vont permettre de remplir
les mêmes fonctions avec des produits ou des méthodes différentes, à l'apparition de nouvelles
machines dans lesquelles vont s'intégrer des progrès significatifs. C'est autour de cet ensemble
très large que devra se structurer la recherche et l'analyse de l'information.
On voit donc bien se dessiner les contours de l’hyperinformation: de l’analyse de la valeur qui
va permettre les améliorations significatives d’un produit, à un globalisme affirmé pour aller vers
une mise en situation plus large de l’objet, du produit, du service. Voila un des rôles
primordial que devra assurer le système d’information.
5 - Eléments de base pour une information pour action
Dans ce chapitre nous allons examiner un certain nombre de caractéristiques liées aux
informations que nous devront rechercher, analyser, comprendre, pour produire de l'hyperinformation. On ne peut pas dire que prises séparément ces caractéristiques sont nouvelles, mais
c'est dans leur ensemble qu'il faut en tenir compte, et c'est là toute la difficulté.
5.1 - Récapitulons quelques données de base
Nous venons de voir que dans le contexte précédent, un certain nombre de maîtres mots allaient
présider à la mise en place d’informations nouvelles, ayant pour apex un objectif différent et des
règles différentes de la gestion classique des bibliothèques ou des systèmes de documentation
dans certains cas trop figés. Cela conduira à une approche nouvelle et un comportement global
de l'individu très différent, en bref, un changement de culture.
Le passage d’un avantage à une nécessité et la création des éléments permettant d’acquérir de
nouveaux avantages nous conduit à anticiper. Mais, anticiper va conduire à se préoccuper de
l’interaction entre la science, la technique et la société à la foi sur un plan global, mais aussi plus
directement en interaction directe avec les stratégies développées par nos concurrents. C’est
ainsi que l’entreprise n’est pas seule, elle est environnée par la technosphère qu’il faudra mieux
connaître, qu’il faudra mieux analyser au niveau de ses interactions avec l’entreprise. De même,
l’extension mondiale de la concurrence, de la production scientifique, des avancées
technologiques et de la production de nouveaux biens de consommation va nous amener à
considérer non seulement ce que nous faisons dans notre domaine et dans notre zone
géographique (le Pays par exemple ou le continent), mais aussi ce que les autres produisent,
réalisent. C’est le technoglobalisme: toujours se replacer dans le contexte international, sans a
priori, sans NIH (Complexe du NIH «Not Invented Here»). Au niveau de l’entreprise, il faudra
aussi faire progresser à la fois l’amélioration des produits, mais aussi la connaissance générale
des progrès scientifiques et technologiques qui pourraient à terme conduire à des produits
différents rendant les mêmes fonctions que les produits actuels.
C’est dans ces différents contextes, que les industriels, les collectivités vont devoir faire évoluer
leur système d’information. Les produits de ce système vont devenir différents, vont se croiser,
intéresser des acteurs divers souvent complémentaires, se baser largement sur les sources
d’information les plus diverses pour tenir compte d’un nouveau paramètre fondamental: le
temps.
5.2 - Le temps
Nous serons toujours tributaires du temps, mais, dans le contexte de l’hyperinformation celuici va jouer un rôle primordial. Nous avons vu qu’il était de plus en plus nécessaire d’anticiper,
donc de prendre en compte des informations de plus en plus fraîches. Analysons donc ce que
nous appelons le facteur temps.
5.2.1 - Les différentes constantes de temps dans le domaine de l’information
Bien souvent, le fait d’obtenir, par télématique ou via l’Internet une information immédiate, fait
passer au second plan la notion de fraîcheur de cette information. En effet, bien que disponible
en quasi temps réel, les informations ont une durée de vie. Dans certains cas, les informations
descriptives (science naturelle, botanique, biologie, géologie, synthèse de molécules ...) sont
toujours d’actualité, même après des constantes de temps très longues. Par exemple, les
planches descriptives du Musée Océanographique de Monaco, bien que vieilles de prés d’un
siècle pour certaines, sont toujours d’actualité. Mais, dans le cadre de l’hyperinformation, nous
avons vu qu’un des principes essentiels était de mettre en place les conditions nous permettant
de créer ou de maintenir un ou des avantages par rapport à nos compétiteurs.
Ainsi, ANTICIPER devient primordial et pour réaliser cette action, l’information nécessite une
certaine fraîcheur.
Cette notion est d'autant plus importante que rarement les constantes de temps sont abordées
sur ce plan. Un bon exemple est celui du serveur de dépêches Reuters qui en permanence
rappelle à l'utilisateur la notion du temps: immédiat, la semaine, puis le passage au niveau des
archives. Si dans certains cas le temps est une vertu (méditation, travail bien fait "cent fois sur le
métier...") il ne faudrait pas conclure que celle-ci est intangible, le paradoxe sera de mélanger
vitesse, précipitation et travail bien fait.
Exemple de Reuters
Exemple de sujets couverts par Reuters:
Country Alerts: chaque jours divers domaines comme la stratégie des entreprises, l'économie,
les finances, l'investissement, le travail, les lois, le commerce.... sont suivis.
Country views: permet d'accéder aux analyses des développements les plus importants:
. Chaque mois: Country Update: analyse concise par pays
. Chaque 3, 6 et 12 mois: Concensus Forecast, concerne les taux d'intérêt, les
monnaies, et sont obtenu à partir de diverses analyses d'expert ou de sociétés.
Tous les trimestres:
Country Forecast Summary
Five year Forescast Table couvre l'inflation, la croissance le chômage ....
Country Risk Summary couvre les taux de risques par pays.
Country Background:
Offre des faits et données chiffrées permettant de placer les développement commerciaux en
perspective. Il est organisé de la manière suivante:
Country Fact Sheet: population, PNB per capita, structure politique, taxation et
commerce, développement politique
Quaterly Economic Indicators, tables des statistiques les plus importantes. Elles sont
régulièrement mises à jour.
Trade, Tax and Foreign Exchange
Weekly Interest Rate.
Pour plus d'information consulter: http://www.bizinfo.reuters.com
Exemple de l'AFP
Avec un système de présentation un peu différent de Reuters (qui fourni des tables et des
produits ayant déjà été analysés), l'AFP (Agence France Press) a développé un ensemble de
produits d'information qui peuvent être télédéchargés en temps réel sur votre micro ordinateur.
L'information est segmentée en:
Actualité, Agriculture, Automobile, Banque, Bourse, Changes, Economie (Etranger), Economie
(France), Energie, Environnement, Equipement, Industrie, International, Matières premières,
Média, Mer, Or, Services, Social, Sociétés, Télécommunications Informatique Electronique,
Tourisme, Transport.
Par exemple la rubrique société conduit aux "Résultats des sociétés, grands contrats,
restructurations, perspectives, projets, OPA, fusions, prises de participation, augmentation de
capital, emprunts, introduction en bourse...."
Le processus est le suivant: on atteint par un modem le service AFP, puis sur l'écran de votre
ordinateur, une colonne à gauche affiche les dépêches (titre, numéro), tandis que la dépêche
sélectionnée s'affiche dans la partie droite de l'écran. Les données peuvent être sélectionnées,
imprimées, sauvegardées, ...
Ainsi 1.100 journalistes et 2.000 pigistes répartis dans 165 pays transmettent chaque jour à
l'AFP 1 million de mots en six langues. Ces informations rapides et fiables sont diffusées dans
800 dépêches générales.
Un autre service intéressant consiste, si vous êtes lié à l'Internet, de vous faire expédier par mail
des dépêches sur un thème donné que vous sélectionnerez en utilisant des mots clés (thèmes
précis, mots et concepts spécifiques, noms propres, de sociétés). Les données vous seront
fournies dans une des langues suivantes au choix: français, anglais, espagnol, allemand et
portugais.
Enfin un dernier service particulier, l'AFP peut vous permettre de "nourrir" votre site WEB, en
vous permettant d'inclure directement des pages d'informations. Pour avoir plus de détail sur ces
différentes applications, consulter: http://www.afp.com
Il va falloir en quelque sorte concilier l'inconciliable. Mais l'accélération des progrès techniques,
des changements de structures, la multiplicité des actions concurrentes, conduisent à travailler
de mieux en mieux dans un temps de plus en plus court. Bien sûr, la réflexion doit demeurer,
ainsi que la projection dans le temps de ce qui est fait, car la continuité se fait dans la durée, mais
souvent, cela va non pas se dissocier de l'action, mais être une réflexion parallèle, permanente
demandant un effort de conciliation et d'intégration très fort.
Cette rupture introduite par la mondialisation, par l'action internationale en temps quasi réel, par
la nécessité d'une action et d'une réaction de plus en plus rapide n'est pas innée. Elle demande
même des efforts importants, une structure mentale en constante adaptation et une structure de
management adaptée. La figure suivante met rapidement en évidence l'évolution de la vitesse la
transmission des informations dans le temps:
Evolution des vitesses de transmission de l'Information
dans le temps
vitesse
Réseaux rapides
Télématique, Internet
20 ans Intranet, Messageries
Compression de données,
CD-ROM, TV, satellites,
Réacteurs, fusées...
Courreur à pied, Cheval au galop
Bateau à voile
Plusieurs milliers d'années
80 ans
Télégraphe
TSF, Moteurs
vapeur et à
essence
Téléphone
100 ans temps
L'évolution dans le temps de la vitesse de transmission des informations
Nous n'avons pas introduit dans ce graphe l'ensemble des technologies de communication avec
Fax, modem, morse, ... car ce n'est pas l'objectif.
On conçoit ainsi, devant la rapidité d'évolution, principalement durant ces dernières années, que
certaines entreprises, du fait de la formation des hommes et de leurs structures mentales, ne
pourront pas tirer un avantage de ce changement fondamental introduit par ces évolutions
technologiques. Cette appropriation est d'autant plus importante que nous sommes sur une
exponentielle de croissance d'une part, que d'autre par nous sommes devant une diminution (en
pouvoir d'achat constant) des coûts.
Avant de déterminer ce que pourraient être les informations à caractère futur et celles avec un
caractère passé, nous allons examiner rapidement une chaîne de production et de diffusion d’une
information scientifique, en considérant le cas de la lecture directe de l’information, puis de cas
de l’utilisation des citations.
5.2.1.1- La publication scientifique
Dans le cas d’une publication scientifique, un enchaînement d’actions classiques de sa
production à sa diffusion est le suivant:
* On a d’abord une idée, qui née soit de l’accès à une ou de plusieurs informations dans un
ouvrage, un journal, ou un colloque. A partir de ces informations et compte tenu de son propre
savoir ou de l’expertise collective du groupe dans lequel on travaille, va naître une idée.
* La vérification de l’idée, le test des hypothèses. Pour arriver à la vérification des hypothèses, il
va falloir réaliser un certain nombre d’expériences qui vont prendre un certain temps. Même si
on travaille très rapidement, il sera nécessaire de réaliser un travail, de le vérifier, puis de le
valider. A partir de ce travail pourront naître des expériences nouvelles, etc.
En cours de parcours, des résultats préliminaires, s’ils sont intéressants pourront être publiés
dans des colloques ou dans des notes rapides (type lettres à la rédaction), ceci pour prendre
date.
* Lorsque les hypothèses et les résultats valident l’idée de départ, on envisage de réaliser une
publication, c’est à dire d’écrire dans un journal scientifique approprié le travail réalisé, afin de la
diffuser dans la communauté internationale. Cette écriture va prendre un certain temps.
* Une fois écrit, le texte de la publication sera envoyé au journal, qui va le transmettre à un
examinateur qui jugera si le travail est apte à être publié. Bien souvent l’examinateur demande
des corrections, et ceci va nécessiter un aller retour qui prendra du temps.
* Ensuite, le travail écrit va être publié, c’est à dire transmis à l’imprimeur qui réalisera la
publication du journal.
* Le Journal scientifique est ensuite mis à disposition de la communauté scientifique, soit par
abonnement direct, soit dans des bibliothèques.
* Enfin, et c’est souvent le cas de nos jour étant donné le très grand nombre de titres spécialisés
disponibles, le travail publié sera transmis de l’éditeur à un producteur qui indexe le travail, puis
à un serveur qui rendra celui-ci accessible sur des grandes bases de données internationales
(Chemical Abstracts, Inspec, Compendex, Pascal, Biosis, Medline...).
Ainsi, depuis l’idée initiale, jusqu’à la publication et à sa diffusion, peuvent s’écouler plusieurs
années. C’est pour cela que généralement on essaie toujours de raccourcir le temps entre l’accès
à l’information et l’idée qui lui a donné naissance. De ce fait, les stagiaires dans les
laboratoires, les communications rapides, les colloques, les discussions directes avec les
auteurs deviennent des éléments stratégiques importants. On verra dans les chapitres
traitant de l’Internet, que la messagerie en permettant encore d’atteindre directement un
décideur ou un chercheur, fait partie intégrante de la notion de raccourcissement du temps entre
la publication et l’idée de départ.
En outre, des articles récents (Le Courrier International du 16 au 22 Octobre 1997, page 41)
commencent à mettre en doute la rigueur des revues scientifiques. En reprenant un article de
The Economist, le Courrier International met en évidence:
".... le copinage, le chauvinisme, l'excés d'optimisme... qui se sont peu à peu introduit dans la
méthodologie. Dans sa propre évaluation, la science n'applique pas les méthodes qu'elle prône. Des
universitaires se sont livrés à un exercice impitoyable..... les chercheurs ne rapportent pas les résultats
négatifs: les éditeurs n'en veulent pas... Pourtant en médecine, les traitements négatifs sont extrêmement
révélateurs. .... Si on élimine les négatifs, l'ensemble devient trop optimiste.
... Une centaine de revues du monde entier ont annoncé à Prague qu'elles "amnistiaient" ces travaux
jamais publiés et qu'elles ouvraient une boîte postale électronique ([email protected]) pour les recevoir.
Cela ne manque pas de culot mais mieux vaut tard que jamais."
La figure suivante, met en évidence des latences de temps moyennes dans le domaine de la
publication des informations scientifiques. C’est à dire du passage d’une idée que l’on a générée
par lecture, discussions, etc.. au niveau de la production d’une avancée scientifique, ou
technique, ou d’un concept nouveau sous forme d’une publication. Dans cette figure, on n’a pas
situé une étape intermédiaire qui est souvent utilisée, celle du colloque où l’on peut présenter
des résultats encore fragmentaires. Mais, dans ce cas se pose le problème de la divulgation, que
doit on dire pour ne pas offrir une vulnérabilité trop grande.
De l'idée à la publication
Idée
Expérimentations
Réflexion
1 an 1/2 à 2 ans
Ecriture
Publication
6 mois
Diffusion
6 mois
2 à 3 ans ou plus !
Le décalage entre l'idée, et la publication disponible décrivant celle-ci
Les publications scientifiques seraient elles inutiles ? Certes non, car elles constituent de par leur
formalisme une étape dans la rédaction et la diffusion des connaissances et elles participent de ce
fait à la mémoire collective de l’humanité. Mais, dans un contexte d’hyperinformation elles
ne doivent être utilisées que pour ce qu’elles apportent réellement, c’est à dire la possibilité
de réaliser rapidement avec les systèmes d’analyse adéquats, la représentation des connaissances
d’un secteur. Elles vont donc permettre d’affiner notre connaissance, de fixer des cibles
potentielles (personnes, institutions, entreprises) en un temps relativement court. Il faudra alors
vérifier de façon plus précise et avec d’autres méthodes (information informelles de terrain) si
ces points d'excellence travaillent toujours dans le même domaine (important pour nous).
L’approche des acteurs réels (les spécialistes) devient alors nécessaire et va induire une stratégie
particulière selon les cibles définies par l’analyse.
On parle souvent aussi des publications électroniques. Des tentatives récentes ont été réalisées,
mais si l'accélération de la diffusion des résultats semble acquise (grâce à l'Internet entre autre),
la constante de temps restera de toute façon longue si les processus de validation par les pairs,
de passages par des Comités de lecture lents, modifiant souvent de façon significative le travail
sont toujours utilisés.
5.2.1.2 - L’utilisation des citations.
Dans tout travail, il est d’usage, et cela fait partie de la bienséance de citer dans les références
jointes au travail les éléments déjà publiés à partir desquels se produit la réflexion ou les
expériences de laboratoire. Ceci revient à rendre hommage à ceux qui ont travaillé sur des sujets
connexes avant, ou dans certains cas à faire acte d’allégeance ou de soumission.
Ces citations peuvent donc être utilisées comme un moyen d’accès rapide à la bibliographie, si
on arrive à sélectionner rapidement tous les travaux qui citent un travail de référence ou des
auteurs particulièrement importants dans le champ du travail entrepris. Cet usage est
relativement commun et à la base du SCI (Science Citation Index) qui est pluridisciplinaire et qui
permet de travailler dans ce sens.
Un autre usage des citations existe. Il consiste à comptabiliser les citations présentes dans un
travail publiés. A l’origine, développé pour l’US Air Force, l’objectif était de suivre par
clustérisations successives les travaux ayant en commun des citations (paires, triplets...)
identiques. De ce fait on pouvait créer entre articles un certains nombre de liens autres que par
les thèmes ou le suivi des réseaux d’auteurs. Cette approche est valable sur le plan
épistémologique, entre autre pour réaliser un Atlas des Sciences, mais sur le plan de l’hyperinformation elle n’apporte que peu de choses, car elle est bien trop éloignée de l’action. En
effet, pour qu’un auteur cite un travail, il faut que ce travail ait été publié, puis que lors de la
rédaction de son article, l’auteur citant introduise cet article dans les références bibliographiques.
Si on veut ainsi tracer le cheminement de la citation, puis du travail réalisée, etc. on constate
aisément que la latence de temps augmentera encore.
Nous conseillons donc de n’utiliser cette base de données (pluridisciplinaire, donc loin d’être
exhaustive sur des thèmes précis) de façon à avoir une idée plausible des acteurs dans un
domaine donné, en prenant comme postulat de base que si le travail est cité, c’est qu’il intéresse
celui qui le cite. Cependant, l’espérance de citation d’un article même bon reste faible en
général, cette approche sera donc très restrictive.
5.2.1.3 - L’utilisation de l’Internet
L’Internet, réseau mondial de diffusion d’informations doit être considéré dans le cadre de
l’hyperinformation de plusieurs façons. En effet, on peut soit se réjouir de la mise à disposition
facile d’informations et de l’utilisation de messageries de plus en plus performantes, mais nous
croyons, que dans le cadre de l’hyperinformation, il faut le considérer comme un système qui
va permettre de changer quelques règles dans le sacro-saint domaine de la diffusion des
connaissances. On va voir que dans la démocratisation de l'information à la fois au niveau de la
production, puis de la diffusion et de l'accès, l'Internet joue et va jouer de plus en plus un rôle de
choix. Avant de donner quelques règles simples au niveau de l'utilisation, nous allons aborder
plusieurs points préalables pour situer dans le contexte de l'information les contraintes d'accès et
de diffusion.
5.2.1.3.1 - La démocratisation de l’accès à l’information.
Quand il n’y avait pas de bases de données en ligne, l’accès à une information exhaustive était
strictement réservée à des groupes industriels pouvant mettre en jeu sur un thème donné une
force de travail importante pour chercher dans des bibliographies les travaux publiés. Puis, la
mise en place de réseaux en temps partagés de plus en plus performant, l’accès en
conversationnel à des sources d’informations importantes rendu de plus en plus aisé, a conduit
au développement de serveurs à l’échelle mondiale. Ainsi pour des sommes relativement
modestes, un étudiant dans une bibliothèque, une PMI, une PME un particulier même, peuvent
accéder avec un téléphone et un modem à des sources d’informations exhaustives et mondiales.
Ceci constitue un progrès important au niveau de la démocratisation de l’information, bien
évidement dans les pays où l’argent et les facilités techniques existent.
L’évolution des technologies conduisaient en même temps, au développement de bases de
données portables (les CD-ROM) qui sont une réponse, entre autre pour les pays en
développement à un accès large aux sources d’information.
Mais, dans ces deux derniers cas, force est de constater que la chaîne Editeur (du Journal), et
serveur, contrôlent encore largement le système de diffusion. Entre autre, le système de diffusion
par examen préalable du travail par un comité de lecture, si cela permet de valider le travail,
conduit aussi à ne le laisser se développer que dans les règles strictes du "politiquement correct".
Ce que l’Internet a profondément changé par la multiplicité des serveurs que l’on peut créer, ce
sont les conditions non pas d'accès, mais de la diffusion de l’information. Ainsi, le scientifique
(ou autre), ne se trouve plus captif de collèges invisibles, ni de journaux scientifiques, et peut
donc diffuser son travail en tout ou partie, selon une stratégie qui lui sera propre, et en publiant
s'il le désire tout ou parti de ce travail dans des revues spécialisées. Cette constatation est
importante, et dans le domaine de l’hyperinformation, elle conduira a mettre en place des
méthodes d’analyse systématique des sources Internet, entre autre avec des robots.
5.2.1.3.2 - L’évolution des systèmes de diffusion et d’accès à l’information
La figure suivante indique les grandes étapes de la démocratisation des accès, puis de la diffusion
des informations.
Démocratisation de l'accés et de la diffusion des informations
Saisie Informatique
Moines copistes
Guttenberg
imprimerie
linotype
ordinateur composition
CDROM
Serveurs
Réseau mondial
impression
offset
INTERNET
Bibliothèques
Tous serveurs
Réseaux
Tous utilisateurs
Entreprises ou particulier
La démocratisation de l'accès puis de la diffusion des informations
On peut constater tout d’abord, que la diffusion des connaissances a été réalisées par copies
successives, c’était le temps de la gravure, des papyrus, des parchemins. Ce mode de diffusion
était particulièrement coûteux et n’était pas particulièrement répandu. Guttenberg, ensuite avec
l’imprimerie a bouleversé les systèmes de diffusion de l’information et a démocratisé un peu
celui-ci. En créant l’imprimerie et en favorisant a diffusion de certaines traductions de la bible,
Guttenberg a apporté une contribution (non volontaire) à la diffusion des idées de la réforme.
Ensuite, le même système par la Linotype, a favorisé une vitesse de composition plus rapide,
ainsi que la création de caractères mieux définis et plus maniables.
On peut noter que les avancées technologiques précédentes on mis plusieurs milliers d’années
avant d’arriver à maturité.
Les progrès de l’informatique et des médias de stockage ont permis le développement de la
saisie informatique et de la mise en place de textes particulièrement attrayants avec l’utilisation
des polices vectorielles. Ces textes, permettaient la constitution de «plaques Regma» utilisées
ensuite dans les rotatives.
Ensuite les développements successifs de l’informatique et des réseaux ont permis à partir des
stockages d’information précédents le développement des serveurs et un accès partagé et
délocalisé à l’information. Ceci a été une première rupture dans l'accès et la diffusion des
informations à l’époque moderne. Enfin, on arrive à l’époque actuelle où par l’intermédiaire de
l’Internet, par une micro-informatique de plus en plus performante, on peut accéder à une
information directement mise à disposition de l’utilisateur par le producteur.
L’Internet constitue donc une rupture majeure de la chaîne classique de diffusion de
l’information. Ceci est important, car c’est une préfiguration de ce que pourrait devenir un
système d’information de plus en plus ouvert, où toute la difficulté ne sera plus d’accéder à des
informations, mais de sélectionner et d’analyser des masses d’informations pour ne retenir que
celles qui seraient vraiment pertinentes.
Nous sommes dans une dynamique de rupture avec le passé, avant, on attendait l'information,
maintenant il faut aller la chercher. (Guy Pouzard, IGEN, lors du Colloque Internet à 'Ecole,
CRDP Marseille, Octobre 1997)
Notons entre autre un système hybride que se développera soit sous la forme de CD-ROM, soit
sous la forme de média ayant des capacités de stockage de plusieurs Giga octets, mais pouvant
être transportés et lus avec facilité. Ces bases de données portables pouvant stocker des textes,
des graphiques des images, du son et des séquences vidéo sont particulièrement appropriées
pour s’affranchir des réseaux et des coûts de télécommunications ainsi que pour favoriser une
diffusion d’informations dans les pays en développement. Ces médias constitueront aussi un
système d’archivage qui pourra ensuite constituer une mémoire d’entreprise ayant une bonne
capacité de conservation et pouvant être facilement manipulée.
Si nous remarquons que l’accélération de ces technologies est apparue réellement que vers le
milieu des années 70, on constate le bouleversement qu’elles introduisent au niveau des
comportements. En effet, nos réflexes, une grande partie de nos acquis ancestraux sont basés sur
des systèmes d'accès et de diffusion lents de l’information (exception de la TSF et de la
télévision qui sont un peu plus anciens). Comparés aux millénaires qui ont précédés, cela ne peut
que produire des changements de comportement importants. En outre, dans les technologies
mêmes, des progrès fulgurants sont accomplis. On assiste depuis cinq ans à un accroissement
sans précédent des performances, le tout accompagné d’une baisse de prix des matériels. Cette
situation unique va favoriser de façon importante les institutions et les entreprises qui vont faire
l’effort de structuration et de mise en place des systèmes d’information adaptés à leurs besoins
et supportés par de tels matériels. Ceci est important, car même des PMI et PME, voire même
l’individu pourront s’ils prennent le temps et disciplinent leur comportement, avoir après
quelques années d’activité des systèmes personnels d’information extrêmement puissants.
Cette situation, unique par les facilités qu’elle met à notre disposition, va accompagner tous
ceux qui vont évoluer vers les changements de structures induits par la complexité de notre
époque. Par contre, les écarts et les inégalités risquent de s’accroître plutôt que de diminuer. En
effet, ce qui va surtout compter c’est la pente à l’origine de l’effort, de l’acquisition et de
l’utilisation de ces systèmes. On peut penser que les pays qui prendront trop de retard dans le
domaine de l’équipement et de l’utilisation de ces matériels et de ces technologies n'auront plus
d'une par les réflexes nécessaires pour utiliser à des fins de développements (commercial,
d'éducation, etc.) ces systèmes et d'autre part les capacités techniques nécessaires au niveau des
spécialistes. En ce sens, le sous équipement de la France en micro-informatique est un
fait particulièrement inquiétant.
Sans aller dans le détail de ce type de discussion qui est assez éloigné des concepts que nous
voulons exposer ici, on peut dire que les stratégies accès à l’information, vont, en fonction des
objectifs ainsi que du niveau de "fraîcheur" nécessaire se différencier fortement. En effet, on peut
concevoir qu’une Université ne soit pas particulièrement liée au temps d’apparition des idées
donnant naissance à différents travaux. Mais, dans le cadre d’un laboratoire de recherche privé,
il en sera tout autre, ce qui induira des stratégies d'accès à l’information différentes.
Un article paru dans La Tribune, Jeudi 18 Septembre 1997, page 31, situe bien ce type de
réflexion en mettant en évidence que l'informatique décisionnelle n'est plus l'apanage des grands
groupes, elle est désormais accessible aux PME. A partir des réseaux internes et externes des
systèmes nouveaux seront mis à la dispositions des différents acteurs:
* Commerciaux, (équipements, portables)
* Banques et Administrations: transfert de données (EDI) (téléphone-modem ou lignes dédiées)
* Clients (catalogues en ligne, avec réactualisation)
* Fournisseurs (commandes, téléphone-modem ou lignes dédiées)
* Relations avec d'autres MPE (Virtual Companies, Forums, messageries...)
* Publicité (présence sur l'Internet, serveur WWW)
Cet ensemble permet d'accélérer la circulation des informations, la prise de décision, la
concertation, la consultation d'experts. On ne soulignera jamais assez le rôle moteur que vont
avoir les normes de transfert de données et l'homogénéité des systèmes informatiques.
Une maîtrise de ces différents aspects permettra à l'entreprise d'entrer rapidement, lorsque le
moment sera venu, dans le commerce électronique, l'échange de données, les discussions
télématiques permettant de mobiliser des compétences diverses, géographiquement réparties,
pour répondre à des appels d'offre.
5.2.1.3.3 - Quelques règles simples dans l'utilisation de l'Internet
En donnant la possibilité aux individus, aux entreprises, aux collectivités, aux laboratoires, de
diffuser de l'information, d'avoir une existence mondiale par la création de serveurs ou de pages
WWW supportées par des diffuseurs d'information, l'Internet constitue une source d'information
nouvelle. Elle est caractérisée par un foisonnement de plus en plus grand d'informations de
toutes natures, principalement du texte, et de l'image (photos et schémas). Certains serveurs
WWW permettent aussi d'accéder à des informations via des bases de données personnelles
accessibles en ligne. Les grands serveurs Dialog, Questel, ... sont aussi accessibles via l'Internet
(ce qui ne veut pas dire que cela soit gratuit!).
Une littérature foisonnante a été et est écrite sur le sujet. Il n'est donc pas question de reprendre
celle-ci dans cet ouvrage.
Indiquons cependant quelques règles qui ne feront que s'amplifier:
* dans le domaine universitaire, où l'accès à l'internet est la majeure partie du temps gratuite
pour les membres d'un laboratoire et pour les étudiants, on va certainement assister à une prise
en compte de plus en plus grande de ce média. En effet, les bases de données classiques (Inspec,
Pascal, Chemical Abstracts, WPIL (brevets)), accessibles via les serveurs classiques sont riches
mais chères, bien trop chères pour des étudiants ou des laboratoires de recherche (je parle ici de
laboratoires français, a fortiori pour ceux des pays en développement). De ce fait, l'accès à
l'information se modifiera, le couplage d'informations présentées sur internet avec la possibilité
d'accéder par messagerie aux auteurs de cette information va modifier les comportements.
L'intéractivité entre l'auteur de l'information et le lecteur devient alors un "plus" fondamental.
* dans le domaine de la concurrence et de l'accès aux produits et à certains services, l'internet va
jouer un rôle de plus en plus grand. En effet des sociétés de plus en plus nombreuses présentent
leurs catalogues, leur savoir faire, leurs produits. De ce fait, on peut accéder à une information
de caractère très différent de celle qui est donnée via les bases de données classiques. En outre,
elle est fournie en temps réel. Cela est très vrai actuellement pour l'informatique, mais s'étend à
de nombreux autres domaines.
Le commerce électronique va donc se développer rapidement. Actuellement les stratégies dans
le domaine de la sécurité des paiements est encore à ses débuts, mais les progrès réalisés en la
matière permettent de penser que les applications à très grandes échelle du couplage de la
commande en ligne, du paiement sécurisé et de diffuseurs comme DHL par exemple, vont
perturber considérablement les systèmes commerciaux actuels. En effets, si les entreprises de
ventes par catalogues basaient une grande partie de leurs stratégies sur des "mailing" très
personnalisés, l'ouverture à l'échelle mondiale (avec toutes les échelles de prix prévisibles) va
considérablement faire évoluer cette profession. En outre, les représentations locales de matériel,
ne se situeront plus dans un espace exclusif, ce qui n'ira pas sans changer quelques habitudes.
* la difficulté c'est avant tout de rechercher dans le foisonnement des informations celles
qui sont les plus pertinentes. Si on le réalise correctement à partir d'un site payant, cela peut
coûter relativement cher. Si on le réalise depuis un laboratoire universitaire spécialisé cela
coûtera moins cher, mais le temps sera plus long. On peut procéder par coups de sonde, en
utilisant directement les facilités de recherche offerte par le système (Altavista, Yaooh, ...), ou
utiliser des robots ou agents intelligents qui iront chercher pour vous les données. On peut aussi
réaliser des "gateways", c'est à dire faire "monter des pages" qui créeront les liens nécessaires
avec toutes les applications qui vous concernent dans une liste de thèmes donnés, etc.... Tout
ceci pour gagner du temps, car on peut passer des heures et des heures devant une machine
reliée à Internet. C'est très intéressant ... pour l'individu, mais pas nécessairement pour la société
qui le paie.
* quelle stratégie pour une société ? Je pense, qu'il faut envisager le problèmes sous deux
angles: une stratégie de recherche, une stratégie de présence.
* au niveau de la recherche on va essayer de stocker sur son propre ordinateur ou sur un
Intranet les pages principales concernant les concurrents que l'on connaît et qui sont présents sur
le WEB. On pourra ainsi, soit stocker de l'information pour la réutiliser en cas de besoin, soit
mettre en place une consultation de ces pages par un intranet local. Ainsi, la notion de temps
d'accès ne rentrera plus en compte, le système étant mis à jours (la nuit par exemple) de façon
quasi automatique. On pourra aussi périodiquement lancer une recherche avec un robot public (il
y en a en freeware), ou commercial sur ses principaux thèmes d'intérêt. L'objectif est de trouver
une information rare, souvent inattendue. Mais, les volumes à manipuler sont souvent
importants. C'est pour cela que de nombreuses recherches ont conduit et conduisent toujours à
proposer des produits en complément qui vont permettre de synthétiser, résumer, analyser
automatiquement les données issues de l'Internet.
5.2.3.4 - Les agents intelligents
Au sujet des robots, c'est à dire des programmes qui sont lancés sur le réseau internet à partir
d'un ordinateur relié à celui-ci, on peut dire qu'il en existe de nombreux, accessibles soit comme
freewares, soit commerciaux, soit utilisables à distance ce qui est par exemple le cas du robot
conçu par le CRRM, AURESYS 2. (description détaillée: http://crrm.univ-mrs.fr) L'accès au
robot se fait par mot de passe, donné à un utilisateur distant. Celui-ci passe sur le site du
CRRM, dans la rubrique robot. Il paramètre celui-ci à distance et lance les opérations de
recherche. A partir d'un certains nombre de paramètres de recherche ou de liens, qui peuvent
être établis par consultations de systèmes publics comme Altavista, Yahoo, ... on va programmer
le robot, pour que celui-ci aille rechercher les pages contenant les données, et à partir des liens
de ces pages, se propager sur d'autres sites qui auront un certain intérêt. Cette propagation peut
être suivie d'une exploration du site, suivant une profondeur que l'on détermine (nombre de liens
en profondeur à partir de la page consultée). Dans le cas où certains serveurs ne sont pas
déclarés, (il est d'usage lorsque l'on crée un serveur sur le Web, de déclarer celui-ci) on peut
estimer quel serait leur numéro, et programmer le robot pour qu'il examine les serveurs
existants, dans une plage de numéros déterminée à l'avance. Les données sont ensuite ramenées
par le robot sur un site donné (en l'occurrence le serveur du CRRM), et rendues disponibles à
distance par ftp.
L'exemple suivant montre un des résultats obtenus par le robot:
(Extrait du mémoire de DEA de Monsieur Bruno Manina, CRRM, Marseille, 1996)
AURESYS permet de créer des bases de données interrogeables à distance par plusieurs utilisateurs. Les
informations sont récupérées du NET, puis traitées pour être stockées dans ces bases. Chaque base de
données répond à une requête personnalisée d'un utilisateur.
Grâce aux bases de données créées, AURESYS donne les moyens à un utilisateur d'avoir un maximum de
renseignements se rapportant à un sujet donné.
Constitution d'un corpus analysable directement par des outils bibliomètriques.
Constitution de Dossier Général d'Information (DGI) ou de Dossier d'Information Stratégique (DIS).
Ses Atouts: AURESYS respecte l'autorisation de visiter les sites. (robot.txt). Les bases de données crées
sont réactualisables, d'où son intérêt en Veille Technologique.
AURESYS permet de choisir le domaine dans lequel le robot effectuera sa recherche, ainsi que la
profondeur de recherche (liens hypertextes).
Possibilité de commencer la recherche depuis n'importe quelle page d'un site.
Grâce à l'incrémentation des numéros IP, AURESYS est capable de trouver des sites qui ne sont pas
enregistrés par les utilitaires classiques du WEB (Yahoo, Lycos, Search...), la plupart des autres robots
se contentant d'interroger les sites déjà indexés.
AURESYS récupère le nom des images, les e-mails, les liens hypertextes internes et externes, le "header"
de la page HTML, l'adresse hypertexte de la page HTML, la date de transfert et de dernière modification
du fichier.
AURESYS stocke l'arborescence de la page.
Ses Utilisateurs: toute personne désirant s'informer sur un sujet donné avec réactualisation permanente
des informations.(Veilleur Technologique ou Concurrentiel par exemple)
Sa Conception: Programmation d'AURESYS en langage (http://www.perl.com) PERLA
Utilisation de FRETTAIS pour indexer la base de données
Utilisation de SFGATE pour interroger la base de données
Exemple de données extraites à partir d'AURESYS (concerne une seule page analysée):
LES AGENTS INTELLIGENTS
Il y a 281 mots dans la page.
Les Meta Tags :
Aucun. Il y a 10 image(s) dans la page. Mot(s) clé(s) recherché(s) : auresys(3) .
Nombre de mots clés trouvés : 1
Le fichier a été transférée le : Wed Sep 3 14:16:46 1997
Dernière modification du fichier : Thu Mar 20 15:32:00 1997
Fichiers sauvegardés : 1 Fichiers visités : 11
Adresse de la Page :
<A HREF = http://ms161u21.u-3mrs.fr/mb/present.htm> http://ms161u21.u-3mrs.fr/mb/present.htm
Voici l'environnement des mots clés :
[IMAGE] Les Agents Intelligents : Définition, Utilité, Exemples et Serveurs.
[IMAGE] La Veille Technologique : Définition, Outils, Méthodes et Moyens.
[IMAGE] Pourquoi utiliser les Robots en Veille Technologique ?
[IMAGE] Présentation du Robot AURESYS : AUtomated REsearch SYStem : Recherche
par Mots-Clés sur tous les serveurs du NET et Rapatriement des Pages contenant ces Mots.
[IMAGE] Configuration du Robot AURESYS : Adresse de départ, Mots-Clés,
Port,
URL Internes :
il y a 7 URL interne(s) dans la page.
URL Externes :
http://crrm.univ-mrs.fr/res-teach/staff/cvdou.html
http://crrm.univ-mrs.fr/res-teach/staff/cvdou.html
http://crrm.univ-mrs.fr/res-teach/staff/cvquoniam.html
http://crrm.univ-mrs.fr/res-teach/staff/cvquoniam.html
ftp://crrm.univ-mrs.fr/pub/CVetud/Etudiants/Mannina/CVbruno.htm
ftp://crrm.univmrs.fr/pub/CVetud/Etudiants/Mannina/CVbruno.htm
ftp://crrm.univ-mrs.fr/pub/CVetud/Etudiants/CDOU/cvcar2.htm
ftp://crrm.univmrs.fr/pub/CVetud/Etudiants/CDOU/cvcar2.htm
http://crrm.univ-mrs.fr/res-teach/staff/cvgiraud.html
http://crrm.univ-mrs.fr/res-teach/staff/cvgiraud.htmlIl
y a 5 URL externe(s) dans la page.
Les Frames :
Les Images :
www.gif(2)
drapeau2.gif(1)
usa2.gif(1)
ballblue.gif(6)
Niveau de profondeur : 3
Taille du fichier : 2381 Octets
Mails de la page : [email protected] (1)[email protected] (1)
Chemin :
0 : ms161u21.u-3mrs.fr/
1 : ms161u21.u-3mrs.fr/cvimpr.htm
2 : ms161u21.u-3mrs.fr/home.html
3 : ms161u21.u-3mrs.fr/mb/present.htm
FIN DE TRAITEMENT....
5.2.1.5 - Etre présent sur l'Internet
Etre présent sur le WEB. C'est le premier pas pour se donner une lisibilité. Que faire, que
placer dans les pages descriptives de l'activité de l'entreprise, quels liens créer, etc... Mais,
n'oublions pas ici une donnée de base: bien que des moteurs de recherche permettent d'accéder
aux informations, contenues dans les pages principales d'un serveur, et ceci pour la majorité des
serveurs présents sur le réseaux, la publicité que vous donnerez à votre propre site sera
fondamentale. Il faut aussi envisager des sites fédérateurs qui permettent le passage ou la
présentations vers différentes applications ou descriptions et qui de ce fait augmentent la chance
de consultation. En outre, les vitesses d'accès à l'Internet étant différentes, il faut, lors de la
réalisation de vos pages, tenir compte des temps de consultations (taille des images, frames, ...).
Enfin, si vous souhaitez que vos informations soient rapidement consultées, au niveau
transcontinental, il vaudra mieux pour vous réaliser un site miroir d'une partie de vos
applications sur la zone même où la consultation devra être effectuée. Ce système est
généralement utilisé pour l'Amérique du Nord, du Sud et pour certains pays d'Asie.
Une bonne façon de tester son propre site, c'est de le consulter "d'ailleurs" chaque fois que cela
est possible. On aura ainsi une bonne idée de la vitesse de consultation, ainsi que de l'aspect des
pages et des images. On peut aussi s'abonner à un provideur par exemple Wanadoo de France
Télécom, ou Gulliver, ou Compuserve, ou AOL (American On Line......) et ainsi pouvoir
consulter comme la majeure partie des gens son site et les sites concurrents pour effectuer un
certains nombre de comparaisons. On peut aussi selon des techniques alliant la psychologie, les
aspect techniques, l'ergonomie, ... faire faire par des panels, du bench-marking de sites internet.
Nous avons fait un certain nombre d'études dans ce sens, les résultats sont parfois surprenant,
entre autre pour certains services dérivés du Minitel, où la conception globale garde encore
l'habitude de vous faire consulter de multiples pages avant d'arriver à l'information recherchée
(on gagnait de l'argent au temps passé, avec la formule kiosque), alors que dans le cas de
l'Internet, il faut donner le meilleur accès possible dans un temps relativement court.
Les lecteurs qui possèdent un accès à l'Internet, pourront consulter le serveur du CRRM qui
montre comment un laboratoire universitaire, tourné à la fois vers la recherche, l'enseignement et
les entreprises peut assurer une présence sur le WEB.
http://crrm.univ-mrs.fr
Remarquez aussi la confection de la première page, qui ne donne pas une impression de
présentation figée. Elle comprend à la fois des choix par images fixes, animées, des choix par
menus textuels. Les rubriques sont multiples et changent souvent. En effet le contenu d'un
serveur doit évoluer en permanence, des rubriques nouvelles doivent apparaître ou disparaître.
En effet rien n'est pire qu'un système fixe, sans animation et intéractivité.
On remarquera aussi la présentation des collaborations, des partenaires, des gateways, qui en
assurant des liens avec d'autres sites, vont conduit par réciprocité à une augmentation de la
consultation du serveur. De même, l'adresse doit être facile à retenir, et elle devra figurer sur le
papier à entête, sur les publicités, etc...
5.3 - Les brevets
Les brevets sont des publications qui obéissent à des règles différentes de celles des publications
scientifiques. L’écriture, le formalisme, l’examen, sont réalisés avec des règles strictes qui sont
édictées par des offices de brevets nationaux ou internationaux. (Propriété Intellectuelle
{T1100}, Arnaud de Saint Palais, Les Techniques de l'Ingénieur, 1997)
La procédure de dépôt est réalisée de telle façon que pendant une période d’examen de l’ordre
de 18 mois, le contenu du brevet n’est pas accessible. Ainsi, si dans ce laps de temps on dépose
une invention identique, celle qui a été déposée avant fera, dans le domaine force de loi.
Ce délai de ne peut pas être raccourci, et tous ceux qui cherchent l’apparition de nouveaux
brevets sont placés devant la même situation. Les gazettes (publications offcielles des offices de
brevets) lors de leur publication présentent les nouveaux brevets, les bases de données
internationales type WPIL (World Patent Information Latest produite par Derwent) essaient
dans la mesure du possible de réaliser des mises à jours de plus en plus rapides pour fournir une
information de grande fraîcheur. De même les Offices (OEB Office Européen des brevets, INPI
Institut National de la Propriété Industrielle, US Patent Office....) éditent des CD-ROM qui
contiennent sous forme d'images ou de textes les signalements des brevets. Les CD-ROM sont
émis avec une fréquence telle que la fraîcheur de l'information reste de bonne qualité.
Un autre point important, au plan des brevets, c’est qu’ils protègent une invention. Celle-ci par
excellence est donc nouvelle, et pour que ceci soit réel, il ne faut pas qu’on puisse lui opposer
des travaux publiés, ou présentés même oralement si les témoins sont suffisants dans une période
de temps antérieure à celle du brevet déposé. De ce fait, les informations passées prennent une
valeur non plus seulement épistémologique ou descriptive, mais peuvent devenir stratégiques
dans le contexte de la propriété industrielle. (Brevets d'invention et propriété industrielle,
Wagret , Que Sais-Je?, n°1143, Puf, Paris.)
Une donnée importante dans le domaine de la propriété industrielle, c’est que même si on accède
par une base de données ou par une gazette aux textes ou aux résumés des brevets déposés, on
ne sait que rarement si un brevet est utilisé ou non au plan industriel. Ceci constitue au niveau
de l’information active une barrière importante. Mais, tout le monde est soumis au même
régime et c’est seulement le système d’information informel et un bon réseau qui permettent
d’aborder ce point précis. Du fait de la complexité de ce système d’information, à la fois au plan
documentaire et au plan juridique, (les brevets selon leur niveau d’examen sont situés à
différentes phases, ils peuvent être pour le Japon Koho, ou Kokai, ils peuvent citer d’autres
brevets plus ou moins proches, ils peuvent être déchus, ou abandonnés par le non paiement des
annuités, il peut y avoir des co-déposants, ils peuvent être revendus, ...), le service des brevets a
longtemps été considéré (et même reste considéré) dans certaines sociétés comme un service
particulier. En fait, bien que son statut nécessite une certaine spécialisation, le brevet fait partie
intégrante du système d’information normal de l’entreprise et il n’y a pas de raison de dissocier
celui-ci de l’approche informative globale. Au contraire il doit constituer un point d’intégration
fort, un lien entre les politiques de recherche et de dépôts des concurrents, permettre un début
de bench-marking, et favoriser une prise de conscience de l'intégration des avancées scientifiques
dans le développement de nouveaux produits. De même, pour une entreprise qui n'aurait pas les
moyens (ou la nécessité) de protéger un patrimoine technique, les bases de données brevets
constituent néanmoins une source d’informations stratégiques de premier plan. Les bases de
données brevets peuvent être considérées comme le reflet des technologies du moment et des
avancées industrielles dans le domaine. (Systèmes de surveillance systématique pour le
management stratégique de l'entreprise. Le traitement de l'information brevet. Nivol W.,
Thèse Doctorat Sciences Marseille, CRRM, 1993, Université Aix-Marseille III - Analyse
relationnelle pour la Veille Technologique vers l'analyse automatique des brevets Huot C.,
Thèse Doctorat, Sciences Marseille, CRRM, 1992, .Université Aix-Marseille III - Le brevet
source d'information, Jakobiak F., Dunod, Paris, 1994 - Qui fait confiance aux brevets,
Mathieu E., Cahier n°9 du SESSI, Ministère de l'Industrie des Postes et Télécommunications et
du Commerce Extérieur. Direction Générale des Stratégies Industrielles 85 Boulevard du
Montparnasse, 75270, Paris Cedex 06, France)
Dans la politique mondiale de globalisation, la libre circulation des marchandises trouve
uniquement des limites au niveau de la protection industrielle. Ainsi, si un produit est protégé
par un brevet dans un Etat, il ne sera pas possible de fabriquer le produit dans cet Etat sans tenir
compte de cette protection. Si le brevet n'a pas été étendu dans d'autres pays, le produit pourra y
être fabriqué sans contrainte, mais, il ne pourra pas être importé dans le pays dont le territoire se
trouve être protégé, vis à vis de ce produit, par un brevet. Voir à ce sujet le cours de propriété
industrielle de J.L. Somnier (DEA Veille Technologique et Intelligence Compétitive, CRRM) de
Monsieur Jean Louis Somnier, Cabinet Beau de Loménie, 232 Avenue du Prado, 13295
Marseille Cedex 8).
On dit souvent qu'un brevet coûte cher. Ce n'est pas réellement le cas. En effet, il n'est pas
souvent nécessaire de prendre un brevet Européen ou Mondial. Il faudra établir une stratégie de
dépôt, pour protéger certaines zones géographiques où l'on exerce une activité. Dans ce cas, une
protection par pays coûtera de l'ordre de 50.000 fr. (La protection technologique dans
l'industrie. Entre brevet et secret: un choix stratégique, Bussy J.-C., Kabla I., Lehoucq T.
SESSI, n°34, mai 1994, Ministère de l'Industrie des Postes et Télécommunications et du
Commerce Extérieur. Direction Générale des Stratégies Industrielles 85 Boulevard du
Montparnasse, 75270, Paris Cedex 06, France)
On pose souvent le problème: comment savoir si un brevet est déchu. En effet dans la majorité
des cas, on ne continue pas de payer des annuités à un office de brevets (sauf si le brevet est
réellement exploité, ou s'il défend un produit, etc...). Dans ce cas, le brevet tombera dans le
domaine public. Pour le savoir, il est normalement possible de consulter certaines bases de
données, si elle sont correctement mises à jour. Une indication: brevet déchu, ou "abandonned",
sera mentionnée. On pourra aussi demander aux offices nationaux le statut juridique d'un brevet,
l'information sera obtenue pour une somme relativement modique.
5.3.1 - Exemples de recherche
La recherche classique des brevets sur les bases de données en ligne (WPIL World Patent Index
latest de Derwent, US Patents Database, Japio (brevets Japonais, Chinapats, Inpadoc, Eupat,
Fpat...) a été décrite dans différents traités de documentation. Nous avons aussi abordé ce
problème dans divers livres et publications. (Veille Technologique, Hélène Desvals, Henri Dou,
Dunod, 1992 - Veille Technologique et Compétitivité, Henri Dou, Dunod, 1996, 4 L’Information brevet., Raimundo Macedo dos Santos, Thèse Sciences Université AixMarseille CRRM, Marseille, 1995 - 21 - Maîtriser la prolifération de l’information grâce à la
bibliométrie, Dou H., Technologies Internationales, n°9, pp.42-44, Novembre 1994)
Nous allons, dans cette partie de l'ouvrage traiter plus particulièrement de l'accés aux bases
brevets moins conventionnelles, par l'internédiaire d'Internet.
Sur l'Internet, on accède maintenant à plusieurs serveurs qui développent une information en
ligne (serveur de l'US Patent Office par exemple) ou sous forme d'études statistiques. Notons
aussi l'effort remarquable de la Société IBM, qui sur son serveur donne accès aux brevets
américains. D'autres pays, comme le Brésil donnent aussi accès aux licences brésiliennes et ceci
gratuitement et avec l'Internet. Il ne fait pas de doute que tout ceci se développera encore plus,
et que cela posera à terme quelques problèmes avec les serveurs commerciaux actuels.
Recherche générale sur le terme Patents (AltaVista):
Pour ceux qui ont accès à l'internet, une recherche avec AltaVista (système de recherche en ligne
de l'information accessible gratuitement sur l'internet) utilisant le terme PATENTS, conduit à
environ 143.390 documents (Septembre 1997) qui correspondent au signalement. Bien sûr, la
question doit être affinée, et lorsque cela est réalisé, on accède directement à des ressources
dans le domaine qui vont de l'utilisation commerciale de certains produits (analyse, abonnement
à des indicateurs ...), à des ressources éducatives qui permettent à un néophyte (bien entendu
lisant l'anglais, mais cela est implicite dans le domaine de l'information) d'acquérir des
connaissances mêmes très spécialisées dans le domaine. Par exemple on accédera à:
Patents: The Engineering Library
Patents are a rich source of technical informations that is often overlook. Several World Wibe
Web sites are now available to public to improve ......
http://dol1.eng.sunysb.edu/lig/patents.html - size 10K - 1-Apr-97 - English
OMRF ANNOUNCES PATENTS ON PROCEDURE TO INACTIVE HIV IN BLOOD
PRODUCTS
Previeus release. Return to Index. OMRF ANNOUNCES PATENTS ON PROCEDURE TO
INACTIVE HIV IN BLOOD PRODUCTS. Oklahoma City, November ...
http://www.twoten.press.net/stories/96/11/08/headlines/MEDICAL_Hiv_Patent.html - size 5K 8-Nov-96 - English
La partie en italique soulignée, indique la page HTML qui contient le sujet. C'est l'adresse de la
page qui est indiquée. On pourra la stocker en "bootmark" dans son logiciel de recherche
(Microsoft Internet Explorer, Netscape..), ou alors, à partir d'AltaVista, un simple clic avec la
souris sur la partie soulignée vous conduira automatiquement à partirde l'adresse indiquée au
serveur contenant les informations et vous permettra de les consulter. Ensuite, l'utilisation du
bouton back (sur votre logiciel d'accès à l'internet), vous permettra de revenir à la page
précédente et de consulter d'autres pages sélectionnées dans la recherche.
On constate ici tout l'intérêt de cette approche, en effet, on accède à une source d'information
éducative, mais aussi, on peut avec une démarche similaire accéder à des communiqués de
presse par exemple, qui vont anticiper sur la période au cours de laquelle le brevet reste encore
en examen (les informations restent toujours à vérifier). Ceci est un peu du niveau de la note
"patent pending" que l'on voit souvent apparaître sur les étiquettes de certains produits (entre
autre cosmétiques par exemple) ce qui indique qu'un brevet concernant le produit est en cours
de dépôt (ceci peut être vrai, mais peut aussi être faut). C'est une manoeuvre d'intimidation et de
dissuasion qui ne coûte pas cher!
Recherche ciblée sur le serveur de brevets IBM (http://www.IBM.com):
Dans le cadre de l'Utilisation sur serveur de brevets IBM, nous montrons ici à titre d'exemple
une recherche effectuée sur le serveur des brevets américains avec le terme DESLUDGING.
Le résultat est le suivant:
Le numéro avant le titre du brevet est le PN (Patent Number, numéro du brevet qui est
univoque)
Le pourcentage en fin de ligne, est issu d'un calcul qui en fonction de la fréquence du mot
recherché et de sa place (on peut aussi utiliser d'autres paramètres ...), conduit à un pourcentage
de qualité de la requête.
Search Results
(Query: (desludging <in> TITLE) or (desludging <in> ABSTRACT)
19 out of 2.192.518 patents matched your query. The 19 most relevant ones are displayed
below. Click on a patent number to view the details of a patent. Select the check boxes of
patents you wish to order by fax or mail then click on the Order button at the bottom
_____________________________________________________________________
❒ 4526685 Waste water treatment plant
82%
❒ 5527018 Filter unit and apparatus dor desludging salt baths
80%
........
❒ 4969775 Process of dressing contaminated soils
80%
❒ 4223622 Tanker desludging system
78%
........
❒ 3749303 CENTRIFUGAL SLUDGE SEPARATOR WITH
78%
DESLUDGING CONTROL MEANS
❒ 3593915 CONTROLLED DESLUDGING OF CENTRIFUGAL
78%
SEPARATORS
_____________________________________________________________________
rder Checked Document
FPatent Number Search | Boolean Text Search | Advanced Text Search
F
Home | Help | Search | Guestbook | Legal | IBM
Extrait d'une interrogation effectuée sur le serveur IBM (le document contient 19 signalements
de brevets présents sur deux pages).
5.4 - La relation entre le temps et les autres types d’informations
Nous avons vu, qu’excepté certaines informations véhiculées sur l’internet, les informations
publiées avaient une constante de temps relativement grande. On va voir ensuite un domaine
intermédiaire celui des lettres d’information qui constituent un support particulier (qu’elles
soient électroniques, par fax, ou écrites).
Nous abordons ici la notion d’information floue, informelle. Ces informations qui peuvent
provenir de discussions, de colloques, de visites, d’indiscrétions, conférences (de presses ou
autres) d’enquêtes, de visites de foires ou d’exposition etc... ont une particularité: elles sont liées
au présent, voire même au proche futur, mais elles doivent être validées. Ainsi, si les
informations très structurées et validées au préalable, sont des informations du passées ou du
proche passé lorsqu’elles sont publiées, les informations moins formelles, on dira informelles ou
floues sont plus proches du présent ou du proche futur.
Il est donc certain, que cette constatation va induire dans le cadre d’une information dynamique
une stratégie différente d’une stratégie classique reposant simplement sur la documentation ou
l’archivage. Cette étape sera un préalable, mais il faudra de toutes façon aller chercher sur le
terrain les informations plus informelles qui seront plus adaptées à l’action. Cette stratégie de
collecte, ces "briefings" et "debriefings" devront être organisés. Cette organisation devra mettre
en jeu des personnes dont ce n’est pas forcément le métier de base, des experts et des
animateurs.
On voit dons se dessiner ce que pourrait être les caractéristiques d’un système
d’information moderne pour action:
Une première étape qui consiste à partir des sources formelles classiques à aborder une
question, et à trouver dans le très proche passé les points les plus forts, les noeuds et les
personnes clés d’un réseau, etc.
Une deuxième étape qui va conduire à travailler plus particulièrement sur la collecte
d’informations plus floues, plus difficiles à obtenir, nécessitant la prise en compte et l’analyse
des sources différentes, l’analyse de coût, etc.. mais centrées sur les objectifs définis dans la
première étape.
Dans ces deux étapes, le rôles des experts est important (experts du domaine documentaire dans
un premier temps) puis ensuite informateurs occasionnels et experts scientifiques ou techniques.
Ensuite, ces informations seront rassemblées soit physiquement, soit électroniquement vers les
experts, qui à partir de celles-ci vont essayer de comprendre, d’émettre des hypothèses, de
demander éventuellement des vérifications, et enfin de donner aux décideurs des éléments forts,
étayant l’action.
5.4.1 - Les lettres d’information
On ne peut pas tout surveiller. Même en appliquant la méthodologie des facteurs critiques de
succès, la mondialisation, la diversité des informations qui peuvent être reliées à ces facteurs ont
conduit certains opérateurs à proposer des surveillances par zones géographiques, par thèmes,
par techniques. Ces surveillances dont la valeur est souvent très variable, trouvent leurs
expression des les lettres d’information. Le principe est d’avoir sur le terrain un ensemble
d’informateurs travaillant en réseau, qui vont envoyer à la centrale (ceux qui assurent la
rédaction de la lettre), leurs informations. Celles-ci ne seront pas commentées. En effet, au plus
on prend l’information prés de sa source, au moins on a le temps de réaliser un commentaire ou
un article de synthèse.
Le Temps, le Temps....
• L'information Informelle doit être obtenue et
prise en compte le plus tôt possible.
• C'est la meilleure manière de gagner du temps par rapport
à vos concurrents
volume
quelques pages
quelques lignes
un article
mais il est déjà trop tard!
jours ou semaines
temps
CRRM
Volume des informations et facteur temps
Les bonnes lettres seront celles qui valideront leurs informations, et qui, par des réseaux
d’informateurs bien situés seront à même d’embrasser le plus complètement possible le champ
qu’elle annonce comme couvert. Elles devront avoir pour règle, d'informer rapidement le lecteur
dés l'apparition de l'information, c'est à dire en quelques lignes. Ceci veut dire que leur
périodicité doit être courte, car autrement le délai écoulé entre la naissance de l'information et sa
diffusion serait trop grand. La figure ci-dessus indique bien que le volume de l'information
obtenu sera d'autant plus faible que l'information sera près de la source d'émission. Ensuite, des
dépêches, des articles, des périodiques... expliciteront l'information, ses conséquences possibles,
etc. Mais, au plus on a une information générale sur le sujet, au moins elle aura de la valeur, au
sens strict de l'information pour action et pour anticiper.
5.4.1.1 - Généralités sur les lettres d'information
Les réalisateurs de ces lettres dites confidentielles (elles ne le sont généralement pas puisqu’on
s’y abonne !) sont très divers: cabinets conseils, services des ambassades, journaux
(internationaux, nationaux, régionaux), tous services dont l’objectif soit de service public soit
financier est de diffuser de l’information.
Le principe de la lettre est généralement le suivant: un article très bref, souvent quelques lignes,
présente les faits dés leur début. C’est ensuite aux lecteurs, de s'organiser pour mettre en place
une stratégie pour mieux connaître ce qui se passe. Les lettres qui généralement traitent de sujets
très divers, pas nécessairement présents dans les bases de données, ont comme avantage de
réaliser un premier screening assez large d’un domaine, en «économisant» une partie des forces
qui seraient nécessaires pour couvrir ce secteur, et en les réservant pour aller vraiment vers
l’objectif. Le problème réside cependant dans la qualité de ces lettres qui peut être très variable.
Le coût n’est pas vraiment un critère de décision. Le véritable critère est le contenu, et le
nombre de lettres diffusées. En effet on va se situer dans ce domaine au niveau des avantages et
des nécessités, il faut savoir quand le contenu de la lettre constitue un avantage, quand, par la
multiplicité de sa diffusion il deviendra une nécessité (dans ce cas on trouvera la lettre
facilement, sans même passer par l’émetteur).
Nous n’écarterons pas les lettres du processus de collecte de l’information, mais nous
conseillons d’être circonspect et de ne pas prendre comme validée une information qui mériterait
plus de développement. Généralement appuyée sur des réseaux performants, elles rejoignent la
préoccupation du recueil de l’information à caractère informel: comment activer au moment
opportun un réseau d’information, comme avoir en permanence une veille latente qui permettra
de signaler un fait particulièrement important seulement perceptible au niveau d'un signal faible.
Dans le cadre des PME et des PMI, les lettres peuvent cependant constituer un élément moteur
de leur information. C'est ainsi qu'Eric Giraud et Carine Dou, dans un article publié dans
Humanisme et Entreprise, n°310, 1997, p.49-59, on analysé l'utilisation de la lettre Sud Info,
ainsi que diverses autres lettres dans le processus d'information des PMI et PME. Citons une des
conclusions de l'article:
"Une bonne connaissance de ces lettres pourrait permettre à l'entreprise de faire un effort minimal de
collecte, et l'information étant condensée, un effort minimum de gestion. Il est évident que ces lettres ne
peuvent pas se substituer à un système d'information, mais une entreprise de quelques personnes, au
regard de la conjoncture actuelle, ne peut se permettre d'investir la quantité d'argent nécessaire à
l'élaboration et à la maintenance d'une cellule d'information."
5.4.1.2 - Une utilisation offensive des lettres
Une utilisation offensive des lettres et autres publications générales embrassant un large champ
d'activité peut être la suivante: ces publications vont donner au lecteur un panorama général
dans un domaine donné. Ce panorama ne sera pas très fouillé, mais il donnera au lecteur un
champ de vision élargi en lui permettant de noter ce qui peut être important pour lui. Ensuite, il
approfondira la question et ira vers la source même de l'information.
Prenons l'exemple suivant:
Les publications de l'ADIT, servent à alerter le lecteur en décrivant de manière assez générale
des sujets nouveaux ou des résultats de recherche importants. Dans bien des cas, les sources
d'information utilisées sont liées aux services des Attachés Scientifiques des Ambassades
françaises dans les principaux pays développés du monde. C'est donc en fait une synthèse, qui va
alerter le lecteur qui n'aurait sans doute pas le temps de faire le point et d'accéder à toutes ces
sources d'information une par une.
Une des démarches possibles serait la suivante: à partir de la lecture d'une publication de l'ADIT,
on est alerté par la description d'un matériau nouveau qui pourrait être intéressant pour certaines
activités de l'entreprise. Ce fait nous conduit à approfondir la source d'information, pour
constater que c'est le service du CAST de l'Ambassade de France à Washington, qui dans sa
lettre sur les matériaux a donné cette information. On peut alors s'adresser directement à
l'Ambassade pour recevoir la lettre en question, ou mieux, pour s'apercevoir que celle-ci fait
l'objet d'une publication sur l'Internet, et que c'est avec ce format que l'on obtient le plus
d'informations.
5.4.1.2.1 - Extraits de la lettre sur les matériaux (lettre Internet)
LA LETTRE MATERIAUX DE WASHINGTON, No 41, ( 1 novembre 1997)
DES THERMOELECTRIQUES DANS LES REFRIGERATEURS DE DEMAIN
Le Financial Times se penche sur le potentiel des matériaux capables de
convertir l'énergie thermique en électricité et qui sont appelés
thermoélectriques. Bien que découverts il y a plus de 100 ans, les
applications de ces matériaux sont restées très limitées, la plus connue
a ce jour ayant été leur utilisation comme source de courant dans les
satellites Pioneer 10 et 11 de la NASA. Paradoxalement c'est dans les
systèmes de réfrigération que les matériaux thermoélectriques pourraient
être promis a un brillant avenir depuis l'interdiction des CFC.
A l'Université du Tennessee a Knoxille, les chercheurs travaillent sur
des matériaux thermoélectriques, les skutterudites, dont les mécanismes
de conversion de la chaleur en électricité restent encore inexpliqués.
Les premiers prototypes de réfrigérateurs a base de skutterudites
pourraient faire leur apparition dans 5 ans.
Source: Financial Times, 7 octobre 1997
NOUVEAU PROCEDE DE DEPOT DE REVETEMENTS
Un nouveau procédé de dépôt de revêtements sur des systèmes électroniques
a été développe a l'Université de New-York a Buffalo. Ces revêtements
sont produits a des températures supérieures a 20000K et sont ensuite
refroidis a la température ambiante avant être déposés. La méthode,
appelée "Laser assisted molecular beam deposition" (LAMBD), est une
technique hybride qui associe les avantages de l'ablation laser et de
l'épitaxie par faisceau moléculaire.
Le LAMBD évite les grandes températures qui peuvent endommager les puces
d'ordinateur, un inconvénient majeur pour la fabrication de puces pour
superordinateurs. Cette technique aurait une grande variété
d'applications dans l'électronique et l'optoélectronique.
Source: ACerS, septembre 1997
Deux rapports auxquels la Mission a contribué sont disponibles auprès de l'ADIT:
"L'AGILITE OU LA REINDUSTRIALISATION DES ETATS-UNIS"
Maud FAIVRE et Christian DUPONT Mai 1997
"LES POLYMERES CONDUCTEURS: SITUATION DE LA R&D AUX ETATS-UNIS"
Christian AUBLE et Dr Denis FICHOU Juillet 1997
5. REVUE DE PRESSE
La Mission Scientifique et Technologique de l'Ambassade de France aux Etats-Unis édite chaque jour une
synthèse de l'actualité américaine en science et technologie. Vous pouvez la consulter et vous y abonner
sur http://www.france-science.org
Noter aussi qu'il existe une lettre des matériaux émanant de l'Ambassade de France à Tokyo.
Japon matériaux - Service pour la Science et la Technologie, Ambassade de France, 4-11-44 Minami
Azabu, Minato-ku, Tokyo 106, Japon
Il existe aussi des lettres électroniques réalisées par des organismes internationaux, telle par
exemple la lettre produite par le NESDA (Network for Environment Sustainable Development
in Africa), qui est publiée en français et en anglais: http://www.rri.org/nesda
Mais, il va nous falloir aller plus loin, c'est à dire connaître quelles étaient les sources de
l'Attaché Scientifique, en quelques sorte à partir de quels travaux a-t-il eu connaissance de ces
informations. Si on ne peut pas avoir directement l'information, savoir que c'est aux USA que
cette information a pris naissance, et savoir aussi la décliner à partir du contenu de la lettre en
mots clés, permettra une recherche dans des banques de données de publications, de brevets ou
de congrès pour approcher de la source.
Les laboratoires étant identifiés, on essaiera de savoir si ces derniers décrivent une partie de
leurs activités sur l'Internet (on pourra aussi utiliser les mêmes mots clés sur l'Internet sans
passer pas les banques de données), ceci étant une autre possibilité. On aura alors un certain
nombre d'informations, et on essaiera alors de remonter jusqu'aux chercheurs. A partir de leur
noms, on pourra rechercher s'ils ont un e-mail et, connaissant leurs travaux, on pourra par cet
intermédiaire les contacter pour en "savoir plus".
Ainsi, à partir d'une publication générale mais embrassant un grand champ de connaissances, on
pourra détecter les orientations intéressantes, puis aller par des chemins divers le plus prés de la
source d'information pour connaître plus de choses, en évitant la majorité des intermédiaires et
en jouant sur le facteur temps.
Cette manière de travailler est schématisée dans la figure suivante:
Aller toujours plus près de la source
des informations
Publication généraliste, large horizon
Domaines sensibles
Source primaire
Emetteur secondaire
Emetteur principal
CRRM
Rechercher toujours l'émetteur principal pour gagner du temps
et en "savoir plus"
Exemple:
Dans la lettre de Washington, citée ci-dessus, est indiquée une bibliographie sur les matériaux
issues de la base de données NTIS (National Technical Information Service). Dans cette
bibliographie supposons que l'on soit intéressé par un titre particulier:
"Evaluation of Ikon-12 Refrigerant for Moter Vehicle Air Conditioning"
On interroge alors la base de données du NTIS (serveur Questel-Orbit):
Question:
Evaluation and ikon and motor
Réponse:
1
-1- (NTIS)
AN - PB97-192850/XAB
TI - Evaluation of Ikon-12 (Trade Name) Refrigerant for Motor Vehicle Air
Conditioning.
AU - Jetter, J. J.; Smith, N. D.; Ratanaphruks, K.; Ng, M. S.; Tufts, M. W.
OS - Acurex Environmental Corp., Research Triangle Park, NC.; *Environmental
Protection Agency, Research Triangle Park, NC. Air Pollution Prevention
and Control Div.
SO - 1997; 8p
Presented at the SAE International Congress and Exposition, Detroit, MI.,
February 24-27, 1997. Sponsored by Environmental Protection Agency,
Research Triangle Park, NC. Air Pollution Prevention and Control Div.
This product may be ordered from NTIS by phone at (703)487-4650; by fax
at (703)321-8547; and by email at 'orders ntis.fedworld.gov'. NTIS is
located at 5285 Port Royal Road, Springfield, VA, 22161, USA.
On interroge alors la base de données des Chemical Abstracts, en utilisant le terme Acurex
présent dans l'adresse (champ OS, Organizational Source). Il y a 413 réponses.
On peut ainsi sélectionner dans les travaux publiés par cette entreprise d'autres références
intéressantes comme la référence suivante:
-1- (CASM) COPYRIGHT 1997 ACS.
AN - CA127-177953(13)
TI - Chlorine-free alternatives for CFC-114: theoretical and experimental
investigations
AU - Kazachki G S; Gage C L; Hendriks R V
SO - Proc Int Congr Refrig 19th, 4B, 95.00.00, 874-881
PY - 1995
JC - 64VHAQ
PU - Institut International du Froid, Paris, Fr
OS - Acurex Environmental Corp, Research Triagle Park, NC, 27709, USA (US)
DT - Conference proceedings (C)
LA - English (EN)
MCC - 45-05: Industrial Organic Chemicals, Leather, Fats, and Waxes
FS - Macromolecular Chemistry (Macromol)
UP - 9739
Puis déterminer les différents travaux publiés par les auteurs:
SS 3?
kazachki G S/au or gage C L/au or Hendriks R V/au
SS 3 RESULT (12)
Imprimer les 12 titres:
TI - Chlorine-free alternatives for CFC-114: theoretical and experimental
investigations
TI - Performance testing of a semi-hermetic compressor with HFC-236a and
CFC-114 at chiller conditions
TI - Investigation of HFC-236ea and HFC-236fa as CFC-114 replacements in
high-temperature heat pumps
TI - Investigation of HFC-236ea and HFC-236fa as CFC-114 replacements in
high-temperature heat pumps
TI - Prediction of properties of new working fluids for heat pipes
TI - Simulation of nonazeotropic refrigerant mixtures for use in a
dual-circuit refrigerator/freezer with countercurrent heat exchanges
TI - Environmentally acceptable specialty lubricants. An interpretation of the
Environmental Regulations of the North Sea (World)
TI - Thermodynamic evaluation of predicted fluorinated ether, ethane, and
propane azeotropes
TI - Predictions of azeotropes formed from fluorinated ethers, ethanes, and
propanes
TI - Thermodynamic evaluation of five alternative refrigerants in
vapor-compression cycles
TI - Initial test results of the Limestone Injection Multistage Burner (LIMB)
Demonstration Project
TI - Calcium-based sorbents in the LIMB (limestone injection multistage
burner) process
Analyser l'ensemble des auteurs concernés par ces 12 travaux, etc...(Commande GET)
THERE ARE 13 UNIQUE VALUES.
OCCURRENCES PERCENT TERM
8 66.66% KAZACHKI G S
7 58.33% GAGE C L
7 58.33% HENDRIKS R V
2 16.66% RHODES W J
1 8.33% BARE J C
1 8.33% BOGDANOV A T
1 8.33% JACOBS NORMAN L
1 8.33% JUNG D S
1 8.33% KAPLAN N
1 8.33% KIRCHGESSNER D A
1 8.33% NOLAN P S
1 8.33% RADERMACHER R
1 8.33% STRINGFELLOW WILLIAM D
Ensuite, on ira voir sur l'Internet si la société est présente sur un serveur, et si les personnes qui
nous concernent particulièrement ont un e-mail. Ceci permettra de les contacter, etc.
(Le serveur utilisé dans cet example est le serveur Questel-Orbit).
5.4.1.2.2 - Des données formelles à l'Internet
L'Internet, va nous permettre, aprés avoir obtenu des cibles par analyse de l'information
formelle, de nous rapprocher de la source ou des sources émétrices et de compléter notre
information.
Exemple:
La consultation via AltaVista (http://altavista.digital.com) de l'internet en utilisant ACUREX
conduit à:
1. Acurex
Tech-Rentals' Catalogue. Catalogue entry point. Back one level. Acurex.
Test & Measurement Equipment. FOR SALE ( 1 item. ) ACU,7000 ACUREX 7000
II...
http://www.techrentals.com.au/testmeas/sale/manufact/54e3d70a.htm - size
2K - 1-Sep-97 - English
2. ACUREX i Bollnäs AB
AFFÄRSIDÉN. Vi skall vara en tillgång för försäkringsgivare, i deras
strävanden, att effektivisera sina insatser i skadeförbyggande syfte och
som leder...
http://home3.swipnet.se/~w-35395/ - size 4K - 21-Sep-97 - Swedish
3. Welcome to ACUREX ENVIRONMENTAL CORPORATION
Page contains data on ACUREX ENVIRONMENTAL CORPORATION
http://www.constructionnet.net/companies/acurexenvironmentalc94.html size 3K - 9-Oct-97 - English
4. Geraghty and Miller: Acurex History
CORPORATE PROFILE. Founded in 1973 as a group within Acurex Corporation,
a former parent company, Acurex Environmental is a leader in
technology...
http://www.gmgw.com/Acurex/history.html - size 3K - 12-Jun-97 - English
5. Geraghty and Miller: Acurex Locations
OFFICES. Acurex Environmental occupies offices and laboratories at three
U.S. locations. Our Mountain View, California location is our
headquarters and...
http://www.gmgw.com/Acurex/Offices.html - size 3K - 12-Jun-97 - English
6. Welcome Acurex Environmental
Sensible Solutions through Innovative Technologies. 555 Clyde Avenue
Mountain View, CA 94043 V: (415) 961-5700 F: (415) 254-2497. History.
Mission....
http://www.gmgw.com/Acurex/ - size 2K - 6-Sep-97 - English
7. Welcome to ACUREX ENVIRONMENTALA
Page contains data on ACUREX ENVIRONMENTALA
http://www.constructionnet.net/companies/acurexenvironmentala91.html size 3K - 5-Oct-97 - English
8. Geraghty and Miller: Acurex Mission
OUR MISSION. Industry today is increasingly in need of a competitive
edge to address stiff global competition. To achieve this competitive
edge, industry..
http://www.gmgw.com/Acurex/Mission.html - size 12K - 12-Jun-97 - English
................
14. PSA: Call for Proposals
Access to 'Plataforma Solar de Almería' the European Test Centre for
Solar Thermal Energy Applications. supported by the European Commission
under..
http://psaxp.psa.es/convoc/tmrcall.html - size 20K - 29-Aug-97 - English
15. No Title
Waste Management.
[A][B][C][D][E][F][G][H][I][J][K][L][M][N][O][P][Q][R][S][T][U][V][W][X]
[Y] [Z] Acurex Corporation, Environmental Systems Division AEA...
http://www.awma.org/consult/waste.htm - size 9K - 17-Mar-97 - English
16. August 31, 1995
September 8, 1995. South Coast Air Quality. Management District Board.
Mobile Source Air Pollution Reduction Review Committee Report. August
24, 1995,...
Parmi ces références, les liens 3, 4 et 15 nous paraissent importants. Le lien 15 qui comprend une liste de
thèmes, paraît devoir être consulté, c'est sans doute quelque chose qui pourrait être intéressant.
Voilà ce qui est obtenu en cliquant sur le lien 15. C'est la liste des Sociétés américaines travaillant dans
un domaine identique ou proche de la société ACUREX:
Acurex Corporation, Environmental Systems Division
AGES
ATEC Associates, Inc.
Acurex Corporation, Environment Systems Division
Advent Group, The
Alfred Crew/Donohue
Alliance Technologies Corporation
Applied Environmental Technologies
Applied Science & Technology
Atec Environmental Consultants
Avatar Group
B.H. Levelton & Associates, Inc.
Barakat & Chamberlin, Inc.
Baxter & Woodman, Inc.
Beltran Associates, Inc.
Bergmann Associates
Black & Veatch
Boelter Environmental Associates
Braithwaite Consultants, Inc.
Brice, Petrides-Donohue Company
Bruderly Engineering & Associates
Buchart-Horn, Inc.
Burns & McDonnell Engineering
CANVIRO Analytical Laboratories
CH2M Hill
Cadmus Group Inc., The
Camp Dresser & McKee
Capaccio Environmental Engineering, Inc.
Center for Hazardous Materials Research
Charles R. Velzy Associates, Inc.
Chester Environmental Group
Clayton Environmental Consultants
Consulting Engineers, Inc.
Cross/Tessitore & Associates
DMG Environmental, Inc.
Dames & Moore
Donohue & Associates, Inc.
Du Pont
E. C. Jordon Company
E.E.& S.
EA Engineering Science and Technology
EEC Environmental, Inc.
ENPRO Consulting Group, Inc.
ENSR Consulting & Engineering
EarthInfo, Inc.
AEA Technology
ATC, Inc.
ASI Environmental Technologies
Advent Environmental
Aerocomp, Inc.
Alternative Resources, Inc.
Applied Environmental Consultants
Applied Hydrology Associates, Inc.
Aqua Terra Technologies (ATT)
Autumn Industries
B & V Waste Management
Baker Environmental, Inc.
Barer Engineering, P.A.
Beck, Curt B. - P.E.
Bennett Environmental Group
Bison Engineering, Inc.
Blasland, Bouck & Lee
Booz, Allen & Hamilton, Inc.
Brian W. Doyle Engineering, P.E.
Brown & Caldwell
Bryson Industrial Services, Inc.
Burgess & Niple, Ltd.
Burns and Roe Enterprises, Inc.
C K Associates, Inc.
CRC & Associates, Inc.
Cambridge Analytical Associates
Camp and Associates, Inc.
Carleton Engineers & Consultants
Charles Licht Engineering Associates
Chas T. Main, Inc.
Civil & Environmental Consultants, Inc.
Concord Environmental Services, Inc.
Cremer & Warner
Custom Environmental Services
DPRA, Inc.
Deuel & Associates, Inc.
Donohue/JRP
E. Roberts Alley & Associates, Inc.
E. H. Pechan & Associates
E.R. Carpenter Company, Inc.
EAS Laboratories
EMCOM Associates
ENSCO
ERM Southeast, Inc.
Earth Sciences Consultants, Inc.
Ebasco Environmental
Ecology and Environment, Inc.
Energy and Environmental
Engineering-Science
Enviro-Sciences, Inc.
Environmental Associates, Inc.
Environmental Exploration, Inc.
Environmental Management International, Inc.
Environmental Science Associates
Environmental Technologies International
Environmental Waste Technologies, Inc.
Envirosphere Company
Envisage Environmental, Inc.
EraTech, Inc.
Fay, Spofford & Thorndike
Focus Environmental, Inc.
Foth & Van Dyke And Associates
Free-Col Laboratories
Fuss & O’Neill, Inc.
GAI Consultants, Inc.
Gabbard Environmental Services
Galson Corporation
Gannett Fleming, Inc.
GeoResearch
Gimm Consultants
Goldman Environmental Consultants
Gossman Consulting, Inc.
Graseby RTL
H&W Management Science Consultants
HGM Associates
Handex Environmental Management
Hanson Engineers, Inc.
Hart Environmental Management Corporation
Hatch Associates, Ltd.
Hayden Environmental Group
Hesketh, Howard E. - Ph.D., P.E.
Hoydysh, Walter G. - Ph.D.
IHI Environmental
IT Corporation
Industrial Analytical Laboratory
Intera Information Technology
Intex, Inc.
Jack Faucett Associates
John Mathes & Associates, Inc.
Kennedy, Jenks Consultants
Keystone Environmental
Klohn Leonoff, Ltd.
Kramer & Associates
LAN Associates, Inc.
Lake Engineering, Inc.
LifeLiner Technology, Inc.
Lowenstein & Associates
M & L Environmental Consultant
Mabbett, Capaccio & Associates
Mark Group, The - Air Technology Division
Med-Tox Associates
Metcalf & Eddy, Inc.
Eckenfelder, Inc.
Eder Associates
Engineered Systems International
Entek
Environment One, Inc.
Environmental Consultants Association
Environmental Management
Environmental Science and Engineering
Environmental Standards, Inc.
Environmental Toxicology International
Enviroplan, Inc.
Envirosystems, Inc.
Environmental Resources Management
Falmouth Associates, Inc.
Fluor Daniel
Ford Bacon & Davis Inc.
Four Nines, Inc.
Frumerman Associates, Inc.
G2 Environmental, Inc.
GeoResearch, Inc.
Gale/Jordan Associated, Inc.
Galson Technical Services, Inc.
Garden State Environmental, Inc.
Gershman, Brickner & Bratton
Golder Associates
Goodfellow Consultants, Inc.
Gradient Corporation
Groundwater Technology, Inc.
HDR Engineering, Inc.
HZM Group
Haniel Environmental Services, Inc.
Harding Lawson Associates
Hatch Associates Consultants
Havens & Emerson
Hayes, Seay, Mattern & Mattern
Holcomb Environmental Services
ICF, Inc.
IT Corporation/Princeton Aqua Science
Independence Institute
Institute of Economic Problems
Interscience, Inc.
JACA Corporation
James M. Montgomery Consulting
Jordan, Jones & Goulding, Inc.
Kenvirons, Inc.
Killam Associates
Koogler & Associates
L. Robert Kimball & Associates Inc
LaBella Associates, PC
Law Environmental, Inc.
Lockwood Greene Engineers, Inc.
Luft Environmental Consulting
MEI-Charlton, Inc.
Malcolm Pirnie, Inc.
McLaren/Hart Environmental Engineering Corporation
Meredith/Boli Associates, Inc.
Meteorological Evaluation Services Co., Inc.
Microbac Laboratories, Inc.
N-Viro Energy Systems, Ltd.
National Laboratories, Inc.
Northwest Engineering, Inc.
OMC Environmental, Inc.
Occusafe, Inc.
Ontario Research Foundation
PACE, Inc.
PSARA Technologies, Inc.
Pacific Geotechnical Associates, Inc.
Paul Rizzo & Associates
Penta Engineering Corporation
Peter Barrett Consultants
Phoenix Safety Associates, Ltd.
Pintlar Engineering & Processing Corporation
Princeton Testing Laboratory
Project Catalyst
RAM TRAC Corporation
Ralph Stone & Company, Inc.
Recon Systems, Inc.
Rigo & Rigo Associates, Inc.
SBE Environmental Corp.
SE Technologies, Inc.
Science & Technology Management, Inc.
Senes Consultants, Ltd.
Shredding Systems, Inc.
Skelly and Loy, Inc.
Solmar Corporation
Steimle & Associates, Inc.
Sverdrup Environmental, Inc.
TRC Environmental Corporation
Tencon, Inc.
Terran Corporation
Thomas M. Laronge, Inc.
TransPacific Enterprise
Truesdail Laboratories, Inc.
United States Testing Company
Walli Engineering, Inc.
Waste Resource Associates, Inc.
Westinghouse Resource En. Sys.
Woodward-Clyde Consultants
XCG Consultants, Ltd.
Mill Creek Company, The
Nardi Group, The
New York Testing Laboratories
O’Brien & Gere Engineers
ORTECH Corporation
Olver, Inc.
Outokumpu Engineering Services
PEI Associates, Inc.
Pacific Environmental Services
Parsons Brinckerhoff Energy
Peake Engineering, Inc.
Peoria Disposal Company
Phoenix Chemical Laboratory, Inc.
Pickard and Anderson
Pollutech Environmental, Ltd.
Proctor & Redfern, Ltd.
R. Butler and Associates, P.E.
RMT, Inc
Reach Associates, Inc.
Remcor, Inc.
Rogers, Golden & Halpern
SCS Engineers
Sci-Tech, Inc.
Scott, Allard & Bohannan, Inc.
Shell Engineering & Associates
Simon-EEI Inc, Toxcon Division
Slosky & Company, Inc.
Sound Resource Management
Suburban Laboratories, Inc.
TBF Toscano-Bernardi-Frey Ag
Talem, Inc.
Terracon Environmental, Inc.
Tetra Tech, Inc.
Thornton Laboratories, Inc.
Trow Consulting Engineers, Ltd.
Twin City Testing
WCM Group, Inc.
Warzyn, Inc.
Wehran EMCON
Wingra Associates
Woodward-Clyde International
York Laboratories Division
Tableau accessible via le lien n°15: Waste Management.
Nous avons laissé volontairement le texte du tableau dans sa totalité pour mettre en évidence la
richesse de l'information dispensée. Une telle liste, obtenue par simple clic de souris, et qui plus
est gratuitement est une source d'information importante, puisque l'on peut, à volonté, interroger
à nouveau Internet (via AltaVista par exemple), pour essayer d'obtenir des informations sur ces
diverses sociétés.
5.4.1.2.3 - Profils des sociétés et Internet
On passe ensuite à l'exploitation du lien n°3, ACUREX. On obtient ainsi le profil de la société
qui est le suivant:
Home page de la soiété ACUREX
"CORPORATE PROFILE
Founded in 1973 as a group within Acurex Corporation, a former parent.company, Acurex
Environmental is a leader in technology development, demonstration, and implementation. Over the years,
Acurex Environmental has developed broad capabilities in industrial processes, advanced power
generation systems, multimedia pollution prevention and environmental compliance, hazardous waste
treatment and destruction, alternative fuels implementation and use, and transportation planning. Acurex
Environmental is internationally recognized for cost-effective and sensible solutions for industry and
government.
In early 1993, Acurex Environmental Corporation and Geraghty & Miller, Inc., two of the nation's top
environmental firms, combined their considerable resources and expertise through a corporate merger.
Our capabilities were further enhanced in late 1993, when we joined Heidemij NV of the Netherlands, one
of the world's preeminent international environmental and infrastructure firms, with projects in more than
80 nations. In early 1996, Piedmont Olsen Hensley, Inc., joined Geraghty & Miller, further expanding the
engineering and architecture capabilities of our family of companies. We have 140 offices throughout the
world. As a result, we now provide our clients with a broad array of capabilities of the highest caliber
worldwide."
Ce profil contient aussi des liens avec GERAGHTY & MILLER, ainsi qu'avec deux autres
Sociétés. On constate ainsi, que simplement par l'Internet, on peut reconstituer le groupe, alors
que ces informations n'étaient pas présentes dans les bases de données ni dans l'indication
fournie dans la lettre d'information. On illustre bien ici, la notion de point de départ, puis à partir
de celui-ci une possibilité de remontée vers les informations sources.
On peut alors accéder à une description de la société GERAGHTY & MILLER en utilisant le
lien, etc...
Home page de la Société GERAGHTY & MILLER
Poursuite de la recherche, montrant que la Société Geraghty & Miller a une société "mère" qui
se nomme ARCADIS ....
Après avoir exploité les possibilité de l'Internet pour faire "le tour" des sociétés qui gravitent
dans le groupe où se trouve la Société ACUREX, il ne nous reste plus, toujours avec l'Internet
que de nous renseigner sur les brevets qui pourraient avoir été déposés par ces divers sociétés.
Pour cela nous allons faire appel au serveur IBM, et nous procéderons alors soit avec le nom du
produit: Ikon, soit par le nom de la ou des sociétés:
Home page du serveur de brevet d'IBM
On voit ainsi comment de proche en proche, en utilisant un ensemble de sources d'informations,
on pourra soigneusement avoir une vision de plus en plus précise de l'information. Ce travail
préliminaire sera ensuite terminé si cela est nécessaire par des informations de terrain, mais on
sera dans les meilleurs conditions pour fixer des cibles et essayer d'obtenir des informations
pertinentes, complétant les précédentes.
6 - Le triptyque stratégique dans le système d’information
Nous venons de voir certaines constantes dans les différents types d’information que nous avons
abordés. Nous allons voir maintenant les étapes principales qui vont permettre la création d’un
système d’information efficace, apte à seconder les firmes hypercompétitives.
Les actions a mener reposent sur un triptyque que nous qualifions de stratégique, car il va soustendre toute l’architecture du système. Il permettra aussi de situer tous les éléments qui devront
travailler ensembles dans celui-ci en spécifiant dans les grandes lignes leur positionnement.
La figure suivante expose les 3 points principaux de l’organisation d’un système d’hyperinformation, avec un préalable, la définition des objectifs stratégiques.
Cette définition est généralement le fait des centres de décision élevés, généralement avec l’aide
d’experts. On rapprochera cette figure de celle qui est indiquée dans les chapitres précédents et qui
touche au plan de renseignement. La plan de renseignement, la collecte, la validation et la
transmission explicitent au niveau du renseignement ce qui ici est plus formel et s'adresse à des
services de l'entreprise plus "cristallisés" et plus lisibles.
Les points principaux du système d'hyperinformation
Objectifs stratégiques
EXP
ERT
S
Méthode
Collecte des informations
formelles et informelles
Outi
Analyse et gestion des
informations
ls
Produits
d'information
Comprendre les intéractions mises à jour
au cours de l'analyse.
Le triptyque stratégique dans la mise en place d'un service de renseignement
Un point préalable, puisque tout ne peut pas être observé: définir des objectifs stratégiques.
est un point important qu'il ne faudra jamais négliger. Connaître les thèmes, les domaines (on
appelle cela les Facteurs Critiques de Succès (cf. F. Jakobiak, déjà cité, et Chief Executives
define their own data needs, Rockart J.F.C., Harvard Business Review, March-April 1975,
pp.81-93) qui permettent à l'entreprise de maintenir ou d'améliorer sa place dans la compétition
(nationale, internationale) est un exercice qui doit être fait périodiquement par les décideurs. De
même, la définition de ces facteurs critiques, ainsi que l'usage qui sera fait de l'hyperinformation résultant de l'ensemble des mécanismes que nous avons ou allons décrire est
indissociable d'une stratégie d'entreprise, généralement à moyen et long terme.
6.1 - Les étapes principales
* Collecte des informations, en tenant compte des divers types d’informations de leur
constantes de temps, des méthodes de collecte. Cela va nécessiter différentes stratégies, des
acteurs et générer des coûts.
* Management de ces informations et analyses de ces dernières. Il faut donc stocker,
accéder, distribuer, analyser les informations, généralement par des systèmes automatiques ou
semi-automatiques, voire manuels.
* Comprendre les relations entres informations, thèmes, individus, entreprises mises à jour
dans l’étape d’analyse. Cette compréhension est une étape clé. Elle est généralement axée sur le
présent et le futur proche. Elle met en jeu des groupes d’experts d'origine diverse selon les
objectifs poursuivis.
Un corollaire: créer des produits d’information stratégiques (informatiques ou non) adaptés aux
décideurs.
Ces trois étapes essentielles s’accompliront avec l’aide d’un certain nombre de méthodologies et
d’outils spécifiques qui seront mises en oeuvre: la gestion des informations, la production
d’informations nouvelles par analyses manuelles ou automatiques, leur diffusion, la gestion des
groupes d’experts et les méthodologies de travail à utiliser (par exemple l'utilisation de
scénarios). Enfin, un point important: l’animation du système qui devra être confiée à une ou
plusieurs personnes spécialisées dans ce domaine encore flou, celui des systèmes d’hyperinformation pour les entreprises.
6.2 - La mise en perspective
Revenons brièvement à la notion de compréhension. Certains verrons, dans cette démarche la
compréhension de graphes complexes ou des corrélations entre données, par exemples des
données conduisant à des matrices (qui fait quoi par exemple). Ceci est simplement le premier
stade. Comprendre signifie replacer le "qui fait quoi" au niveau des menaces ou des opportunités
pour l'entreprise. Savoir qui fait quoi c'est très bien, savoir pourquoi est encore mieux.
Souvent, essayer de comprendre c'est aussi simplement rapprocher deux événements et
s'interroger sur leurs relations. On n'est pas toujours habitué, dans les pays latins à procéder de
la sorte. Témoin en est la photographie ci-dessous, extraite du Financial Times du 17 Mars
1997.
Présentation par le Financial Times de l'affaire Renault - Vilvorde
Ce numéro du Financial Times est paru dans la semaine qui a suivi l'annonce par Renault de la
fermeture de son usine de Belgique, annonce qui a fait beaucoup de bruit et a déclenché de
nombreuses manifestations, syndicales et politiques. Mais, dans ce bruit de fond et bien
qu'écoutant la radio, regardant la télévision et lisant les journaux nationaux, je n'ai pas vu de
façon aussi marquée la présentation des faits relatés dans le Financial Times
Une manifestation d'un côté, de l'autre un investissement important de Toyota pour créer (à
Lens, Valencienne ?), en France une usine qui permettra d'accroître considérablement la
production de ce constructeur en Europe.
Cette présentation, au-delà du sensationnel nous incite à essayer de comprendre, comment en
sommes nous venus là et pourquoi ?
6.3 - Les scénarios, les "shadow teams"
Lorsqu'une décision, doit être prise, elle va être une dernière fois passée au crible de certaines
méthodes pour permettre d'estimer l'impact de celle-ci sur l'activité de l'entreprise et sur son
environnement. Parmi les méthodes possibles, la méthode des scénarios et celle qui utilise les
"shadow teams", sont particulièrement efficaces.
6.3.1 - Les Scénarios
C'est une méthode très utile, à la fois pour stimuler un groupe et aussi pour envisager les
répercussions d'une décision. Selon la manière dont le scénario est conçu et selon le domaine
auquel il se rapporte, il peut concerner des attitudes réactives ou proactives. On distingue des
scénarios qui s'appliquent à des domaines trés précis, ainsi que des scénarios qui concernent des
domaines beaucoup plus larges. Les types d'informations qui pourront être pris en compte seront
de ce fait différents.
Technology Watch and Competitive Intelligence
Analye d'un scénario
Paul E. MacCosbe, GlaxoWellcome Inc. Triangle Park, NC
DATA ---> Information --> CTI --> Scenario
--> Développement stratégique
--> Actions au niveau du groupe
Exemples: groupes pour lancer un nouveau produit
Alliances (licensing, alliance stratégique...)
Stratégie du groupe pour lancer de nouvelles actions ou
pour choisir de nouvelles directions
Procédure: Definir les objectifs -- Collecter CTI Developper
les theories -- Identifier les problèmes -- travailler et
affiner les résultats ....
C.R.R.M.
Un scénario peut être réactif ou proactif.
Exemple de processus pour la conduite d'un scénario
Technology Watch and Competitive Intelligence
Analyses de scénarios
Paul E. MacCosbe, GlaxoWellcome Inc. Triangle Park, NC
NIVEAU M iCRO
Collecte permanente
des données
Organisation
et analyse
Gestion des
données
Groupes de
projets, résultats
possibles
Scenario
Menaces potentielles
Opportunités potentielles
Developper et implémenter
le stratégie
C.R.R.M.
C.R.R.M.
Exemple d'un scénario au niveau micro
Technology Watch and Competitive Intelligence
Analyse de scénarios
Paul E. MacCosbe, GlaxoWellcome Inc. Triangle Park, NC
Niveau Macro
CT I
Etude de marchés
besoins des cleints
Potentialité des concurrents
Objectifs du groupe
proactive
Information économique
état économique
Affaires générales
politique,
règlementations
scenario
Menaces potentielles
Opportunités potentielles
Commerce, Besoins
réaction
Développement et implémentation
de la stratégie
C.R.R.M.
Exemple d'un scénario au niveau macro
Il faudra veiller à ce que le système d'information global soit réalisé de telle sorte qu'il puisse être
utilisé en temps que de besoin lors de la conduite d'un scénario. Généralement les scénarios sont
conduits soit en réunion, soit en délocalisé, mais de toute façon dans des intervalles de temps
relativement courts. Ceci montre bien l'importance de l'accès aux bonnes informations en temps
quasi réel, ainsi que de bien préparer le scénario sur le plan des dossiers d'informations.
6.3.2 - Les "shadow teams"
Souvent, comme le fait remarquer Babette Bensoussan (MindShifts Matters, A publication of
the Mindshifts Group Pty Limited (A.C.N. 057215 022), Novembre 1997) très souvent les
directeurs des services d'Intelligence Compétitive sont envahis par une masse d'informations
internes et externes. Même avec l'aide de systèmes d'analyse automatique associés à des réseaux
informatiques "intelligents", on ne parvient plus à réaliser des analyses opérationnelles dans un
laps de temps raisonnable. C'est pourquoi, des "shadow teams" se développent. Leur rôle est de
connaître parfaitement en utilisant tous les types d'informations possibles, le ou les concurrents
et apprendre ainsi à réagir comme eux.
Cette équipe servira alors "d'avocat du diable", lorsque des décisions devront être prises.
Connaissant parfaitement le concurrent, l'équipe aura appris à réagir comme lui et ainsi elle
permettra d'apprécier certaines réponses stratégiques.
Cette équipe, selon sa composition (liée aux besoins directs de l'entreprise) pourra être utilisée
dans les domaines techniques, économiques, de marketing et financier.
Bien connaître les concurrents en ayant développé de façon spécifique cette capacité en interne,
constitue pour l'entreprise un atout majeur, spécialement dans les environnements perturbés qui
sont une des dominantes actuelles.
7 - La collecte des informations formelles
Nous allons brièvement reprendre avant d’aborder en détail la collecte des informations et sa
stratégie, la typologie des informations. Celle-ci a été publiée de nombreuses fois, mais il est
nécessaire, dans le contexte qui nous intéresse de la rappeler:
Le table suivante met en évidence les quatre principales typologies de l’information. Soulignons,
bien que les proportions (en volume) soient variables selon les domaines dans lesquels on
travaille, que l’information formelle ne peut en aucun cas constituer l’ensemble des informations
essentielles. Elle doit impérativement être complétée par de l’information informelle plus récente
et plus tournée vers le futur, ainsi que par les informations des foires et salons et des experts de
l’entreprise.
Les principales typologies de l'Information
Informations Formelles, sur supports, Publications,
Brevets, Livres, Bases et banques de données ...
40% en volume
Informations floues ou Informelles, pas nécessairement
sur un support, démarche active pour aller les recueillir
à l'extérieur de l'entreprise.
40% en volume
Mémoire d'entreprise, Experts, Savoir Faire
10% en volume
Foires, Salons, Expositions scientifiques, certains
Colloques...
10% en volume
CRRM
Typologie des informations
On souligne à nouveau la pluralité des informations nécessaires à la décision ainsi que les
caractéristiques qui leurs sont propres et qui vont nécessairement induire des acteurs particuliers
ainsi que des stratégies particulière de collecte. (Le renseignement stratégique au service de
votre entreprise, Hunt C., Zartarian V., Paris Ed. First, 1990)
7.1. - La collecte des informations formelles
C’est sans doute le domaine où un effort important a été réalisé, on pourrait même dire depuis
les premiers papyrus l'information formelle a été classée, conservée. Ceci à conduit à mettre en
place des écoles, des services, des bâtiments et plus récemment des systèmes informatiques pour
la gestion, l’accès, voire la diffusion de ces informations. Mais, la caractéristique principale de
cet ensemble, c’est qu’étant formalisé, il a tendance à rester lié à ses techniques et souvent à ne
pas évoluer vers des recueils d’informations très différentes, pourtant vitales pour l’entreprise.
La vision taylorienne de ce système a conduit bien des entreprises industrielles à
positionner le service d’information documentaire en dehors des circuits de décision. En
fait, agissant en tant que de besoin, il fournit les informations demandées ou les synthèses. Il
peut aussi gérer une ou des bases de données internes, diffuser des profils documentaires, etc.,
mais il ne participera pas directement à l'analyse des contenus.
Création d'un service de Veille
• Le positionnement des acteurs
Autres services possédant
leurs informations
Decision
S.I.D.
P
Info. Texte
BD, Normes
etc...
Dev.
FLOUE
Rech
tactique
CRRM
opérationnelle
Le positionnement du service d'information documentaire
La figure précédente montre les différents positionnement possibles du service d’information
documentaire par rapport aux informations pour décision nécessaires à l’entreprise. On verra par
la suite, que pour rapprocher le Service d’Information Documentaire de la décision, il faut que
ce dernier gagne en agressivité et en dynamisme. Cela veut dire aussi que ses missions et les
moyens adéquats devraient être redéfinis en fonction de ces nouveaux objectifs. Parmi ces
derniers une jonction très forte entre le système documentaire et le service brevet s’impose. Nés
dans le cadre juridique, les brevets deviennent de plus en plus un élément de comparaison
(bench-marking) ou de recherche de technologies existantes. En outre une connaissance poussée
de la Classification Internationale des Brevets (CIB) et des outils susceptibles d’y accéder
localement en texte intégral, permet d’analyser finement les alternatives technologiques, les
applications.
Une autre façon de faire, pour rapprocher le service d’information documentaire des centres de
décisions réside dans les analyses globales que peuvent effectuer les services d’information
documentaire, dotés des logiciels d’analyse automatique et de représentations infographiques
des données.
Ce sont des actions de ce type qui éviteront que ne se substitue de plus en plus des services
parallèles, plus proches des systèmes de décision de l’entreprise, et permettant, sans être
spécialiste d'accéder à une information récente, formalisée et souvent intégrée directement, dés
le télédéchargement dans un logiciel de traitement de texte. C'est par exemple le cas pour le
système MAID ou pour des données venant de l'Internet.
Cette dualité devient de plus en plus visible, si on analyse les systèmes d’accès à l’information.
De plus en plus conviviaux, ils vont permettre de constituer des rapports en intégrant
directement les données dans votre traitement de texte, en transférant des séries directement
dans Excel, etc.. (Exemples de Maid ou de Reuters). Incontestablement, la mutation des
informations nécessaires, tant au niveau de la forme que des contenus va générer de nouvelles
tâches. Par qui seront elles réalisées, sans doute par des experts ayant une double ou triple
compétence. De nouveaux métiers sont entrain de se créer, localisés dans les grandes
entreprises, externalisés en temps partagé pour les plus petites, ils globaliseront l'information,
analyseront les données les plus pertinentes et fourniront aux experts de l'entreprise les données
stratégiques nécessaires à leur réflexion.
7.2 - La stratégie d’accès aux informations issues de bases et de banques de
données
Les bases et les banques de données ont constitué de tous temps un réservoir d’information très
important. De plus en plus les producteurs offrent l’accès à des bases de données variées. Le
formalisme et l'accès à ces bases, qui a été et reste popularisé par tout un ensemble d’acteurs, au
niveau de la télématique est entrain de se transformer. Certes, l'accès télématique constitue
encore l’outil privilégié de consultation, mais de plus en plus des supports différents
apparaissent. Dans certains cas l’équivalent en ligne n’existe pas. L’apparition de l’Internet a
conduit aussi à l’avènement d’informations d’une autre nature. On citera pour exemple les
plaquettes informatiques des sociétés concurrentes qui deviennent disponibles à l’échelle
mondiale. Elles étaient évidement consultées lorsqu’elles n’apparaissaient que sous forme de
produit papier, mais il fallait un système relativement lourd de collecte et de gestion alors
qu’actuellement lorsqu’elles sont sous forme informatisée, le simple accès à l’internet permet de
les consulter, de les archiver au niveau planétaire. Cela va nécessiter une certaine mutation dans
les services documentaires qui devront acquérir une expérience nouvelle et une nouvelle façon
de décoder les messages contenus dans ces nouveaux supports.
On ne peut pas tout regarder. Ceci est applicable au niveau de la mise en place de systèmes de
Veilles, et reste aussi valable dans le cadre de l’information. Il serait vain de vouloir tout
atteindre, car cela coûterait trop cher et nécessiterait trop de moyens. En outre l’abondance de
l’information serait telle qu’il serait impossible de tout lire et de tout analyser. Il faut donc
chercher à situer l’action de collecte au plan stratégique afin de déterminer comment on va
organiser celle-ci.
L’ensemble des bases de données mondiales est très large. Elles se recoupent entre elles et
souvent leur couverture est très variables. Rappelons que s’il existe plusieurs milliers de bases de
données disponibles, plus de 80% du chiffre d’affaire est réalisé par un très petit nombre de
bases de données. Les mêmes lois que les lois bibliométriques (La Bibliométrie et ses
techniques, H. Rostaing, Co-édition Sciences de la Société, Centre de Recherche Rétrospective
de Marseille CRRM, Marseille 1996) s’appliquent dans ce domaine. Ceci ne veut pas dire que
les autres bases de données ne valent rien ou n’ont pas la qualité suffisante, mais simplement
qu’un ensemble restreint de bases de données couvre une grande partie des connaissances
nécessaires. Mais, dans l’option stratégique qui est la notre cela est-il suffisant ?
7.3 - Quelles sources rechercher
Rappelons nous ce qui a été dit dans les chapitres précédents, tant au niveau des avantages, des
constantes de temps et de l’anticipation. Il est évident, que si on se repose uniquement sur les
bases de données principales (on dit souvent qu’il faut interroger 3 bases de données pour
réaliser une bonne recherche documentaire), on sera dans le domaine des nécessités, mais pas
dans celui des avantages. En fait que recherchons nous ?
Nous voulons en un premier temps connaître ce que les autres connaissent. C’est le but de
l’utilisation des bases de données principales. Mais, en outre, nous voulons essayer de nous
différencier par rapport à nos concurrents, de nous donner les moyens de penser à la fois comme
eux, mais aussi autrement. C’est là qu’une stratégie est nécessaire. Elle doit nous permettre par
l’analyse des serveurs, des bases présentées, (nous verrons ensuite les contenus) d’essayer de
voir comment on peut se différencier des concurrents, existe-t-il des sources d’informations
différentes, des bases en CD-ROM ou des serveurs que nous ne consultons pas
systématiquement, pourquoi ? Devons nous toujours aller au supermarché, dans certains cas
pourquoi ne pas se laisser tenter par les boutiques spécialisées.
CRRM
Analyse de l'Information Texte
• Répartition
Sources et serveurs
Brevets
Info. Sci
Presse
Normes
Colloques
Lit. Tech.
générale
Orbit
où qui prix
Dialog
où qui prix
Questel
où qui prix
CD-ROM où
En même temps une analyse des volumes estimés, des bases
de données disponibles et du budget prévisionnel est nécessaire
Analyse des sources d'informations formelles sur un sujet
Evidement il faudra toujours associer à cette démarche une analyse de coût, ce qui constitue la
meilleure façon de demander les moyens nécessaires en mettant en évidence ce qui ne sera pas
regardé et analysé.
Il faudra ainsi, dans l’espace informationnel qui nous est offert, effectuer en permanence une
analyse critique des sources, non pas en considérant uniquement les bases de données principales
(dans ce cas tout le monde le fait, et on est dans le cadre des nécessités) mais au contraire
quelles sont les données, les bases, qui nous permettrons d’acquérir un avantage par rapport aux
concurrents.
Il faut donc regarder l’information, même formelle avec une attitude nouvelle: je dois connaître
ce que tout le monde connaît, mais par contre je ne dois pas me contenter de cela uniquement.
Je dois aussi en fonction des objectifs de l'entreprise, des menaces potentielles, essayer de
localiser les sources d’informations qui nous donnerons un avantage, même si celui-ci ne dure
pas longtemps.
Dans ces analyses, certains font aussi entrer en compte une appréciation des coûts, à la fois au
niveau de la recherche et de l'utilisation des bases de données formelles, mais aussi dans certains
cas pour mettre en place ou non, ou pour estimer les coûts d'une base de données informelle à
créer. Nous n'aborderons pas, dans ce cadre l'économie de l'information, mais pour plus de
renseignements sur le sujet, nous conseillons aux lecteurs de lire: Economie de l'Information
Spécialisée, Valeur, Usages Professionnels, Marchés, par Daniel Confland, Editions ADBS,
1997, ISSN 1160-2376.
7.4 - Quels sont les vecteurs d’informations formelles dans le champ de mes
préoccupations
Une bonne pratique avant de commencer à collecter de l’information est d’essayer d’analyser
quels sont les supports de cette information. Que doit on lire, quels abonnements souscrire (si
cela est strictement nécessaire), en bref, comment se font dans le domaine qui nous préoccupe
les transferts d’information.
On peut, pour arriver à cet objectif, interroger des experts. C’est une bonne pratique, mais les
experts ne peuvent pas être au courant de tout. Comment alors opérer ?
On peut, à partir des grandes bases de données avoir une première approche. Une fois définie le
sujet à aborder (cette définition doit être réalisée avec un spécialiste d’information documentaire
et on doit prendre soin de tester les résultats pour être sûr de ne pas laisser de côté des pans
entiers d’information), il sera facile de réaliser des interrogations successives, puis de délimiter
dans chacune de ces interrogations la répartition statistique des sources, et le nombre de
références quelles contiennent. Cela donnera une idée bien plus claire que certaines affirmations
péremptoires d’experts.
Ces données seront facilement déterminées en sériant un corpus par un certain nombre de mots
clés ou autres paramètres d'interrogation, puis en appliquant sur le nombre de références
sélectionnées une commande du type GET (serveur Questel - Orbit) ou RANK (Serveur
Dialog), ou MEM (serveur Questel)...sur le champ type de document.
Cela évitera par exemple de prendre pour argent comptant l’affirmation d’un expert citant
quelques journaux scientifiques et quelques thèses de son domaine de travail, et omettant de
signaler que plus de 60% des travaux apparaissent dans des brevets ( rarement republiés dans
des journaux scientifiques) ou dans des journaux non conventionnels. Avant de commencer un
suivi devant conduire à des analyses stratégiques, il devient de plus en plus nécessaire d’avoir la
meilleure vision possible du panorama des supports et des systèmes de diffusion.
Dans certains cas, cette analyse pourra être complétée par une analyse encore plus fine des
laboratoires, des acteurs, des thèmes et de leurs relations etc.
La même analyse pourra être réalisée sur un groupe de références représentatives de la
production scientifique d'un groupe de personnes, d'une ville. L'exemple suivant montre les
principales revues et sources de publications d'une recherche réalisées sur la production dans le
domaine de la Chimie, à partir des Chemical Abstracts, de la Ville de Marseille (ce qui est
indiqué ici n'est qu'un extrait représentatif). Le listing est réalisé par extraction et comptage du
champ source dans lequel on isole (Dataview) le titre du Journal ou le nom de la source de
publication.
Sources de publications par classées par Sources de publications classées par ordre
fréquences
alphabétique
7
5
4
7
5
4
7
5
4
3
3
3
3
3
3
3
3
3
2
2
2
2
2
2
2
2
2
Biol Tumeurs Cereb Gliales
Eur J Biochem
Shock Waves Proc Int Symp
20th
Polycyclic Aromat Compd
Ann Falsif Expert Chim Toxicol
Adv Concepts Tech Therm
Modell Proc Eurotherm Semin
36th
Process Technol Proc
Proc Rencontre Moriond
Phys Chem Liq
1
1
3
3
1
1
2
1
3
1
1
1
1
2
1
3
1
1
1 Acta Crystallogr Sect C: Cryst
Struct Commun
3 Adv Concepts Tech Therm
Modell Proc Eurotherm Semin
36th
1 Adv Exp Med Biol
1 Am J Trop Med Hyg
2 Analusis
1 Ann Biol Clin
3 Ann Falsif Expert Chim Toxicol
1 Ann Med Interne
1 Annu Rep Conf Electr Insul
Dielectr Phenom
J Phys IV
1
1 1 Anticancer Res
EMBO J
1
1 1 Appl Radiat Isot
Conf Rec IEEE Photovoltaic
1
1 1 Arch Oral Biol
Spec Conf
1
1 1 Biochem J
2
2 2 Analusis
7
7 7 Biol Tumeurs Cereb Gliales
1
1 1 e+e Collisions TeV Energ: Phys
1
1 1 Bull Inst Pasteur (Paris)
Potential Proc Workshop
1
1 1 Bull Soc Chim Fr
1
1 1 Transm Subacute Spongiform
1
1 1 Cell Pharmacol
Encephalopathies: Prion Dis Int
1
1 1 Clin Mol Pathol
Symp 3rd
1
1 1 Combust Sci Technol
1
1 1 Toxicol Environ Chem
1
1 1 Comput Appl Biosci
1
1 1 Tenside Surfactants Deterg
1
1 1 TOPSEAL 96 Int Top Meet
2
2 2 Conf Rec IEEE Photovoltaic
Demonstr Pract Achiev Nucl
Spec Conf
2
2 2 EMBO J
Waste Manage Disposal
1
1 1 Electrochim Acta
1
1 1 Semicond Insul Mater 1996
1
1 1 Endothelium
Proc
5
5 5 Eur J Biochem
Conf 9th
1
1 1 Eur J Clin Pharmacol
1
1 1 Rev Sci Instrum
1
1 1 Eur J Drug Metab Pharmacokinet
1
1 1 Quarks Colliders Proc Lake
1
1 1 Eur J Hum Genet
Louise Winter Inst 10th
1
1 1 Eur J Immunol
1
1 1 Pure Appl Opt
1
1 1 Protein Eng
1
1 1 Eur Space Agency [Spec Publ]
1
1 1 Photochem Photobiol
ESA SP
1
1 1 Europhys Lett
1
1 1 Pharmacology
1
1 1 Experientia
1
1 1 Pathol Oncol Res
1
1 1 Food Technol Biotechnol
1
1 1 Pain
1
1 1 Origin Evol Biol Energy Convers
1
1 1 Fullerenes Fullerene Nanostruct
1
1 1 Org Geochem
Proc Int Wintersch Electron
1
1 1 Numer Heat Transfer Part A
Prop Novel Mater 10th
1
1 1 Nucl Phys B Proc Suppl
1
1 1 Gene Delivery Syst [OECD
1
1 1 Neurosci Lett
Ottawa 95 Workshop]
.......................................................
.....................................................
2
2
2
2
2
2
2
2
2
On constate, dans ce tableau qui n'a été effectué que sur un extrait de 100 travaux publiés pris
au hasard sur environ 900 au total (travaux publiés en 1996), la forte dispersion des sources, ce
qui est classique en bibliométrie (La Bibliométrie et ses Techniques, Hervé Rostaing, Coédition Sciences de la Société-CRRM, Marseille, 1996). On constate aussi la présence de
Conférences (en gras dans le tableau), du moins celles indexées par Chemical Abstracts, ce qui
montre que la publication est loin d'être le seul vecteur de transmission des connaissances dans
certains domaines.
Le tableau suivant met en évidence les différentes opérations d'analyses bibliométriques qui
peuvent être réalisées sur un corpus d'informations structurées.
Graphical pair
lexicon
Graphical form
lexicon
Edition
Contingency
Tables
Frequency
lists
Presence - Absence
tables
Symetric
tables
Network
A14G03B02D21B05C07P34S05B01P32 D22A96B07
1
1
1
1
1
1
Classification
1
1
1
1
1
1
1
1
1
Sériation
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
Inertial
analysis
1
Principaux types d'analyses et visualisation des résultats
Le diagramme ci-dessus montre les différents types de traitements qui peuvent être utilisés dans
le cadre d’une analyse automatique de l’information (qu’elle soit formelle ou informelle). A
partir de ces analyses on met en évidence des cibles particulièrement intéressantes qui permettent
aux experts de réagir, et qui signalent aussi clairement les personnes, lieux, thèmes, où il faut
essayer de recueillir plus d’informations, récentes, informelles dans la majorité des cas. Nous
reviendrons plus en détail sur ces types d'analyses automatiques.
Enfin, il faudra, en fonction du nombre de travaux publiés, commencer une étude de coût et
examiner avec des experts comment donner si cela est possible un ordre de pertinence. Mais,
n’oublions pas, que nous voulons savoir ce qui se passe, et que ce qui est réellement intéressant
est l’idée de départ. La littérature formelle nous permet, par le biais des bases de données
d’accéder à des ensembles de données de plus en plus importants. Les restreindre en supposant
que ce qui est publié dans certains journaux est meilleur que dans d’autres est dans le cas de la
recherche d’idée un non sens. Une idée nouvelle ne naît pas nécessairement dans un journal où
les travaux publiés sont figés par les a priori, les examinateurs, et l’ensemble des lecteurs.
Ainsi, de proche en proche on arrivera à une vision claire du domaine, des transferts
d’information et des stratégies de collecte et d’accès nécessaires. Cette méthodologie, ici plus
axée sur l’informatique et l’analyse, sera aussi utilisée, mais avec des variantes pour
l’information informelle.
8 - La collecte des informations informelles
Définissons tout d’abord ce qui peut caractériser une information informelle. Certains diront
qu’elle n’a pas de support, d’autres qu’elle peut apparaître sur un support, mais de façon
aléatoire. Des définitions différentes feront appel à la nécessité d’aller chercher ces informations
sur le terrain, avec des spécialistes de cette forme de collecte et en organisant cet ensemble. Je
pencherai plus particulièrement vers cette dernière définition. En effet si je peux, directement de
mon bureau accéder à une base de données et réaliser certaines extractions d’informations, il
n’en va pas de même si je veux connaître l’avis des représentants sur un produit concurrent dans
un secteur géographique donné. Dans le premier cas je vais faire appel à des spécialistes de
l’information documentaire, dans le second cas il va falloir formuler une demande en mettant en
avant ce que l’on recherche (phase briefing), puis il faudra réaliser l’opération sur le terrain et
«consolider» les résultats (c’est la phase du debriefing). On va ainsi, dans le second cas, hors de
son espace géographique, hors de l’entreprise, et c’est sur le terrain que les informations sont
récoltées.
Il est donc évident, si on se place dans cette hypothèse, que divers services de l’entreprise
possèdent de par leur fonction des éléments d’informations informelles.
Il faudra donc, en un premier temps faire en sorte que les différents services de l’entreprise
communiquent, c’est le premier point, mais soient aussi engagés dans la recherche des
informations informelles et connaissent clairement l’enjeu de cette recherche.
La figure suivante fournie à titre indicatif un début d'analyse sur les sources d'informations
informelles qui seraient les plus utiles et en même temps les stratégies à mettre en oeuvre et les
questions de base à se poser.
Analyse des sources informelles
Données indiquées à titre indicatif
• .
Lobbying
Competiteurs
Fournisseurs
++
++++
+++++
Clients
Les gens
++++
+
Meetings
+++
Universités
+
Presse
++
STRATEGIE
Qui va rechercher les
informations ?
Où, Quand, Comment ?
Quels seront les
services concernés ?
Quelle sera la constante
de temps ?
Qui gerera les
informations
CRRM
Présentation d'une analyse simple des sources d'information informelles
On a coutume de dire que c’est à l’interface de la R&D et du marketing que certaines
"choses" se passent. Dans le cadre de l’hyperinformation, nous étendrons cela à tous les
services de l’entreprise susceptibles d’être en relation avec l’extérieur (achat, contretypage,
service après vente, service commercial, agence de voyage, participants à des expositions à des
colloques ...)
Bien évidemment, selon les pays, les entreprises, les habitudes, la rétention d’information va
jouer son rôle. Si cela est la cas, il faudra essayer de changer les comportements. On ne pourra
plus assurer son avancement si l’entreprise fait faillite. Or, un bon système d’information
est une assurance contre l’adversité.
Remarquons simplement qu’au Japon, la rétention d’information, si elle est vérifiée peut être une
cause de rétrogradation, voire de licenciement. N’oublions pas, non plus, que dans un système
hypercompétitif, ce n’est pas en se pénalisant soi-même par une rétention interne d’information
que l’on progressera, mais au contraire par une action globale, orientée vers le développement
d’avantages compétitifs pour l'entreprise.
8.1 - Les capteurs d'informations externes
Il y a généralement beaucoup de services, de personnes, qui par leurs activités sont en contact
avec l'extérieur de l'entreprise. Une analyse rapide doit permettre de délimiter les services, les
personnes, et les champs d'information qui sont susceptibles d'être balayés.
Cette analyse est généralement faite avec les services du personnel de l'entreprise et nécessite
une bonne connaissance de l'organigramme général ainsi que des fonctions attachées à chaque
service, et dans ces derniers les responsables de ces fonctions.
Il sera ainsi possible de réaliser une cartographie (le terme n'est pas ici une image, mais une
réalité), car au delà de la simple fonction se juxtapose la notion de territoire géographique
couverts par ces différents services.
Ensuite, on essaiera et si cela est possible avec leur responsable, de mieux connaître les types
d'informations qui pourront être rassemblées. Par exemple, le service achat, en étant en contact
avec des fabricants de machines, ou des pourvoyeurs en matières premières est susceptible
d'interroger ces derniers sur l'état de l'art dans les produits ou composés de substitution, des
essais et orientations éventuellement prises par les concurrents, leurs fréquences de livraisons
dans la région, ... De même, les représentants, avec leurs multiples contacts, sont des capteurs
privilégiés.
Un autre élément important d'information est fourni par l'analyse des lieux (expositions,
manifestations professionnelles, réunions de syndicats professionnels, colloques, congrès...) où
on peut être en contact avec les concurrents ou les utilisateurs potentiels. Cet aspect est
important. Il est conseillé de réaliser une liste relativement exhaustive puis d'essayer de
déterminer les niveaux d'intérêt (pour notre entreprise) de ces manifestations. Quant on parle ici
de niveau d'intérêt, c'est au plan du recueil d'informations, d'indices, que l'on se place. Une fois
cette étape réalisée, il faudra s'organiser, déterminer en tenant compte des forces financières et
en personnel disponible ce qui pourra être suivi et analysé. Lorsque cela est possible on peut
trouver des spécialistes qui, pour plusieurs entreprises peuvent visiter des salons, aller à des
manifestations scientifiques (les colloques de l'ACS (American Chemical Society) aux USA
regroupent plusieurs milliers de personnes avec des centaines de communications et des
expositions) et rechercher des informations. Dans ce cas la déontologie du partenaire choisi doit
être prise en compte. Mais, comme l'on ne peut pas tout faire, un travail en "pool" est souvent
un palliatif intéressant.
Une représentation possible de cet ensemble de capteurs pourrait être faite de la façon suivante:
CRRM
Relations extérieures état au xxx-xxx-1997
Un clic sur service achat conduit à
l'ouverture de fenêtres de produits et
de services, puis au nom et tel. des
personnes concernées
R&D recherche
service achats
ANIMATEUR
Marketing
Stagiaires
DRH
un clic sur personnes concernées
va nous donner accés aux derniers
rapports ou thèmes abordés.
Contentieux
Rapports et autres
Informations
Exemple de système élaboré de dissémination de l'information
La figure précédente est une vision fragmentaire d'un travail réalisé par le CRRM pour un tiers.
La réalisation en hypertexte est faite sous Acrobat d'Adobe. Les produits obtenus peuvent aussi
être diffusés à l'intérieur de l'entreprise sous un Intranet ou sur tout autre support. La mise à jour
est faite tous les six mois. Un CD-ROM est gravé avant chaque mise à jour. Ce qui est le plus
ardu dans une telle approche, ce n'est pas nécessairement le coût, mais la constance dans la
mise à jour, le maintien des données, en un mot la qualité du système d'information mis
en place.
On peut aussi par grand thèmes, réaliser une base de données sur les contacts extérieurs, les
manifestations, les personnes susceptibles de se déplacer, etc. De toute façon, ces sources
d'informations extérieures ne peuvent pas être négligées. Soit on s'implique directement si la
société en a les moyens, soit on essaie de s'organiser pour mieux cibler ce qui se passe, non pas
en attendant le compte rendu de la manifestation qui peut au plan scientifique apparaître dans
des bases de données avec plusieurs mois voire une année de retard, mais en essayant d'obtenir
une information fraîche. Pour cela on peut s'inscrire à un colloque sans y aller physiquement (on
aura alors en retour les comptes rendus qui seront envoyés, et on apparaîtra sur la liste des
présents), soit on peut utiliser une autre tactique. Par exemple, pour en revenir aux Colloques de
l'ACS, on peut essayer de savoir quels sont les laboratoires français qui participent à cette
manifestation, et demander à la ou les personnes qui vont y aller de regarder certains aspects au
niveau des communications ou de l'exposition, moyennant une contrepartie financière.
Ainsi, avant de se lancer dans l'analyse de ce qui va être collecté, des cibles à aborder, etc... on
essaie d'avoir la meilleure vision possible des capteurs de l'entreprise sur le terrain. On y associe
aussi une notion des coûts et des performances, ainsi que de la notion de temps (fraîcheur de
l'information).
8.2 - Que collecter, comment fixer les cibles
Collecter l’information informelle suppose un objectif précis. On peut distinguer deux aspects de
la collecte: une collecte tous azimuts pour les personnes curieuses allant hors de l’entreprise (au
terme tous azimuts, je préférerai le terme de secteur d’activité ou de produits, afin de mieux
focaliser les énergies et d’être plus performant en dispersant moins les efforts), puis une collecte
finalisée, où certaines personnes, mieux entraînées que les autres et ayant plus d’expérience vont
essayer d’obtenir des réponses précises à certaines questions.
Il va donc falloir, de même qu’en Veille Technologique on approche un problème par le biais
des Facteurs Critiques de Succès, des dossiers généraux d’information puis de l’information
critique à réactualiser, focaliser la demande en organisant pour ce qui est stratégique des
consultations internes avec des experts. On préférera la constitution de groupes restreints de
personnes, d’origines diverses qui prendront en charge tous les aspects informationnels du
problème et qui développeront, cette fois-ci avec les experts en hyperinformation les stratégies
à mettre en place. On pourrait, pour mieux fixer les idées, non pas comparer ces groupes aux
groupes de projets (trop finalisés vers un produit), mais aux groupes chargés du reengineering
d’un process ou d’une activité .
L'analyse de l'information formelle, des "on dits" encore pas trop précis, des "sentiments ou
impressions" exprimés par les experts, conduisent à nous indiquer un certain nombre de cibles,
encore floues, mais potentiellement intéressantes ou menaçantes pour l'activité de l'entreprise.
L'étape précédente nous a permis de mieux connaître les potentialités de contact de l'entreprise
avec le monde extérieur. Il va donc falloir, dans cette étape, essayer en travaillant avec le groupe
de personnes restreint associé à l'information informelle, de transposer au niveau des cibles,
l'analyse des moyens de contacts et de pénétration.
8.3 - Se mettre à la place de l'autre
Il s'agit ici de travailler sur la manière dont notre concurrent assure ses contacts avec l'extérieur,
qu'elles sont ses interfaces, quels sont les services qui jouent ce rôle qui sont les personnes les
plus actives, etc.
On travaillera par symétrie avec sa propre organisation, en essayant de voir si avec nos
connaissances on peut remplir un certain nombre de cases relatives à cette analyse. En effet,
l'objectif est évident:
* pour recueillir de l'information informelle par des voies tout à fait légales, il est nécessaire de
rencontrer, d'obtenir par écrit (publications, articles de presse, ... interviews) ou oralement
(communications, écoutes dans certains lieux publics....), ou par des tiers en contact avec nos
cibles potentielles, le maximum d'informations sur les sujets qui nous intéressent. La
représentation suivante illustre la méthode utilisée.
Nous connaissons les objectifs à atteindre et les
informations que nous voudrions connaître
NOUS
CRRM
Interface de contact à
organiser
Nous devons imaginer, représenter
connaître l'interface extérieures de nos
concurrents
EUX
Nous connaissons nos
capteurs externes
La diminution des barrières de perception
8.4 - Que pouvons nous divulguer
Il est évident que participer à des échanges d'information, avoir une position active dans ce
milieu va impliquer des échanges. Une grande règle c'est que si l'on demande toujours sans
jamais donner, on n'obtient après une certaine période que peu ou pas d'informations. Il
existe donc pour une entreprise une stratégie de contacts extérieurs. Cette stratégie se fait en
relation avec les personnes de la communication, puisqu'une partie de leur travail consiste par la
communication à donner une image positive, dynamique, high tech, "écologique", sociale .... de
l'entreprise.
Compte tenu des missions qui vont être fixées aux "capteurs" extérieurs, il faudra leur indiquer
dans quelle direction la communication doit se faire, ce qui peut être dit et qui permettra des
échanges et donc la collecte d'informations potentiellement utiles.
Cette organisation, à l'encontre de ce que l'on pourrait penser n'est pas lourde. Elle implique
seulement des réunions ou des contacts périodiques avec l'ensemble des personnes concernées
ou leurs représentants, à condition que ces derniers relaient l'information vers les utilisateurs
finaux.
Cette approche est surtout importante dans les services de R&D, où les personnes concernées,
issues du domaine de la recherche ont eu pour habitude d'échanger des informations au cours de
leur thèse et de leurs travaux scientifiques antérieurs. Dans ces conditions, il sera nécessaire de
savoir ce qui peut être dit, et ce qui ne doit pas être dit. A nouveau, la politique de ne rien
dire n'est pas une bonne politique. A une époque où le passage des résultats de recherche au
développement puis à la production va très vite, participer aux avancées scientifiques et à la
mouvance qui les accompagne est un bon moyen de progresser. Encore faut il que cette bonne
intention ne se retourne pas contre soi, d'où une certaine réflexion sur ce qui peut être ou doit
être dit.
9 - Les informations d'influence, le lobbying
Dans les chapitres précédents, nous avons essentiellement axé notre propos sur les informations
plus ou moins reliées à la science, à la technologie, à la technique, au commercial à la
connaissance des concurrents. Mais, dans le fond, nous sommes restés assez académiques dans
les types d'informations recherchées, même si le niveau des personnes peut et doit être abordé
dans certains cas. Dans cette partie, nous aborderons plus particulièrement deux types
d'informations qui sont importantes et qui se complètent le plus souvent. Ce sont les
informations d'influence, et ce qui gravite autour du lobbying. Nous ne voulons pas traiter
complètement de ce problème, mais il doit être abordé, car il faut ôter ici un certain nombre
d'idées préconçues: être capable, être au bon niveau ne suffit plus. En fait, ce qui peut être
gagné sur le terrain peut être facilement perdu sur le "tapis vert". Les mécanismes de la prise de
décision sont complexes, l'environnement y joue un grand rôle.
Etre influent par une recherche systématique d'informations liées à l'influence et au
lobbying est de nos jours un complément indispensable.
Nous avons, au début de cet ouvrage, traité des définitions et entre autre nous avons utilisé pour
décrire la technosphère, une image concentrique. Nous allons la regarder à nouveau en fonction
de l'influence et du lobbying.
9.1 - La Technosphère de l'influence et du lobbying
LA TECHNOSPHERE
C'est l'environnement de l'Entreprise dans lequel on va retrouver
l'ensemble des contraintes et des liaisons avec différents domaines
Technosphères d'influence et de lobbying
Science
Formation
Finance
Protection
Technique
Technologie
Entreprise
Relations
publiques
Achats
Relations clients
Marketing
et fournisseurs
Communication
CRRM
Les technosphères du lobbying et de l'influence
Ainsi, à la technosphère classique, celle qui est ordinairement apprise au niveau de
l'enseignement traditionnel, vont se juxtaposer d'autres sphères, celles de l'influence et du
lobbying. En France, il est difficile de traduire l'expression "public affairs", mais c'est bien dans
ce sens qu'il faut comprendre ces nouvelles orientations. La connaissance de ces sphères est
d'autant plus importantes lorsque l'on va travailler à l'international, ou que l'on va rechercher les
aides et le soutien de l'Etat. Connaître les mécanismes, ne pas rester naïf lorsqu'on doit se
confronter à des concurrents qui pratiquent systématiquement cette approche est un aspect
essentiel du développement des entreprises.
Comme pour les domaines classiques (techniques, technologiques ...), on va retrouver des
méthodes, des processus d'accès aux informations, leur analyse et leur compréhension, avant
d'intégrer les résultats au niveau de la stratégie. Ces sphères d'influence sont souvent étroitement
liées au politique, au géopolitique, mais prennent un aspect plus large car elles vont nécessiter
une connaissance des programmes de développement, des institutions, des coutumes et des
acteurs. La compréhension du jeu de ces acteurs va alors devenir un point clé,
déterminant pour la suite du processus.
Ces brèves constatations permettront en outre de contraster l'enseignement traditionnel, entre
autre scientifique: ce n'est pas en devenant de plus en plus "pointu" dans un domaine que l'on
pourra accéder à de très hautes postes de responsabilité. Il faut compléter cette culture,
l'Université ne le fournit que rarement. C'est pour cela que je suis maintenant partisan de
partenariats mixtes, publics - privés dans certains domaines, car c'est une des seules façons en de
montrer à nos étudiants qu'il faut non seulement être "bons", mais aussi savoir que deux et deux
ne font plus quatre. Dans un pays très cartésien cela pourra faire sourire certains, mais s'ils
analysent les postes de responsabilité au niveau simplement des diverses instances de la
Communauté Européenne, je pense que, s'ils sont sincères, ils changeront d'avis. Une très forte
technicité qui ne tient pas compte, dans la formation de ces contingences, conduit à
instrumentaliser l'étudiant, même si cela se produit au niveau d'une Ecole d'Ingénieur.
9.2 - L'information d'influence
Nous allons, pour situer les idées, donner un exemple: lors de la réalisation d'un tracé de route
ou de TGV, il faut prendre en compte les normes, les règles de construction, l'ensemble des
éléments techniques qui feront que cette route sera construite suivant les "canons" du pays ou de
l'entreprise qui va la réaliser. Par exemple le SETRA (Service d'Etudes Techniques des Routes et
Autoroutes) s'occupe plus particulièrement au plan national Français de maintenir à jour et de
transférer tous les aspects techniques liés à la construction de routes, d'autoroutes, d'ouvrages
d'art.
Mais, pour construite une autoroute les pouvoirs publics doivent avant tout déterminer son
tracé. C'est là que va se situer l'information d'influence. En effet, un tracé de route va soit gêner
certaines personnes, soit utiliser des terrains, d'où expropriation et indemnisation, soit favoriser
certaines villes au détriment d'autres suivant le tracé utilisé. Il y a deux méthodes pour tenir
compte de l'avis des "riverains" et nous allons voir que ces deux méthodes sont très différentes.
On peut agir dans le cadre de la légalité: on fait réaliser une enquête d'utilité publique où en
principe tout le monde peut s'exprimer, puis ceci fait on passe à la réalisation des travaux. C'est
une méthode, mais si on se borne à celle-ci, on est pratiquement assuré d'un échec. Les récents
mouvements, à la fois des écologistes, des élus, des propriétaires, que ce soit pour le tracé du
TGV Lyon-Marseille, ou que ce soit pour le tracé de l'autoroute Sisteron-Grenoble (il existe
bien d'autre cas) en sont des exemples. Des associations se créent, des journaux sont imprimés,
des manifestations ont lieu, etc.... l'atmosphère, loin d'être assainie ne permet plus un
raisonnement normal et rationnel, on passe dans le domaine du passionnel. Ceci montre bien que
la légalité n'est pas tout, et que dans ces affaires, il faut soigneusement analyser les oppositions
possibles, les enjeux, les jeux d'acteurs, la politique du développement local. Ceci va nécessiter
une forte connaissance du terrain, puis la confection d'informations ciblées diffusées avec une
stratégie réfléchie, des réunions, bref, des moyens importants pour convaincre ou pour qu'une
majorité se rallie au projet.
On aura alors plusieurs cartographies du projet:
* Celle qui est technique, avec toutes les considérations de déblais - remblais, etc...
* Celle qui est cadastrale, et qui permettra de connaître les propriétaires des différentes parcelles
sur lesquelles va passer le tracé, (on pourra à ce propos consulter les travaux remarquables
effectués par M. Bibent dans ce domaine (Laboratoire d'Informatique Juridique, Université
Montpellier I)
* Celle qui est politique, afin de déterminer qui sont les élus et à quelle mouvance politique ils
appartiennent, (Canton, Conseil Général, Conseil Régional, Municipalité, Sénateur)
* Celle qui concerne les activités industrielles les plus proches,
* Celle qui concerne les activités agricoles,
* Celle qui concerne la démographie
* Celle qui concerne les taux de chômage
On constate ainsi la pluralité des informations nécessaires pour atteindre l'objectif fixé sans trop
d'accoups. Si on prend bien en compte que chaque système a des acteurs, des associations, des
règles, une bureaucratie, des intérêts très souvent non convergents, on se rend compte que les
personnes qui s'occupent de ces problèmes doivent avoir une bonne coordination et ne doivent
pas agir à la légère. Un système d'information efficace, intégrant l'ensemble des données devient
alors indispensable !
Ceci n'est qu'une exemple, mais il est d'actualité. En effet, la perte, par les lois européennes des
monopoles, vont placer EdF, GdF, France Télécom, les Compagnies distribuant l'eau, même la
SNCF demain sans doute La Poste, devant de nouvelles orientations, entre autre devant la
concurrence de nouveaux acteurs. Si EdF devient transporteur, sa situation ne sera pas aussi
bonne que s'il est à la fois producteur, distributeur, transporteur. Garder, en dépit de la
concurrence cette position au niveau géographique, nécessitera une démarche semblable à celle
décrite ci-dessus.
Au plan international, la vente des Air-Bus, les grands contrats de génie civil, la vente de TGV
en consortium, sont reconnues par le public comme mettant en jeu tout un ensemble
d'influences, à commencer par celle de l'Etat et du Président de la République lors de ses
voyages. Mais, bien d'autres entreprises exportent et concluent des contrats. Elles ne sont pas
nécessairement toutes au niveau de ces grandes opérations, ne serait ce que par le coût des
produits qu'elles vendent. Il faut donc qu'elles se "débrouillent" et qu'elles affinent dans ce
domaine une stratégie de terrain, de connaissance des pratiques et des influences locales, tout
ceci pour mieux maîtriser ce nouveau type d'environnement et in fine pour mieux vendre.
On retrouve bien un parallèle avec l'approche classique. On peut connaître par l'analyse politique
des résultats électoraux, par l'analyse des données bancaires (banque mondiale ou autre), par les
statistiques nationales, par sa démographie, son commerce international, les contenus annoncés
des plans de développement ce qui constituera une information relativement formelle. Elle devra,
et là on le comprend encore mieux, être complétée par une information de terrain. Ceci
permettra de mettre en place des contacts ou des personnes qui affermiront localement
l'influence de l'entreprise. Ce dernier aspect, principalement au niveau de l'Asie, conduira
l'entreprise à recruter des personnes sûres de la nationalité du pays où l'on veut s'implanter et
faire des affaires. Il faudra donc développer tout un ensemble de liens entre les différents acteurs
d'une même société, souvent séparés par des barrières culturelles et linguistiques.
9.3 - Le lobbying
Ce sont les anglais, qui ont le plus largement, et depuis longtemps considéré le lobbying comme
une action complémentaire, nécessaire même, au développement d'une entreprise. De
nombreuses références anglo-saxonnes ont traité et traitent de ce problème.
(Informal strategic networks and the board of directors, Borch, Odd Jarl; Huse, Morten,
Entrepreneurship: Theory & Practice, v18n1, pp. 23-36, Fall 1993 - James Henry Rowe,
Broadcasting & Cable, v123n35, pp. 51, Aug 30, 1993, 1 pages, - Linking Business and
Academia, Gilliam, Les, Computerworld, v22n36, pp. 73,80, Sep 5, 1988, - The Lobbyist,
Davis, Nancy M., Association Mgmt, v40n7, pp. 34-38, Jul 1988)
On peut considérer le lobbying de différente façons, mais l'une d'entre elle est communément
admise: le lobbying permet de mieux faire connaître de certains décideurs, les acteurs de
qualité. Il joue donc le rôle d'une sorte de courroie de transmission. Le lobbyiste cultive
soigneusement ses contacts, leur apporte des informations, les renseigne, et en quelque sorte
facilite leur tâche.
C'est surtout aux USA que cette compréhension du lobbying est courante.
Voir à ce sujet les références suivantes:
Le lobbying: une ancienne profession redécouverte, Jan Van Heuverswyn et J.P. Schuybroek
Gestion 2000, p.131-140, 1990 - Eurolobbyisme, B. Julien, Gestion 2000, p.143-153, 1990
British lessons for Euro-lobbying, M.Burrell, Gestion 2000, p.155-161, 1990 - Lobbying in
Europe: an American perspective, J.P. Vernandos, Gestion 2000, p.163-170, 1990 - Le
Lobbying et ses secrets, Michel Clamen, Dunod, 1995, ISBN 210002507.
Les groupes de pression s'inscrivent dans un modèle d'équilibre politique avec les deux
principales composantes du pouvoir que sont le Congrés et l'Administration. C'est dans ce cadre
que Théodore Lowi a présenté ces intéractions suivant un modèle triangulaire (, Eurolobbyisme,
Bruno Julien, Gestion 2000, p.143-153, 1990)
Le pouvoir aux USA
Groupes de
pression
Ministères
Administrations
Congrés
Le Congrés vote les budgets et reçoit des
Ministères des informations et des propositions.
Le Ministère fixe les règlementations (prix...
qualité) à destination des groupes de pression
(producteurs, fédérations...)
Le Congrés développe la législation à destination
des groupes de pression qui renvoient des
informations, et des soutiens politiques et
financiers.
Le triangle des forces
Ce modèle pourrait servir de base à la compréhension du développement du lobbying
Européen, spécialement au niveau des Commissions de Bruxelles.
Le triangle stratégique aux USA
C'est ainsi que même au niveau universitaire cette question est abordée. Dans une adresse
présentée à l'Insdustrial Research Institute, le Président de l'Institut Polytechnique de Rensselaer
indiquait entre autre que les universités devraient donner une priorité aux enseignements
technologiques et qu'une politique effective de lobbying politique devrait être mise en
place pour améliorer le financement de l'Université. Les Universités du futur devront donner
plus de place à l'enseignement mais elles devront aussi développer habilement une influence
politique. R Schmitt, International Journal of Continuing Engineering Education, vol 1, n°1,
1990 pp. 10-17)
En France, la perception du lobbying reste encore entachée pour certains d'un malaise.
On considère souvent que ce n'est pas bien, que ce qui est bon et bien est forcément
autosuffisant. Mais cela n'est plus vrai. Ce n'est que récemment, avec les contrats européens, que
les français se sont rendus compte qu'en plus de l'appel d'offre, il fallait préparer un dossier,
trouver des partenaires, puis suivre le dossier et le "porter" à Bruxelles ou à Luxembourg. Cette
situation est en outre amplifiée par la complexité des partenariats, bien souvent en outre, le texte
de l'appel d'offre n'est publié que très prés de la date limite, ne laissant pas le temps nécessaire à
la préparation du dossier. Il est donc essentiel, dans ce cas, d'être au courant avant, de connaître
les pratiques des membres de la Commission, qu'elle est l'orientation qu'ils veulent donner aux
demandes contenues dans les appels d'offre, etc. C'est ainsi que devant cette complexité et ce
manque "officiel" de temps, des société se sont créées. Elles vivent principalement du montage
et de la présentation et du suivi des dossiers communautaires. Elles sont généralement
rémunérées au départ au montage du dossier (de l'ordre de 50.000 fr. par partenaires), puis d'un
pourcentage sur la somme globale obtenue pour l'opération.
Cette pratique est courante, elle constitue une bonne assurance, car pour les gros dossiers, le
formalisme, le montage, le "portage" est nécessaire pour aboutir, car la concurrence à la fois au
niveau national et intercommunautaire est très forte. Ceci est plus connu sous le nom
d'Eurolobbyisme. Bruno Julien (Eurolobbyisme, B. Julien, Gestion 2000, p.143-153, 1990)
estime que le nombre de lobbyistes installés à Bruxelles est de l'ordre de deux à trois mille
Généralement, tous les grands cabinets conseil, du fait des affaires qu'ils traitent, et même si une
certaine déontologie les fait se tenir sur la réserve, on des cellules de lobbying.
Mais, aprés tout, on pratique généralement, à petite échelle, cette forme de contact, d'influence.
Sans l'ériger au niveau d'une panacée suprême, se priver de cet atout alors que les concurrents
l'utilise serait se voiler la face et peut être laisser passer de fructueuses opportunités.
Un conseil cependant, le lobbying doit être bon. S'il est mauvais, où, si ce n'est pas le bon canal
ou les bonnes personnes qui sont contactées, un bon dossier peut être refusé. Attention aussi à
qui fait le lobbying: un bon dossier présenté par une mauvaise structure, ou une structure peu
crédible est voué à l'échec.
Ces remarques me font penser à une situation récente, vécue au Congrès Eurocomposites de
Bordeaux, en 1997 où une table ronde sur la Veille Stratégique avait lieu. Au cours des divers
exposés, a été déploré le manque d'organisation en France, et les moyens importants que les
USA affectent à ce sujet, avec en outre une notion bien plus forte d'organisation. C'est un fait, il
peut être constaté. Alors, certains participants se sont mis à venter la Commission
Interministérielle sur l'Information Elaborée, le Comité Stratégique d'Intelligence Economique,
etc., etc. Bien entendu ces nouvelles structures allaient mettre bon ordre à tout cela, on allait
voir ce que l'on allait voir. ...... Sauf que, je me suis permis puisque j'étais intervenant à cette
table ronde quelques remarques: membre du Comité Interministériel sur l'Information Elaborée,
je suis bien placé pour évaluer son efficacité: elle a été réunie une seule fois !!! Connaissant bien
les pratiques américaines, on ne peut pas aborder le problème sans parler des fondations créées
souvent par des industriels, et qui, par leur poids, donc par l'intérêt financier et moral porté par
l'industrie à ces structures, influence et souvent impulsent la volonté de l'Etat. Qu'en est-il en
France ? J'essaie bien, de regarder autour de moi, mais je ne vois aucun signal de ce type ? Ce
n'est pas en faisant reposer toutes les initiatives au niveau de l'Etat que l'impulsion nécessaire
sera donnée. C'est une somme d'initiatives, regroupées dans des structures indépendantes qui
donneront l'impulsion. Trop d'Etat tue l'Etat comme l'on a l'habitude de dire...
Dans le même cadre de réflexion, le numéro 9/1997 des Cahiers de la Fondation pour les
Etudes de Défense: Stratégies Economiques en bosnie-Herzégovine, présente l'aspect suivant:
"Il n'y a aucune raison de suspecter a priori les français de déloyauté, mais leur attitude commerciale
reflète sans aucun doute un manque de professionnalisme qui contraste avec l'attitude d'autres pays.
Il faut pousser cette remarque plus loin encore, de l'échelon local à l'échelon national ou l'efficacité d'une
stratégie suppose avant tout un changement d'état d'esprit. En effet, si l'autorité étatique continue à
pratiquer une politique d'absence dans les postes internationaux importants et à raisonner en termes de
dépenses à fonds perdus et non d'investissements, et si les entreprises n'attendent de l'Etat que des
subventions et non un soutien à leurs propres efforts de pénétration commerciale, alors l'élaboration d'une
stratégie ne sera qu'un exercice intellectuel et les agences et autres outils resteront des gadgets inutiles."
10 - Systématiser le rapport d'étonnement
Le rapport d'étonnement est japonais de création. Il concerne généralement toutes visites ou
déplacements hors du lieu de travail. Il est principalement utilisé lors de voyages ou de visites à
l'étranger, et pas nécessairement pour le travail. C'est un rapport différent du rapport
directement lié aux observations faites dans le cadre direct du travail. Ce rapport relate tout ce
qui a été observé et qui est étonnant au sens strict du terme. Cela peut concerner des aspects
techniques, des habitudes, des comportements, des produits ou méthodes, des aliments, des
vêtements, ...
10.1 - L'intérêt de cette méthode
Ce type de rapport est intéressant, car il engage directement tous les membres de l'entreprise
lorsqu'ils sont en mission extérieure. Mais cela va au-delà, par exemple lors de voyages
collectifs, etc. Le problème du rapport d'étonnement est lié à l'exploitation des résultats. En
effet, il faut que les rapports soient lus et analysés, puis il faut que le résultat soit diffusé vers les
bonnes personnes, et si le contenu est intéressant, il faudra remercier la personne qui a fait le
rapport. Ceci va impliquer des efforts, un suivi, des vérifications.
Systématiser les rapports d'étonnement peut surtout être fait auprès de certaines personnes, pour
mettre en éveil leur perception en les motivant pour ne pas placer uniquement celles-ci au niveau
du travail et de la technique, mais pour les conduire à observer l'environnement dans lequel elles
se trouvent.
10.2 - Quelques précautions à prendre
Si on veut généraliser le rapport d'étonnement, il faudra (cela est aussi valable pour le rapport
tout court) demander un exposé très simple pouvant aller du simple contact ou coup de
téléphone, l'essentiel étant de mettre en évidence ce qui semblait ou était étonnant dans ce que
l'on avait vu, sans oublier la date et le lieu, son nom et son téléphone. Cela permettra de manière
très simple de retrouver ou de recouper les informations et d'orienter directement un utilisateur
potentiel vers la bonne personne.
11 - La validation des informations informelles
Vouloir gérer informatiquement l'ensemble des rapports est certes réalisable, mais cela va
demander des moyens, surtout humains, ce qui est le plus coûteux. Il faudra ensuite bâtir un
vocabulaire contrôlé adapté aux problèmes et l'utiliser pour indexer les faits. Ne pas oublier si on
développe un système de ce type, de rendre le champ date directement accessible pour que
l'ensemble des données puisse éventuellement être géré sous forme de flux.
Enfin, les informations devront être validées. Il n'y a pas de méthodes sures pour valider des
informations informelles. Disons qu'il y a quelques grandes lignes générales qui peuvent être
suivies.
11.1 - Une méthode simple
La méthode la plus simple pour valider une information informelle est la méthode des
recoupements. Si une information est corroborée par des observations diverses, faites par des
personnes différentes, on augmentera à chaque recoupement la validité de cette information.
Mais, attention, si la même information est signalées par des individus différents, cela ne veut
pas dire que l'information est plus pertinente. En effet, il faudra vérifier, et c'est impératif, que les
sources d'informations utilisées sont différentes.
11.2 - Des méthodes plus complexes
Une autre méthode consiste à avoir deux échelles non pas directement de validation mais disons
d'importance et de fiabilité. La première échelle consistera à utiliser une échelle (par exemple de
1 à 5) pour décrire une information de première importance (le chiffre 1) puis de moins en moins
importante de 2 à 5. Ensuite sera associée à cette information une lettre par exemple A, B, C
selon la qualité de l'individu transmettant l'information. En effet, certains individus sont plus
fiables que d'autres, et renommés pour leurs bonnes sources de renseignement. Ainsi, une
information très importante et avec une bonne probabilité de fiabilité sera cotée A1. Cela voudra
dire qu'un effort particulier de validation devra être réalisé dans cette direction, afin de rendre
l'information exploitable au niveau de la décision.
D'autres méthodes, par utilisation de fiches avec ajout de croix successives au fur et à mesure
des recoupements sont utilisées, d'autres personnes utilisent des fiches colorées, etc... Tout est
possible, mais il faudra de toute façon utiliser la fréquence des recoupements et la qualité de la
personne ayant recueilli l'information comme paramètres principaux de post-validation.
12 - Une observation intermédiaire: la Veille Sociale
Nous avons vu, dans le cadre de l'Intelligence Compétitive, de la Veille Technologique, de
l'Intelligence Economique, tout un ensemble de méthodes et de comportements destinés à
maîtriser l'environnement de l'entreprise, les interactions avec le milieu économique ou
technique, etc.
Mais, dans cet ensemble, il va être aussi nécessaire de surveiller l'ensemble des faits sociaux qui
vont concerner une entreprise, ou mieux le milieu dans lequel on se trouve. Ce type
d'observation est appelé Veille Sociale. La méthode consiste, la majeure partie du temps, à
analyser la presse locale ainsi que les notes syndicales, de management .... émises dans une
entreprise.
De nombreux auteurs ont montrés l'importance de l'analyse de la presse quotidienne et régionale
sur des faits ciblés, afin de recouper un certain nombre de renseignements. Ceci a été mis en
évidence lors de la deuxième guerre mondiale, mais a aussi été décrit par Dedidjer (Colloque sur
l'Intelligence Economique, Rio de Janeiro, Juillet 1996, FINEP) dans des conférences récentes,
où il montrait que dans les années cinquante une analyse sérieuse de la presse locale de certains
pays communistes avait laissé penser qu'il se trouvait à la tête d'un service de renseignement
important, tant la qualité des informations qu'il possédait était bonne.
Il y a plusieurs façons de s'intéresser à la Veille Sociale: le plan politique, le plan de l'évolution
des moeurs vestimentaires par exemple, on peut citer l'observatoire de l'air du temps dont le nom
décrit bien l'activité, on peut aussi citer mais cela est un cas limite, l'utilisation des sondages qui
donnent une photographie à un instant donné de la situation, etc.
12.1 - Une méthode simple
Sans entrer dans les détails, nous citerons un article de Jean-Claude Ducatte dans Humanisme
et Entreprise, 1997, p. 224: Comment mettre en place un système de veille sociale performant?
Citons le résumé de la méthode:
"La méthode que nous présentons peut s'apparenter à du Bench-Marking social. Pour saisir son
importance, il suffit de regarder les compétitions économiques qui opposent les entreprises. Dans de
nombreux secteurs économiques, les concentrations sont telles, qu'il ne restera que deux ou trois groupes
à dimensions européenne et/ou mondiale avant la fin du siècle. L'enjeu est de taille.
Pour faire partie du groupe de ceux qui gagneront, il est tout aussi vital de s'intéresser à la situation
sociale de ses concurrents, que de connaître leurs prévisions d'investissements, et leur situation
économique.
La veille sociale, à l'instar de l'intelligence économique, fournit des informations comparables, mais sur le
champ social, qui permettront de prendre les bonnes directions.
Connaître le contenu des accords sociaux qui se signent chez la concurrence, tout comme le
fonctionnement de son école de management pour ses cadres et ses commerciaux, ses orientations en
matière d'organisation, les rapports de force sociaux et syndicaux, les écrits de ses dirigeants dans la
presse professionnelle ou encore les perspectives de carrières offertes, devient une nécessité stratégique".
12.2 - Les valeurs de la Veille Sociale
Une autre forme de Veille, qualifiée de troisième type a aussi été décrite par Jacques Antoine,
dans son livre Valeurs de société et stratégies des entreprises. Dans cette présentation l'auteur
indique que selon lui quatre valeurs vont dominer les prochaines décennies: l'individu, la famille,
le travail et la nature. Prendre en compte ces valeurs revient à reconnaître la complexité des
choses. (Une veille du 3ième type, sociale, culturelle et politique, doit s'ajouter aux veilles
économiques et technologiques, J. Antoine, Management France, Septembre 1996 voir aussi
du même auteur le livre "Valeurs de société et stratégies des entreprises").
"Dorénavant, toute réflexion sur le futur sera nécessairement globale et devra pendre en compte
les interactions entre les facteurs démographiques, technologiques, économiques, sociaux,
culturels et politiques qui les affectent."
13 - Gestion et diffusion des informations
Nous allons dans ce paragraphe aborder différents systèmes de gestion et d'analyse de
l'information. La gestion, est prise ici au sens informatique. En effet, la multiplicité des sources,
des contacts, des informations formelles ou informelles nous conduit à la nécessité de mettre en
place un système de gestion cohérent. Il ne s'agit pas ici d'un système d'archivage passif, mais
d'un système actif permettant de réaliser les recherches documentaires classiques, mais aussi de
gérer les images, les sons, les données de vos applications présentes sur votre disque dur (ou
d'autres machines si le système est en réseau) (Word-6, Excel ...). Sur le plan de l'analyse, on
peut avoir affaire, selon les volumes et la structure des informations à des systèmes
automatiques et manuels. Nous privilégierons, quelque soit le cas, une approche matricielle de
type Zwicky (La bibliométrie et ses techniques, H. Rostaing, co-édition Sciences de la SociétéCRRM, Marseille, 1996) qui nous paraît la plus adaptée à la recherche et à la création d'hyperinformations. Nous allons essayer de voir assez brièvement la gestion, en insistant non pas sur
les systèmes de bases de données classiques, (en réseau, en relationnel....) mais en insistant sur
un certain nombre de techniques et d'outils modernes qui présentent des alternatives crédibles,
testées et validées.
En ce qui concerne l'analyse, nous décrirons certains outils, en focalisant notre vision sur les plus
récents et les plus performants afin de donner une vision globale du problème, facilitant
l'adaptation du lecteur à ces méthodes. Quand nous parlons d'analyse, cela sous-entendra
l'analyse d'informations structurées. Le cas de l'information en texte libre sera abordé de façon
différente, car il suppose des traitements préalables.
Enfin, nous dirons quelques mots de l'analyse linguistique qui reste hors du champ de cet
ouvrage. Nous montrerons simplement par quelques exemples des approches complémentaires
conduisant à une recherche et à une sélection documentaire de textes libres, mais pas à une
analyse.
13.1 - La gestion des informations
Les systèmes les plus complexes, tels que les bases de données relationnelles sous Oracle, ne
seront pas traitées ici. Nous voulons simplement donner aux lecteurs quelques principes de base
simples. L'application technique à grande échelle pouvant être réalisée facilement par des
sociétés spécialisées. Mais, la réflexion préalable liée à la généralisation de ces méthodes, à leur
potentiel et à leur influence sur la structure de l'entreprise ne sera pas faite par une société de
service informatique. Le problème étant vital, c'est internement, avec sans doute quelques
conseils, qu'il faut l'aborder.
13.1.1 - La saisie des informations
Il faudra, et ceci est une règle fondamentale, éviter de ressaisir les informations, quelle que soit
leur provenance, c'est à dire qu'elles proviennent de l'entreprise elle même, ou de sources
extérieures. En effet, cette opération est coûteuse, et introduit une perte de temps ainsi que des
possibilités d'erreurs. Il faudra donc, dans tout système d'information, prévoir à la fois une
unicité des formats de données (lorsque cela est possible), ou pour le moins des passerelles
simples permettant de transférer des données d'un système dans un autre. Ces opérations de
transcodage passent généralement par des formats pivots à partir desquels ont peut aller vers
diverses applications.
Une qualité primordiale de tout système d'information sera de permettre facilement le passage
d'un logiciel à un autre, sans avoir à réaliser une manipulation ou une transformation du format
des données.
Donnons un exemple: si on interroge un serveur de base de données, il sera possible de stocker
ces données sur son disque dur (opération de télédéchargement). Cette opération devra conduire
à un fichier tel qu'à partir de celui-ci les données pourrons automatiquement être intégrées dans
un logiciel de gestion documentaire. De même, ce logiciel devra, si cela est nécessaire, restituer
les données avec un format pivot permettant le passage des mêmes données sur une autre
application.
Pour les images, les dessins, il existe aussi des formats particuliers. Généralement, les formats les
plus utilisés sont des formats du type .GIF, qui permettent la manipulation des images et des
dessins sous un format relativement compressé (par rapport au format .BMP (bitmap)). Ceci
sera important dans le choix des logiciels documentaires.
Pour les sons, le format généralement le plus utilisé est le format .WAV.
Lorsque le texte en notre possession a été imprimé et qu'il n'y a pas de saisie informatique
disponible, il faudra utiliser de l'OCR (Optical Character Recognition). Cette opération consiste
à scannériser le texte sous forme d'image. Ensuite un logiciel de reconnaissance de caractères,
permettra, à partir de l'image d'un caractère de retranscrire celle-ci en un code ASCII
représentant le même caractère, mais dans un format gérable par l'ordinateur, comme si ce
caractère avait été saisi au clavier. Le problème de l'OCR est que dans certains cas toutes les
lettres ne sont pas parfaitement reconnues par le système. Ainsi, soit le texte devra être corrigé,
soit il faudra indexer le texte avec des erreurs, mais alors le processus de recherche sera différent
des systèmes classiques. La recherche s'effectuera par un processus de reconnaissance neuronale
(voir par exemple le logiciel Excalibur), qui permettra de retrouver avec une bonne probabilité
les mots même lorsque des erreurs de reconnaissance de caractères auraient été commises. Une
fois le texte identifié, le système de gestion documentaire présentera à l'utilisateur l'image (ce qui
permettra de garder la mise en page et les photographies). Ces systèmes de gestion, fait pour de
grandes masses de données n'autorisent que peu ou pas les traitements statistiques, du fait de la
non corrections des erreurs.
Beaucoup de transfert d'information, de messageries utilisent Lotus Notes ou des extranets ou
intranets. Les mêmes principes devront s'appliquer: unicité des formats, pas de ressaisie,
disponibilité des informations suivant des niveaux à déterminer (hiérarchie de diffusion, mots de
passe, et enfin protection (physique au plan des réseaux), logique par cryptage des données.
13.1.2 - La présentation des résultats
De plus en plus, même sur une machine isolée, la tendance générale est de créer des interfaces
de présentation globales, des outils de gestion. On pourra, par exemple pour un système
d'information donné, regrouper sur le même écran les catégories d'informations nécessaires,
(généralement sous forme d'icônes), puis, un clic sur ces icônes permettra d'accéder directement
aux informations nécessaires à l'utilisateur: accès à un fichier Word, ouverture de la bonne base
de données, édition de listes, accès à un graphe dans un tableur, ouverture d'une application
spécifique (vision d'images ....), écoute d'un son, accès à une messagerie, etc...
Ces accès pourront être ouverts ou restreints. Les données pouvant être fixes ou modifiables.
Ces interfaces d'accès étant accessibles soit en réseau, soit sur des machines isolées.
On évolue donc vers des présentations de plus en plus globales, mettant à la disposition de
l'utilisateur des ressources multiples, présentes sur sa machine ou sur des machines différentes
(cas de réseaux d'ordinateurs).
Vers une interface
globale
Globalisation de l'accès à divers types d'information au travers d'une interface unique
La figure ci-dessus montre un interface globale de présentation d'une activité sur un ordinateur
isolé. A partir du programme Activity Map (Time/system, 40 rue Jean Bleuzen, 92170 Vanves)
l'utilisateur conçoit une interface qui permet une présentation globale de l'ensemble des données
relatives à une partie de la production scientifique à Marseille. Ceci est issu des travaux réalisés
pour le développement de l'Observatoire de la Production Scientifique en Région Provence
Alpes Côte d'Azur. On remarquera l'accès global (SCI), les accés spécialisés (Physique, Chimie),
et dans ces disciplines diverses approches: environnement d'un auteur, principaux thèmes, etc..
Le tout étant accompagné de notes, etc... le processus est le suivant: en cliquant sur la partie
concernée, on ouvre le logiciel de gestion des données, ou de visualisation des images ... et une
commande (déjà présente à partir d'Activity Map et pour le thème concerné) est exécutée.
Ensuite, on ferme l'application et on retourne à l'interface de départ.
On retrouvera, dans le cas d'un système de type extranet ou intranet, des stratégies identiques,
avec des variantes. Par exemple à partir de l'internet, et en ligne, ouverture du "reader Acrobat"
situé sur votre machine et visualisation directe d'un fichier .PDF (portable document format)
distant. Dans les exemples qui seront fournis dans les études de cas, nous donnerons un exemple
d'utilisation du système Acrobat d'Adobe.
13.2 - La diffusion des informations
Les changements technologiques ainsi que la création de réseaux locaux, nationaux,
internationaux, ont conduit à se pencher d'une façon plus précise sur les processus de diffusion
de l'information.
Nous ne parlerons pas ici des journaux internes, notes ou rapports, mais nous focaliserons la
présentation sur des processus plus modernes, principalement liés à l'informatique et sur la
constitution des dossiers de Veille Technologique et des notes d'Information Stratégiques.
13.2.1 - Principes de base, l'unicité de saisie, le choix de supports multiples.
Nous avons déjà vu que l'unicité de la saisie était un principe de base, quasi intangible. Nous
allons voir que ceci peut être complété par la stratégie du format unique permettant la création
de supports multiples de diffusion.
La figure suivante illustre ce principe. A partir d'une saisie au clavier, d'un traitement par OCR
ou d'un télédéchargement en ASCII, on pourra évoluer vers des formats d'archivage, de gestion
en .PDF avec ACROBAT, d'intégration dans un gestionnaire de documents, puis de création de
pages HTML (pour l'internet) et en même temps la création d'un intranet et de CD-ROM.
Une seule saisie, des supports multiples
Saisie ou télédéchargement
CD-ROM
intégration dans une
base de données
locale
réseaux
Archivage
Passage automatique
à la norme HTML
Transformation
en fichiers .PDF
intégration dans
un Traitement
de texte
Internet, intranet, CD-ROM
Mailings, etc...
Internet
Intranet
CRRM
Le critère de base: une seule saisie conduisant à des produits d'information différents
13.2.2 - Pour qui, comment, avec quels moyens
Diffuser des produits, pose le problème de l'analyse des cibles et des pratiques de consultation.
Bien que les réseaux informatiques se généralisent, ils ne sont pas nécessairement utilisés, dans
une entreprise, comme vecteurs de produits d'information. Il pourront être utilisés comme
support de la messagerie, comme vecteurs de fichiers (joints ou non à un message), mais cela ne
veut pas dire qu'ils seront le vecteurs essentiel de toutes les informations.
Ceci veut dire que le papier subsistera encore. Il est donc bon de se familiariser avec le fait qu'un
rapport, qu'un produit issu d'un service de Veille, de Surveillance, devra respecter un certain
nombre de grands principes:
* Au plus on est à un niveau élevé de la hiérarchie, au moins on a le temps de lire.
* Lorsqu'on dialogue avec des opérationnels, il faut avoir les documents de base nécessaires à la
vérification complète de ce qui est avancé.
Ce sont ces deux principes qui doivent toujours rester présents à l'esprit, lorsqu'une note, même
brève est rédigée. Ceci est valable, à la fois au plan de la diffusion informatique ou de la
diffusion papier.
Un rapport comprendra plusieurs parties:
La note d'alerte: une page, voire une demie page,
Le quatre pages qui donne plus de détails, mais pas trop,
Un corps de rapport de dix à vingt pages,
Les annexes: textes de publications, analyses des sources, graphes, etc... en bref
tout ce qui permet de vérifier ce qui est dit dans les parties précédentes.
Pourquoi adopter ce format ? Simplement parce que quand un décideur haut placé voit arriver la
note synthétique, il va simplement la lire, et être attiré ou non selon l'importance de ce qui est
exposé par rapport à la stratégie générale. Si c'est positif, le dossier va aller vers une seconde
personne qui devra l'analyser plus en détail, pour avoir une idée plus précise (le quatre pages
pour une grande société, le corps de 10 pages pour une plus petite). Enfin, si après ce second
(ou troisième crible) l'avis est toujours positif, on finira par un avis plus détaillé, prenant en
compte les divers aspects informatifs ayant permis la rédaction de la note. A ce niveau ce sont de
véritables experts qui réaliseront l'analyse finale. Si on estime alors le système toujours positif,
on ira vers la décision: que doit on faire? On sera alors placé devant plusieurs choix décisionnels.
Souvent, pour parfaire la décision et avoir une idée de ses conséquences, la méthode des
scénarios sera utilisée avant la décision finale et l'action.
13.3 - La feuille d'impact stratégique
Ce cheminement, qui est propre à l'intelligence, a été schématisé par la Société Conseil Kirk
Tyson, à la Conférence portant sur la "Competitive Technical Intelligence", une manière
d'exprimer en américain le concept de Veille Technologique Active, qui s'est tenue aux USA en
1997 (SCIP, Competitive Technical Intelligence Symposium, 20-21 Février 1997, Boston).
Technology Watch and Competitive Intelligence
Intelligence Hierarchy
Special Intelligence
Briefings
Monthly Intelligence
Biefings
Situation Analysis
Strategic Impact Worksheets
Company Profiles
Monthly News Bulletins
Databases Public or Home Made
F.C.S. - Data Gathering
From Kirk Tyson 1997
C.R.R.M.
Les produits d'information dans le travail de Veille et d'Intelligence Economique: la feuille
d'impact stratégique
On constate que ce qui est appelé "strategic impact work sheet" nait à la suite d'un processus
complexe de recueil et d'analyse d'informations (nous en avons décrit les principales étapes).
Ensuite, le ou les décideurs font ce que l'on nomme une analyse de situation, qui reprend les
étapes liées aux différentes parties du dossier jointes à la feuille d'impact stratégique. On passera
ensuite selon le niveau des préoccupations (menaces ou opportunités) aux réunions mensuelles
ou à des briefings spéciaux, et ensuite à la décision qui pourra être précédée par différentes
études de scénarios.
13.4 - Les produits "papier"
Ils devront avoir un format particulier afin qu'ils soient parfaitement reconnus par les décideurs.
L'importance du format, du titre, de la couleur, qui vont caractériser la provenance de la lettre
de la note ou du rapport devront être identiques dans le temps. Il faudra créer un "look"
particulier. En effet, le courrier est important. Même les notes qui transitent sur des circuits
spéciaux sont nombreuses. Il faut donc créer des éléments de différenciation. C'est pour cela
qu'une attention particulière devra être portée sur la forme aussi bien que sur le fond.
On pourra garder dans le service les parties détaillées du rapport pour consultations ultérieures
par des experts.
La Feuille d'Impact Stratégique (Feuille de Synthèse Action) selon François Jakobiak (Pratique
de la Veille Technologique, Editions d'Organisation, Paris, 1995), ne doit pas être produite
avec une périodicité constante. Elle est faite pour alerter, il ne faut pas que l'on s'habitue trop à
sa présence systématique, si non, l'intérêt diminuera.
Elle ne doit pas être diffusée à tout le monde, il faut avant de travailler établir qui doit connaître
les résultats d'un travail stratégique accompli sur l'information.
La figure suivante montre un contenu "presque fictif", d'une Feuille d'Impact Stratégique qui est
utilisé comme exemple dans le cours de Veille Technologique et d'Intelligence Compétitive du
DEA de l'Université Aix-Marseille III (CRRM), est des formations de mastères du CERAM et
de l'ESIM ainsi que du MBA d'IDS.
Hyperinformation - One page of synthsis and action
Visualization as we saw in the former slides is an help
for the analysts. But, the CEO wants generally a set
of informations already evalutaed by the experts.
Example:
The increase patent number of Company xxx, the
visit of M. yyy to the Arington House supplier of high
pressure ultra-waves furnaces and the paper produce
par M. zzz and M. yyy of the University of Burton at
the International Congress of Polymerization prompt
us to think that xxx is developping a new set of high
resistance polymers. This will give them a good market
position an rehinforce their competition in the field of
accoustic panels for express ways.
We still have no action in this area.
CRRM
Exemple de feuille d'impact stratégique
Cet exemple est écrit en anglais, pour bien souligner que dans une structure internationale, et
même si les réunions ont lieu en France, la langue utilisée est l'anglais. Simplement, parce que les
participants venant de différents pays il faudra un dénominateur commun. Cela sera encore plus
vrai dans le cas de la diffusion des informations sur un réseau, à cause de la facilité internationale
de transfert.
Nous allons détailler le contenu de cette feuille:
Les faits:
* analyse des brevets systématiques des concurrents, d'où détection d'une augmentation
du nombre des dépôts,
* la visite d'un concurrent chez un fournisseur de matériel stratégique, on a du
systématiquement interroger les fournisseurs et recouper les informations,
* le suivi des congrès internationaux spécifiques à l'orientation de recherche et de
développement. Analyse des participants et recoupement avec les noms de sociétés,
Les experts et leurs analyses:
* analyse des faits par les experts techniques: ils peuvent développer un nouveau
polymère à haute résistance,
* analyse par les spécialistes de la concurrence et du marketing: cela peut améliorer la
position de notre concurrent sur un marché sensible,
Commentaire:
nous ne faisons encore rien dans le domaine ?
C'est cet ensemble qui sera détaillé dans le quatre pages, puis dans un rapport plus conséquent,
et enfin dans les annexes. L'ensemble du raisonnement devra être retracé et validé. A partir de
cette information, et si elle constitue une menace, on analysera ce qui pourrait être fait, tant au
plan de la recherche, que des alliances, etc... Souvent, on utilisera la méthode des scénarios pour
avoir une idée possible de la résultante des décisions qui seront prises.
13.5 - Les produits informatiques
Ils seront du même type que les produits papiers, mais l'utilisation des réseaux informatiques
permettra une diffusion très ciblée, immédiate, et elle pourra conduire à un échange très rapide
de commentaires. Ces derniers pourront en outre être inclus dans les documents, ce qui facilitera
ensuite le travail d'innovation et de compréhension.
En outre, il pourront avoir une présentation globale plus synthétique, avec de nombreux renvois
en hypertexte, ce qui permettra de vérifier une hypothèse, de connaître les experts qui ont
travaillés sur cette analyse, le nom du ou des congrès, les autres participants.... On ouvre ainsi
tout un champ à la curiosité du lecteur, qui pourra, en fonction de ses préoccupations
(stratégiques, économiques, techniques), parcourir le document à partir d'une arborescence
hypertexte crée par les réalisateurs du document.
Ceci évitera d'une part la duplication des produits (ce qui est fréquent au niveau du papier) et
d'autres part les ennuis liés à leur diffusion et à la confidentialité pendant celle-ci. En même
temps, le classement, l'archivage et la gestion des documents seront facilité.
Cela est intéressant lorsque le raisonnement des experts, ou une analyse plus poussée conduit à
des rapprochements avec ce qui a pu être fait dans un passé récent. Les facilités de transmissions
permettront aussi une rapide consultation des experts, qui pourront si nécessaire accéder à
l'ensemble du dossier qui sera lui aussi informatisé.
Les systèmes de diffusion sont nombreux: depuis Lotus Note, jusqu'à de simples messageries,
des transferts de fichiers, des produits en CD-ROM, etc.. Attention cependant, la diffusion
informatique non cryptée d'informations à caractère stratégique peut être risquée. Le risque doit
être évalué. Notons qu'il existe de nombreux systèmes de cryptages et qu'il valent la peine d'être
utilisés. La sécurité ne sera pas absolue, mais l'accès direct aux informations sera ralenti.
En outre, et on verra ceci par la suite, le développement du commerce électronique et la
libéralisation du cryptage aux Etats-Unis conduira à une attitude identique dans la majorité des
pays du monde. Il faut donc s'y préparer et ne pas dire naïvement on ne cryptera pas puisque
cela est interdit ! Nous verrons, au niveau des études de cas, qu'il existe de nombreux logiciels
de cryptage, depuis de simples freewares, en passant par des sharewares puis par des produits
commerciaux plus sophistiqués.
14 - L'analyse des informations
Nous entendons par analyse des informations, une analyse automatique qui permettra à l'aide de
systèmes informatiques de visualiser rapidement les informations avec leurs liens et leurs
fréquences. L'analyse manuelle est plus longue, mais relève du même principe. Nous
dissocierons aussi ce type d'analyse globale, de l'analyse plus précise qui devra être réalisée de
toute façon manuellement (on devra toujours lire, mais on lira simplement ce qui semble le plus
important) lorsque le tri principal aura été réalisé et lorsque les corrélations les plus pertinentes
ou inattendues auront été mises en évidence. Ce champ de recherche et de travail devient, au fur
et à mesure de l'accroissement des quantités globales de données à analyser de plus en plus
important. (Data Mining, State of the art, Byte, pp.81-83, Octobre 1995 - The Data Golden
Rush, Byte, pp.83-90, Octobre 1995 - Data Mining Dynamite, Byte, pp.92-97, Octobre 1995)
14.1 - Principes généraux
Notre objectif n'est pas de rentrer dans le détail, on pourra consulter à ce sujet les textes de
publiés dans la Veille Technologique (Veille Technologique, H. Desvals, Henri Dou, Dunod,
1992), ainsi que le travail publié très récemment sur la bibliométrie et ses techniques par Hervé
Rostaing. (La Bibliométrie et ses Techniques, Hervé Rostaing, co-édition Sciences de la
Société-CRRM, Marseille, 1996).
Il faudra, pour que l'analyse soit la plus représentative possible, que le corpus à analyser soit le
plus représentatif possible du sujet. Un bon corpus donne une bonne analyse, un mauvais corpus
une mauvaise analyse. Attention cependant, quand nous disons bon corpus, cela ne veut pas dire
que le sujet soit restreint de façon à ne donner plus que quelques réponses! L'analyse globale,
faisant apparaître des corrélations inattendues, nécessite une vision large du sujet, y compris
avec du "bruit" au sens documentaire du terme.
De la même façon , il ne faudra pas que la même référence apparaisse plusieurs fois, si non les
relations statistiques seraient faussées. Enfin, il ne faut pas qu'il existe des erreurs
typographiques ou de saisie, l'ordinateur ne pouvant pas faire la différence, ni rectifier ces
erreurs systématiquement.
Une fois le corpus correctement traité, l'analyse automatique va consister à réaliser à partir de
celui-ci toutes les corrélations permises entre différents champs documentaires. C'est ainsi que
l'on pourra réaliser le réseau des thèmes abordés dans le corpus et leurs liens entre eux par
l'utilisation du champ des mots clés, le réseaux des auteurs impliqués par l'utilisateur du champ
auteur, le qui fait quoi par une corrélation entre auteurs et mots clés (ou inventeurs et codes CIB
dans les brevets,) etc... Le principe est de réaliser des matrices, puis de les transférer dans des
logiciels de représentations ou de comparaisons.
On arrive ainsi à des matrices de corrélations (très utilisées au plan des technologies, avec le
support de la méthodologie de Zwicki (Discovery, invention, research: through morphological
approach, Zwicky F, Toronto, MacMillan, 1969), à des graphes de liens avec leurs fréquences.
On établit ainsi des groupes d'auteurs, de thèmes .... . On peut aussi, en prenant un certain
nombre d'éléments de comparaisons (par exemple pour des brevets: codes CIB, code Derwent,
mots du titre traités par Derwent), regrouper des références par affinités (ici des références
brevets), en définissant les liens inter et intra groupes. Ce sera alors de la sériation par blocs,
etc... (Blocks seriation problem: an unified approach, Marchotorchino F., Applied stochastic
models and data analysis, vol.3, 1987).
14.2 - Quelques exemples
La référence suivante est issue d'un télédéchargement. Un ensemble de références sera analysé
par diverses méthodes en effectuant des corrélations à partir des champs PA (Patent Assignee)
et IC (International Classification).
LIST 27
06-01-91 09:31 MISSILE
-2TI - Control of guided missile during flight - using nongravitational reference system established by inertial mechanism
TT - CONTROL GUIDE MISSILE FLIGHT NON
GRAVITATION REFERENCE SYSTEM ESTABLISH
INERTIA MECHANISM
PA - (SFIM-) SFIM SOC FAB INSTR
PN - EP-420760-A 91.04.03 (9114)
Example of data
DC - T06 W07 Q79 R26
IC - F41G-007/36 F41G-009/02 G05D-001/10
AP - 90.09.28 90EP-402685
PR - 89.09.29 89FR-012765
Patent Reference from WPIL (Derwent). Correlation inter-fields
PA (Patent Assignee) and IC (International Classes) with the
software DATAVIEW.
CRRM
Exemple de références brevets utilisées pour les traitements suivants
14.2.1 - Exemple de corrélations matricielles
Matrice made by DATAVIEW
and imported within EXCEL
Treshold Frequency 2
Exemple de matrice réalisée à partir du logiciel DATAVIEW et exportée vers EXCEL
Même matrice représentée en trois dimensions pour permettre un accès plus visuel aux données
(certaines personnes préfèrent la représentation matricielle, d'autre la représentation 3D !).
Matrice, view
3D within
EXCEL
Exemple de représentation sous EXCEL de données matricielles après exportation de celles-ci à
partir du logiciel DATAVIEW
14.2.2 - Exemple de réseau
Network develop with MATRISME (CRRM - Le Pont)
Exemple de réseau créé avec le logiciel MATRISME et des données exportées à partir du
logiciel DATAVIEW
14.2.3 - Exemples de comparaisons de listes, et de bench-marking
automatique
Une liste de termes, contenues dans un champ bibliographique donné, peut être aisément
obtenue par des commandes spécifiques de serveurs en ligne, ou par l'utilisation de logiciels
spécifiques hors temps serveur, e.g. Dataview (Dataview est un logiciel qui a été développé au
CRRM par A. Latela, L. Quoniam, H. Rostaing, il est décrit dans http://crrm.univ-mrs.fr).
Nous aurons par exemple à traiter du sujet:
Lubrification à haute température, dans le domaine des brevets, avec une comparaison à réaliser
entre une dizaine de sociétés pétrolières.
Une fois que le vocabulaire spécifique de la recherche aura été établi (par exemple
high(W)lubricating(w)oil, on peut adjoindre des codes IC ou DC, etc...). On réalisera une
recherche globale sur le sujet, puis on limitera celle-ci par nom de sociétés (en utilisant le champ
PA). On aura pris soin de bien regrouper les noms de "patent assignees" appartenant au même
groupe industriel. On aura ainsi x groupes de brevets, chacun afférent au même thème, mais
pour des sociétés ou groupes de sociétés différentes.
On effectuera alors pour chacun d'entre eux, une commande GET (serveur ORBIT) sur le
champ des IC (classe internationale des brevets), ou sur le champs MC (manual code de
Derwent) selon la finesse du bench-marking à réaliser. Chacune des listes d'IC par exemple, sera
sauvegardée sur le disque dur, on pourra éventuellement ne prendre que les 4 premiers digits du
code.
Ceci fait, on passera alors hors temps serveur, et en utilisant un logiciel de comparaison
(Datalist, comparaison simultanées de 32 listes ayant un nombre de termes infinis) (le logiciel
DATALIST a été développé au CRRM par H. Dou et L. Quoniam, il est décrit dans
http://crrm.univ-mrs.fr), on aura une représentation matricielle des IC communs, des IC utilisés
par un seul patent assignee, etc... avec toute la gradation possible. Il sera donc aisé, à partir de
cette représentation de déterminer sur le sujet donné (lubrification à haute température), les
thémes de recherche communs (peu de différentiation), et les termes rares (plus de
différentiation) utilisés dans les recherches effectuées par ces sociétés.
Comparaisons entre différentes listes IC, MC, KW ...
Les listes peuvent être obtenues en ligne (MEM, GET, ZOOM
RANK) ou hors temps serveur DATAVIEW (@CRRM)
List1
****
%%
===
~~~
----
List2
%%
===
+++
~~~
&&
----
List 3
****
List4
%%
===
+++
+++
###
1 2
1
1 1
1 1
1
1
----
----
1
3 4
1
1
1
1 1
1
1
1
1 1
1
La comparaison peut s'effectuer sur 32 listes de longueur
illimitée.
CRRM
Exemple de comparaison simultanée de listes réalisées à partir du logiciel DATALIST
Le même système de comparaisons a été utilisé dans le cadre de la détermination de
compétences d'auteurs dans des thèmes donnés, etc.... cette méthode est extrêmement puissante,
puisqu'elle conduit à représenter les avantages, les parties communes, les éléments de
différentiation dans la même matrice. C'est un puissant outil facilitant une vue d'ensemble et
permettant une réflexion rapide des experts sur les stratégies mises en jeu. En effet, dans le cas
des experts par exemple, on regarde les compétences nécessaires pour réaliser le sujet x, puis,
ceux qui les possèdent non pas dans une même publication, mais dans un intervalle de temps
donné.
Une autre exemple réel (extrait d'une étude réalisée entre le CRRM et l'Université de la
Méditerranée (Aix-Marseille II, service recherche, M. Poupinet) est le suivant:
Nous suivons, dans un laps de temps donné (généralement de l'ordre de deux ans), les
orientations des principaux travaux publiés dans les Villes du Sud de l'Europe. Pour cela, nous
utilisons la base de données du Science Citation Index sur le serveur DIALOG, car elle possède
un champ de classement des expertises globales auxquelles la publication se réfère. On
détermine la production pour chaque ville, puis on réalise sur tous ces ensembles un RANK
CONT (qui signifie que l'on trie par ordre décroissant les thèmes placés dans le champ
documentaire analysé). On stocke ces diverses données. Ensuite l'utilisation du logiciel
DATALIST, permet de réaliser toutes les comparaisons d'un seul coup, puis de transférer les
données dans EXCEL.
Un extrait significatif de l'ensemble du tableau est le suivant:
Barcelone
BIOCHEMISTRY & MOLECULAR BIOLOGY
NEUROSCIENCES
IMMUNOLOGY
PHYSICS
ONCOLOGY
MEDICINE, GENERAL & INTERNAL
586
363
294
238
246
767
Bordeaux
291
313
99
118
166
127
Grenoble
760
139
135
763
206
136
Lyon
645
387
319
303
497
247
Marseille
585
402
265
236
226
216
Milan
806
614
544
331
979
284
HEMATOLOGY
CHEMISTRY, PHYSICAL
CHEMISTRY, ORGANIC
PHARMACOLOGY & PHARMACY
GENETICS & HEREDITY
MICROBIOLOGY
CELL BIOLOGY
MULTIDISCIPLINARY SCIENCES
SURGERY
ASTRONOMY & ASTROPHYSICS
CLINICAL NEUROLOGY
MATERIALS SCIENCE
362
257
291
391
307
185
195
70
292
86
223
198
172
199
100
129
94
76
92
82
65
46
87
170
209
417
136
108
283
76
194
148
138
171
78
835
297
460
190
227
217
184
203
149
228
112
142
344
208
191
183
176
176
171
166
165
161
161
150
145
714
264
280
563
282
132
319
92
316
162
376
193
Répartition (partielle) des thèmes scientifiques des travaux de recherche dans les villes du Sud
de l'Europe
Ce tableau comporte d'autres villes (Turin, Nice, Toulouse, Montpellier). On tient compte, pour
déterminer l'ensemble des données publiées dans une ville, des différentes implantations
universitaires (e.g. Bordeaux-Talence, Aix-Marseille, Nice-Sophia Antipolis-Valbonne.....).
Dans le cas présent les données sont prises entre 1995 et Octobre 1997.
On voit aisément comment un tel tableau (il y a plus de 190 entrées) peut être utilisé. En effet, il
est le reflet de la capacité en sciences fondamentales "dures" des différents laboratoires des villes
considérées. Selon la fréquence, il met en évidence des potentiels plus ou moins grands. Le
propos ne sera pas de vérifier si les laboratoires produisent bien ou mal, mais quels sont les
thèmes principaux de la production, donc en principe de l'expertise. Ces thèmes sont ils en phase
avec ceux que l'on veut développer au plan régional, y-a-t-il distorsion entre ce qui est affiché et
les moyens réels pour le réaliser ? Les forces d'expertises sont elles concentrées dans des thèmes
générateurs d'entreprises et d'emplois ? Quels seront ces emplois: de services, réellement
industriels ? Au cours des années, voit se dessiner pour certaines villes une volonté de
planification ?
On conçoit comment une telle approche peut à la fois donner de bonnes indications,
généralement globales et inconnues de la majeure partie des experts, mais comme elle peut aussi
soulever bien des inquiétudes chez certains.
14.2.4 - Exemple d'une sériation par blocs
L'exemple qui va suivre est extrait de la thèse de Patrick Baldit (Thèse Sciences de
l'Information, Université Aix-Marseille III, Centre de saint Jérôme, CRRM, 1995). Un
ensemble de brevets a été traité par un logiciel spécifique développé par Patrick Baldit. A partir
de la classification internationale des brevets, des codes Derwent, et des Manual Codes de
Derwent, l'ensemble des brevets a été sérié. On a tout d'abord écarté les éléments non
significatifs, puis on a réalisé la sériation qui est représentée ici sous Excel.
Comme la lecture de celle-ci n'est pas possible via cette visualisation, on créé en même temps un
hypertexte (format .HLP de Windows), qui permettra d'accéder facilement aux différentes
classes de brevets, aux références qui les composent, puis de passer d'une classe à l'autre par les
liens inter-classes. La navigation dans la classe étant réalisée par les liens intra-classe. Voir aussi
à ce propos: Blocks seriation problem: an unified approach, Marccotorchino F., Applied
Stochastic models and data analysis, vol.3, 1987.
IC, DC, MC
classes
Représentation par blocks
effectué visualisées sous Excel.
numéros
des brevets
Liens inter
classes
Données écartées car
non significatives
Résultat de la représentation de la sériation sous le logiciel EXCEL
La figure suivante montre l'hypertexte qui a été créé pour consulter la sériation précédente:
Liens vers les références de la classe
Liens intra-classes
Liens inter-classes
Ensemble d'une des références
télédéchargées (serveur Questel-Orbit)
Hypertexte (sériation précédente)
Exemple de sériation présentée sous forme d'hypertexte
14.3 - L'Infographie et les représentations
Les représentations que nous venons de voir entrent dans le domaine de ce que l'on appelle
l'infographie. Ces représentations sont simplement une manière synthétique de représenter
d'une façon compacte des données, afin de les "ranger" pour leur donner du sens. Bien des
représentations font appel à de la statistique, à des traitements mathématiques, etc...
Il existe de nombreux outils de représentation: TEWATCH (IBM), TEXTMINING (IBM),
SAMPLER (CISI), TETRALOGIE (IRIT), LEXIMAPPE (CNRS-CERESI), MATRISME (a été
développé conjointement par les laboratoires Le Pont Université de Toulon et du Var
(E.Boutin) et le CRRM Université Aix-Marseille III (H. Rostaing)), AUTOCODER (Smart
Software), Neurotext (Grimmer Logiciel), DATAVIEW (CRRM), ... ces logiciels intègrent à la
fois un mode de représentation plus le traitement automatique des données formatées. Il ne faut
pas confondre, avec les logiciels de représentation purs, ou d'autres logiciels statistiques
(Statistica, Statgraphics, ....) où il faut transmettre à ces derniers les données traitées (par une
fonction export, comme cela est la cas dans Dataview), ou alors développer un programme
d'introduction automatique des données dans le logiciel, voire de les saisir une à une à la main.
Cette connaissance de base, a amené certains auteurs à se spécialiser dans ce domaine, et une
dérive est perceptible: on perd de vue la finalité des traitements pour se focaliser uniquement sur
les techniques d'analyse, les représentations, les réseaux, etc.
14.3.1 - Exemples de représentations
On peut représenter simplement le système de la manière suivante:
Supposons qu'un professeur de gymnastique ait deux classes de Seconde de 30 élèves. Ces
élèves sont classés par ordre alphabétique, comme cela est toujours le cas. Il fait faire à ces
derniers une course de 100 mètres chronométrée. Il note devant chaque élève le temps mis pour
parcourir les 100 mètres. Il a donc un ensemble de données, sur un cahier, suivant la liste de ces
élèves. Mais, il peut faire beaucoup mieux.
A partir des données précédentes, il peut créer une autre représentation: sur une échelle linéaire
des temps, il placera le nom de chaque élève en fonction du temps mis pour parcourir cette
distance. Il peut même le faire avec un tableur du type Excel.
Le graphe suivant est obtenu:
Jerome
Ulrich
Jean
Francine
Alain
Pierre
Série1
Amédé
Jeanne
Carine
Georges
Noémie
Fernande
0
2
4
6
8
10
12
14
16
18
20
Exemple de transformation de données en graphe
On constate alors que l'on peut représenter l'ensemble des élèves en deux classes principales
chacune pouvant se diviser en deux sous-classes. On pourrait aussi fixer les groupes avec les
élèves entre 13 et 14, puis entre 14 et 15, etc...
A partir de ce graphe on voit très bien qu'il va pouvoir, pour les mêmes données, avoir une
vision différente: sa classe sera divisée en un certain nombre de groupes, il pourra ainsi organiser
plus facilement un entraînement ou un perfectionnement. L'évolution dans le temps de cet
ensemble lui permettra de juger des progrès accomplis.
Mais il peut aller plus loin, d'autres paramètres peuvent intervenir dans la représentation: l'âge, le
sexe, ... ceci conduira alors non pas à une représentation linéaire, mais à des classes, des graphes
tridimensionnels, etc.
Mais il ne faudra jamais oublier, que l'infographie est un outil qui permet de faire gagner du
temps aux analystes, c'est à dire aux experts. C'est un outil puissant, puisqu'il a une valeur
synthétique forte. Sa qualité réside à la fois dans l'utilisation des couleurs, des graphes ... mais
aussi et c'est sans doute le plus important dans le choix d'une méthode (de calcul, de
représentation) qui ne distorde pas les résultats. En amont même, c'est le type de données
utilisées qui est important. Par exemple, dans une grande société une démonstration brillante est
faite sur l'analyse de brevets, sauf que, pour analyser les brevets et sérier les données, on se base
sur les mots contenu dans le titre des brevets ! Tous les spécialistes en propriété industrielle
vous dirons que le titre n'est que très peu représentatif du contenu, même si un indexeur
(DERWENT), ajoute quelques mots supplémentaires plus significatifs. Ainsi, à grands effets,
petits résultats, et si l'on persiste perte de sens dans l'analyse et désinformation interne. (C'est la
pire car générée en interne en toute bonne fois, elle peut être considérée comme parfaitement
fiable !)
Dans les représentations les plus sophistiquées (Dataview et Matrisme, Tewatch, Leximappe,
Tétralogie), On associe celles-ci avec des hypertextes qui en cliquant sur un point singulier de la
représentation, conduisent à accéder directement aux contenus des références qui sont afférentes
à ce point précis. Ainsi par exemple une analyse d'un graphe des technologies présentes dans une
question précise, conduira à accéder aux références et à leur résumé, pour chacun des points du
graphe, sans avoir à consulter diverses bases de données ou listings. Ceci conduit à un gain de
temps absolument significatif pour les experts.
14.3.2 - Représentations de diverses productions scientifiques
Dans les deux figures suivantes, on montre deux représentations synthétiques, utilisées par
l'auteur. Elles synthétisent sur un même graphe, la production scientifique de plusieurs villes
dans un même domaine, celui de la chimie, et pour une année donnée. Ceci est indiqué dans la
figure suivante qui représente sur un simple graphe la production totale des Villes du Sud de
l'Europe (réalisation à partir des données de la base Chemical Abstracts, serveur Questel-Orbit):
Chemistry south Europe
La répartition des publications en chimie (Chemical Abstracts) dans le Sud de l'Europe
Nous avons sur cette figure une représentation globale de la production scientifique de
différentes villes du Sud de l'Europe. Il s'agit ici d'une représentation infographique très simple,
mais qui positionne bien les volumes de travaux publiés. Cependant, les contenus ne sont pas
déterminés. Pour ce faire on va utiliser une représentation plus précise. Les domaines de
publications (il y en a quatre vingt, sont décrits par les sections des Chemical Abstracts), ces
données sont accessibles via le même serveur. On va donc utiliser une autre représentation
donnant accès à la production scientifique elle même. Les 80 sections des Chemical Abstracts
seront toujours représentées sur un damier de 80 cases, leur position étant toujours identiques
pour faciliter le repérage rapide à la lecture. Le nombre des publications étant toujours
proportionnel à la hauteur du cylindre représentant la production dans le domaine.
Représentation des travaux publiés à Marseille en 1996 (extrait statistique de la base de données
des Chemical Abstracts)
Représentation des travaux publiés à Orsay en 1996 (extrait statistique de la base de données
Chemical Abstracts)
On constate ainsi le pouvoir de synthèse de ces deux représentations infographiques, qui
montrent à l'évidence la différence de politique de développement entre les deux villes prises
comme exemple.
On peut ainsi synthétiser la représentation et la comparaison de plusieurs centaines de références
sur un même graphe, si cela est nécessaire. Le logiciel automatique de représentations utilisé est
Datacode (CRRM, Mapping the Scientific Network of Patent and Non-Patent Documents
from Chemical Abstracts for a fast Scientometric Analysis, World Patent Information, n°2, Juin
1988)).
Listes et numéros des sections utilisées dans les Chemical Abstracts
1 pharmacology
3 biochemical genetics
5 agrochemical bioregulators
7 enzymes
9 biochemical methods
11 plant biochemistry
13 mammalian biochemistry
15 imnunochemistry
17 food and feed chemistry
19 fertilizers; solids; and plant nutrition
21 general organic chemistry
23 aliphatic compounds
25 benzene; its derivates; and condensed
benzoid compounds
27 heterocyclic compounds( one hetero atom)
29 organometallic and organometalloidal
compounds
31 alkaloids
33 carbohydrates
35 chemistry of synthetic high polymers
37 plastics manufacture and processing
39 synthetic elastomers and natural rubber
41 dyes; organic pigments; fluorescent
brighteners; and photo. sensitizers
43 cellulose; lignin; paper; and other wood
products
45 industrials organic chemicals; leathers; fats;
and waxes
47 apparatus and plant equipment
49 industrial inorganic chemicals
51 fossil fuels; derivatives; and related
products
53 mineralogical and geological chemistry
55 ferrous metals and alloys
57 ceramics
59
61
63
65
67
air pollution and industrial hygiene
water
pharmaceuticals
general physical chemistry
catalysis; reaction kinetics; and inorganic
reaction mechanisms
69 thermodynamics; thermochemistry; and
thermal properties
2 mammalian hormones
4 toxycology
6 general biochemistry
8 radiation biochemistry
10 microbial biochemistry
12 nonmammalian biochemistry
14 mammalian pathological biochemistry
16 fermentation and bioindustrial chemistry
18 animal nutrition
20 history; education; and documentation
22 physical organic chemistry
24 alicyclic compounds
26 biomolecules and their synthetic analogs
28 heterocyclic compounds( more than one
hetero atom)
30 terpenes and terpenoids
32 steroids
34 amino acids; peptides; and proteins
36 physical properties of synthetic high
polymers
38 plastics fabrication and uses
40 textiles
42 coating; inks and related products
44 industrial carbohydrates
46 surface-active agents and detergents
48 unit operations and proceses
50 propellants and explosives
52 electrochemical; radiational; and thermal
energy technology
54 extractive metallurgy
56 nonferrous metals and alloys
58 cement; concrete; and related building
materials
60 waste treatment and disposal
62 essential oils and cosmetics
64 pharmaceutical analysis
66 surface chemistry and colloids
68 phase equilibriums; chemical equilibriums;
and solutions
70 nuclear phenomena
71 nuclear technology
73 optical; electron; and mass spectroscopy
and other related properties
75 crystallography and liquid crystals
77 magnetic phenomena
79 inorganic analytical chemistry
72 electrochemistry
74 radiation chem.; photochem.; and photo
. and other reprographic processes
76 electric phenomena
78 inorganic chemicals and reactions
80 organic analytical chemistry
Le problèmes du vocabulaire et de la classification est toujours très important. Dans tous les cas,
si vous n'avez pas de classification ou de vocabulaire déjà utilisé, il vaut mieux repérer la base de
données qui couvre le mieux votre domaine, et prendre comme vocabulaire de référence, ou
comme codes, ceux qui sont utilisés dans cette base. Ceci permettra de réaliser des
comparaisons et intégrera vos travaux ou vos indexations dans un ensemble cohérent.
14.3.3 - Représentations des domaines structurants
Enfin, on peut aller plus loin, pour avoir une vision macroscopique des interrelations entre
différents domaines de recherche (utilisation des 80 sections), ou aller si cela est nécessaire vers
une vision microscopique des mêmes relations en utilisant des mots spécifiques par exemple le
champ ST Supplementary Terms, des Chemical Abstracts, aussi accessible sur la même base. On
pourra tracer un réseau de ces relations. Ce réseau sous-tendra la réflexion des experts ou des
décideurs. Dans ce cas, les travaux centrés sur un seul thème (une seule section) n'apparaîtront
plus bien évidement.
Graphe des thèmes réalisé à partir des sections principales te secondaires des Chemical
Abstracts, Marseille (en partie) 1996.
On notera la présence des pôles structurants 10 (microbial biochemistry), 14 (mammalian
pathological biochemistry), 15 (imnunochemistry), 51 (fossil fuels; derivatives; and related
products), 75 (crystallography and liquid crystals). Le graphe ci-dessus ne veut pas dire que le
continuum des thèmes est assuré à partir de personnes qui ont des liens entre elles, en effet, c'est
un continuum virtuel. Pour avoir un continuum réel entre individus, qui se connaissent
réellement, il faut réaliser le même graphe sur le champ des auteurs. On pourra consulter à ce
sujet le travail suivant: Virtual research universes and research management, Dou H., Dou J.M., jr, Technology Analysis and Strategic Management, Janvier 1995.
Dans la réalité de la présentation des graphes, on opère sur un ordinateur, et les experts peuvent,
en cliquant avec la souris sur un des pôles du graphe, accéder au texte des références qui ont été
analysées. Ceci permet une très bonne assistance au raisonnement et à l'interprétation.
Nous reviendrons dans les chapitres suivants sur l'infographie. Mais notons tout de même qu'elle
n'est pas limitée à des représentations en réseaux ou sous forme de graphes. En effet, les
données selon leur contenu, peuvent liées à des représentations extrêmement variées, telles que
par exemple les réprésentations géographiques. C'est ainsi que ArcView GIS
(http://www.esri.com), l'un des logiciel leader dans le Desktop Mapping, indique dans sa
présentation:
"Do you have business data that have an address or can tied to a census block, city, region or country ? If
your answer is yes, ArcView GIS software can help you to analyze your business data in new ways. ......
And optional extensions for Internet mapping, demographic analysis, and other applications further
extend ..."
On voit donc bien, que les représentations vont s'appliquer aux domaines les plus divers,
l'objectif étant de faire gagner du temps au niveau de la visualisation, de la perception et du
développement de nouvelles corrélations, et de nouvelles idées.
15 - Prévision
Une question que l'on pose souvent est celle de la prévision. Est-il possible, à partir d'un système
de Veille, d'Intelligence Economique, de prévoir ce qui va arriver ? C'est une question difficile. Il
est évident que la notion d'anticipation est liée à la prévision, mais pas nécessairement comme
ceux qui nous posent la questions peuvent le penser.
En effet, il est hors de question de prévoir, au sens d'un tirage aléatoire. Par contre
l'accumulation des données, leur traitement pourra permettre une meilleure probabilité dans les
choix, en tenant compte des paramètres du jour (c'est ce que font les joueurs du tiercé, ainsi que
certains parieurs sur le Football en Italie. Des bases de données traitant de ces problèmes sont
mêmes accessibles sur Minitel ou sur d'autres serveurs.)
Je pense, que l'Intelligence, les Veilles, conduisent avant tout à une meilleure compréhension des
faits. Elles ne permettent pas directement de prévoir, mais à partir des faits recueillis, elles
permettent une action, souvent la meilleure possible, compte tenu de son potentiel.
Le joueur, au tiercé, n'est que parieur, il n'est pas acteur. Il peut gagner sur la probabilité du
meilleur choix compte tenu du temps de la date, du terrain, etc. Mais, il ne peut pas agir sur la
conduite du cheval ni sur sa préparation.
C'est là que va se situer la différence principale entre la prévision, et l'action. Un certains nombre
de faits vont peut être nous permettre de "voir" les prochains mouvements de nos concurrents.
Mais, les stratégies ne sont pas indépendantes les unes des autres. L'Intelligence, les Veilles, au
delà de la simple prévision, associe à celle-ci le renseignement d'une part, et d'autre part le
mouvement interne et l'action qui vont permettre de contrecarrer les mouvements de nos
concurrents. En ce sens, on ne prévoit plus, on est dans le domaine de la stratégie, et les
informations, les recherches, les analyses, la compréhension des faits sont au service de notre
propre stratégie qui devra intégrer les éléments du possible et tenir compte de nos propres
forces.
16 - Quelle structure pour le service d'hyperinformation
Doit parler de structure pour un tel service ?
A notre avis pas nécessairement, encore qu'un certains nombre de moyens et de fonctions
devront leurs être rattachés. Il est important à une époque où l'hypercompétitivité est devenue
une règle, où le temps à tendance à se raccourcir, que le service ou l'entité génératrice des
hyperinformations soit au service de cette dynamique et de ses objectifs. Elle n'est pas là pour
réaliser des dossiers documentaires, ni des revues de presse ou de la gestion de normes. Elle est
là pour fournir aux échelons de décision de l'entreprise, que ces derniers soient organisés sous
forme matricielle ou en réseaux, des éléments d'information validés, analysés, structurés
s'intégrant dans les processus de décision.
Les personnes qui travailleront à plein temps ou à temps partiel dans cette structure, les experts
qui seront utilisés, les personnes qui à l'extérieur de l'entreprise rechercheront puis transmettront
des informations informelles et qui seront "aux aguets" devront s'intégrer et participer
pleinement aux nouveaux principes d'organisation stratégiques des entreprises Dans ce cadre,
l'adéquation organique au sens biologique du terme du système d'hyperinformation devient une
nécessité. On quitte donc l'organisation de type bureaucratique fonctionnelle pour aller vers une
intégration de plus en plus poussée dans les domaines stratégiques leaders qui auront été
déterminés pour l'entreprise. Son évolution ne peut donc pas être figée, car les types
d'informations à rechercher, la variabilité de leur nature en fonction des sujets et des urgences
impliquent un niveau très fort d'adaptabilité et d'autonomie dans la décision.
Dans certaines grandes entreprises, la tendance est à formaliser la Veille à travers de
multiples outils, en lui associant un plan qualité, en créant des responsables par domaines
(généralement scientifiques...). Cette organisation très structurée, peut être utilisable à un
niveau strictement technique, mais à mon avis on ne fait alors que créer un échelon
documentaire de plus. On ne fait donc que surveiller, on ne crée pas d'hyperinformations, on va trop lentement et on n'est pas assez mobile. En fait on ne situe plus
dans le même domaine, celui de l'information pour action, liée à la stratégie de
l'entreprise. Cette façon de voir et d'organiser la Veille, repose sur une culture
d'entreprise ancienne et rigide, généralement née d'une position de monopole, et devra
profondément se modifier pour bien saisir les changements qui vont intervenir à très
courts termes.
16.1 - La nécessité d'une structure en réseau
Nous avons vu dans les chapitres précédents l'importance des organisations nouvelles et leur
implication dans les avantages concurrentiels des entreprises. Si on transpose ceci au niveau de
l'entité devant générer dans l'entreprise de l'hyperinformation, on peut situer celle-ci prés des
personnes s'occupant de la stratégie d'une part, mais aussi très proches de l'ensemble des acteurs
susceptibles de rechercher des informations ciblées. Une telle structure ne peut être réalisée que
par le travail en réseau.
Ainsi, selon la structure de l'entreprise, son implication au niveau national, international, des
correspondants ou des homologues devront travailler de concert, pour augmenter l'efficacité et
les synergies, mais aussi parce que chaque entité, dans un système d'organisation en partenariat a
son autonomie propre.
Prenons par exemple un système de gestion évolué: celui de la Société ABB (Entreprise
Suédoise et Suisse qui opère dans le monde sur plus de 140 pays). Celle-ci a su bâtir dans un
système d'entreprises en réseaux et basé sur le partenariat, un ensemble informatique partagé (on
peut l'appeler une base de données, bien que la réalité soit plus éloignée de ce concept), qui
permet de créer les liens permanents entre tous les partenaires, en permettant une circulation de
l'information particulièrement efficace, et en étant aussi le point d'entrée des ratios stratégiques
qui permettront la constitution du tableau de bord global de l'entreprise. Ce système, qui a fait
l'objet de multiples descriptions et analyses, montre bien que l'organisation en partenariat (sans
doute l'apex vers lequel les sociétés hypercompétitives tendent) doit être complété par un
ensemble de liens très élaborés.
Il en ira de même pour l'entité productrice d'hyperinformations. Elle ne sera pas
nécessairement centralisée en un seul lieu, elle pourra au contraire être multicéphale selon les
différentes implantations de l'entreprise, l'essentiel étant que les informations (toujours focalisées
sur les facteurs critiques de l'entreprise) soient recherchées, circulent, et puissent être au moment
voulu mises en synergie et analysées. Cela va nécessiter une organisation à la fois au plan des
personnes et de leurs relations et aussi au niveau matériel. Cette organisation devra tenir compte
des mentalités et favoriser les changements nécessaires. Elles devra aussi avoir une grande
souplesse, sans pour cela aller vers l'Adocratie que l'on rencontre souvent dans les petites
entreprises travaillant dans la production de logiciels par exemple. Si on s'oriente tout de même
vers une structure de ce type, il faudra éviter, car cela est très rapide dans un domaine
foisonnant comme celui de l'information, un glissement vers l'anarchie, et la perte totale
d'efficacité par une trop forte entropie.
16.2 - Changer les mentalités
Dans une organisation de ce type, les mentalités jouent souvent le rôle de frein. En effet,
l'entreprise, souvent marquée par des structures bureaucratiques fonctionnelles avait tout un
système structurel pour transmettre les informations et les faire circuler souvent de haut en bas.
Bien entendu, la nature humaine étant ce qu'elle est, et les systèmes d'avancement et de
promotion ce qu'ils étaient, l'information était retenue à certains niveaux pour asseoir un pouvoir
hiérarchique sans rapport avec la réalité. De nos jours, les systèmes d'organisation changent, la
bureaucratie est remplacée par le management matriciel, mais devant ses contradictions, un
glissement de plus en plus rapide s'effectue vers le partenariat et le management en réseau.
Les grands systèmes centralisateurs sont mis au rancart, de grandes firmes comme l'Air Liquide,
Schneider n'ont plus de plan stratégique informatique comme vecteur structurant. Ceci conduit à
un changement des mentalités.
Dans le cas des systèmes d'information modernes, la circulation interne de l'information doit
s'effectuer librement. Le secret absolu est de moins en moins de mise, car les nouveaux systèmes
technologiques sont tels qu'ils rendent la protection de plus en plus difficile. Les partenariats sur
des projets, la concurrence sur d'autres, sont aussi des facteurs déstabilisants sur le plan de la
protection de l'information. Il faudra donc appliquer ici la règle des symétries et rechercher chez
les concurrents les informations qui systématiquement circulent et peuvent nous être utiles.
En outre, la création de partenariats sur des objectifs précis avec des concurrents devient dans
beaucoup de cas une pratique courante: contrats européens, tests cliniques pour certaines
catégories de médicaments, réalisation de consortium pour emporter certains marchés, .... Tout
cet ensemble va contribuer à la création de situations mouvantes, où les opportunités de
s'informer et d'apprendre seront fortes.
Ceci veut dire que l'ère dans ce domaine de la retenue et du "fair play" s'estompe de plus en plus
devant l'âpreté de la lutte et la toute puissance de l'urgence et d'un temps de réaction de plus en
plus court.
L'attitude devant l'information doit changer:
* ne pas faire de rétention d'information,
* avoir une culture suffisante pour discerner l'important du futile,
* transmettre les informations de manière à les rendre largement disponibles au sein de la
structure,
* participer pleinement à la collecte de ces informations et demander si nécessaire des
orientations complémentaires en fonction de la progression de la collecte,
* ne pas se cantonner à la vision stricte et ponctuelle du travail en cours, mais élargir son
champ de vision pour être le plus possible à même de recueillir des indices dont la
multiplicité deviendra stratégique,
* "passer du temps" à cultiver le ou les réseaux dans lesquels on se trouve, ne pas être
passif,
* s'approprier les moyens de communication modernes, et apprendre à les utiliser dans le
cadre de son travail (c'est le seul moyen de gommer les distances, puisque les entreprises
s'installent dans la globalisation et dans des zones géographiques de plus en plus
étendues).
Dans un système de renseignement, l'efficacité de celui-ci peut encore être synthétisée davantage
que ce que nous avons exposé au plan méthodologique dans les chapitres précédents. Pour cela
regardons bien les points suivants:
Pour être bien informé, il faut avant tout déterminer sur quoi s'informer et formuler la bonne
question, c'est fondamental.
Ensuite, lorsqu'en fonction de cela on recueille des informations (qui sont alors validées, classées
par ordre d'importance), le bénéfice global pour l'entreprise ou l'institution sera de faire en sorte
que des regards très différents soient portés sur ces informations, Donc qu'elles soient analysées
et mises à disposition de nombreuses personnes, sélectionnées certes, mais de compétences et de
sensibilités très diverses.
On constate donc que la rétention d'information ira à l'inverses de l'objectif recherché.
16.3 - Utiliser les nouvelles technologies
Le travail en réseau ne peut pas se concevoir à notre époque sans un système de plus en plus
poussé de vecteur performant d'information. Nous avons vu, dans les chapitres précédents, que
nous vivons une démocratisation de plus en plus poussée des méthodes et des outils de
communication. Il faut, dans le système d'hyperinformation les utiliser pleinement afin d'en
faire des avantages compétitifs par rapport à ceux qui ne feraient pas de même.
Certes, cela va coûter de l'argent, généralement au départ, et on pourra toujours demander à
quoi cela va-t-il servir et combien cela va-t-il rapporter. Mais, il faut opposer à cette attitude la
"vision" étape décisive dans la réorganisation d'une institution, d'une entreprise. On a une
vision, ou on n'en a pas, on a une bonne ou une mauvaise vision. L'utilisation de ces systèmes
nouveaux, ces technologies de l'Information et de la Communication dont tout le monde parle
est partie intégrante de la vision qui peut transformer une entreprise.
De grands progrès technologiques ont été réalisés, d'autres sont en cours, tous contribuent à une
baisse des coûts, à un fort accroissement des performances et à une simplification du système
d'information.
C'est ainsi qu'il est courant de trouver, même dans une PME, des ensembles d'ordinateurs en
réseau, généralement sous Windows for workgroups ou pour Windows 95, avec des
architectures plus ou moins complexes, les plus simples faisant appel au ressources du système
d'exploitation et à un serveur Windows NT. Les performances accrues des ordinateurs (pentium
160 ou plus), des disque dur de capacités de plus en plus fortes, des lecteurs de CD-ROM, des
scanners de bureau, des modems de plus en plus performants, même sur des lignes téléphoniques
classiques (le RNIS ne se trouve qu'en France et nécessite l'utilisation d'un modem spécial, les
autres modems standards n'étant pas utilisables) de logiciels à fortes compatibilités et très
performants, permettent la réalisation d'une architecture de plus en plus sophistiquée avec des
moyens somme toute limités. La communication, avec le développement de l'Internet a conduit
par la normalisation des protocoles de transmission à un dialogue possible entre des machines de
tous types, à une mise en forme des informations de plus en plus efficace, avec une
normalisation de fait, le HTML. Enfin, l'apparition de systèmes informatisés du type ACROBAT
d'ADOBE, permet de réaliser des documents multi plates-formes, accessible via l'internet, les
réseaux internes, ou les CD-ROM.
Outre le fait d'accéder à l'information, les messageries contribuent de plus en plus à la mise en
place d'une organisation nouvelle dans les entreprises. Elles permettent des échanges permanents
en temps quasi réel, et elles peuvent même dans beaucoup de cas bouleverser les schémas
organisationnels rigides en "cassant" les hiérarchies. Il serait vain de vouloir structurer trop
fortement la messagerie interne pour la contrôler. En effet, ce qui est fourni en "interne" est
souvent moins performant que ce qui peut être accessible à domicile par n'importe quel
personnel de l'entreprise, et qui lui donne une ouverture planétaire. On peut citer à ce sujet
l'accés par le téléphone RTC avec Wanadoo par exemple, ou bientôt l'utilisation du cable avec
des débits bien plus importants.
De ce fait, on assiste à une intégration globale des informations, (texte, image, schéma, son,
vidéo), à leur délocalisation sur des espaces internes (Intranet) ou externe si cela est nécessaire
(Extranet, Internet). Ce foisonnement conduit à la nécessité de penser à un minimum
d'organisation pratique avec un système gérant, analysant, diffusant de l'hyperinformation. La
règle d'or sera la simplicité, l'adéquation des performances avec les besoins, l'unicité des logiciels
et des systèmes, et surtout l'ergonomie, c'est à dire la facilité pour tout un chacun de s'approprier
ces systèmes de communication et de consultation des informations. Selon le cas, un autre
paramètre pourra entrer en jeu: une solution de format et de logiciel compatible à la fois avec
l'internet, l'intranet, la réalisation de CD-ROM et la production de produits papier.
Sur le plan même des concepts on assiste à une évolution, il y a très peu de mois, le concept de
"push", dans l'accès aux informations n'était presque pas utilisé. Actuellement, avec l'arrivée de
logiciels nouveaux (entre autre le dernier Netscape), ou d'add-ons télédéchargeables depuis
internet, la notion d'accès en push se développe: votre ordinateur, en constante liaison avec le
réseau internet reçoit les données qui vous intéressent et vous les transmets sur une bande en bas
de votre écran. C'est ainsi que nous avons en direct les cours du Nasdac au laboratoire sur
certains postes, sur d'autres des informations différentes immédiatement disponibles dés qu'elles
arrivent sur le réseau, ceci en fonction de filtres actifs permanents créés dans votre machine, ou
localisés sur un serveur distant.
C'est ainsi que des cours de la bourse peuvent être disponibles, etc... Ce même concept est aussi
utilisé par la télévision comme par exemple avec CNBC, où les cours de la bourse défilent en
permanence sur le bas de votre écran de télévision, selon les émissions. On est ici à la limite du
push, puisque vous n'êtes pas actifs.
16.3.1 Au delà des nouvelles technologies de l'information, les normes
des produits d'information
Le développement des technologies de transmission des informations, l'évolution des mentalités
et la mondialisation, conduisent inévitablement à des méthodologies de travail différentes des
méthodologies classiques utilisées localement. De nos jours le travail en réseau, la multiplicité
des partenaires, conduit à une normalisation de fait des transferts d'information, mais ce qui est
encore plus important dans la manière de confectionner les informations elles mêmes.
C'est ainsi, que la soumission à des contrats mettant en jeux des partenaires multiples, l'entrée
dans des projets complexes, conduit à présenter l'ensemble des activités que l'on aura (planning,
compte rendus, réalisations, "input et output"), d'une manière cohérente pour tous les
partenaires. C'est ainsi que sont nées, sous cette pression, les normes CALS.
Elles ont été critiquées au départ comme devant ralentir l'ensemble des acteurs d'un projet, ceci à
cause de leur complexité, mais, comme la DAO, la PAO .... elles se généraliseront sous la forme
actuelle ou sous une forme plus simple.
Ceci est important pour les petites et moyennes entreprises, dont la seule façon de survivre sera
sans doute de passer à un niveau d'activité national, puis international et de participer à des
réseaux, puis à des consortium soumissionnant sur des projets (industriels, européens, appel
d'offre d'Etat, etc...). Elles doivent, dés maintenant avoir conscience que les normes de
transmission des informations, aussi simples que celles nécessaires dans un appel d'offre,
obéiront à un certain nombre de règles.
Sans aller dans les détails, disons que par branches d'activité, elle devraient dés maintenant se
tenir informées des évolutions de cette situation.
On connaît généralement au niveau de la Bureautique les difficultés introduites par l'utilisation
de traitements de textes différents, les difficulté introduites par des parcs d'ordinateurs
disparates, entre autres les MacIntosh qui ne sont plus à conseiller, compte tenu de la très large
diffusion de la norme PC. Disons que dans les méthodes du types CALS, on retrouvera ces
difficultés, plus d'autres normes liées aux formats des données, etc.
16.3.2 - L'EDI
L'Echange de Données Electronique, ou EDI est cité dans les 105 technologies stratégiques
françaises. Cette manière de normer différents systèmes de représentation et de transmission des
informations est très puissante, car elle va unifier diverses opérations, depuis la commande
jusqu'à la fabrication et à la livraison. Elle sera d'autant plus utile, que diverses entreprises sont
réunies par alliances ou par rachats dans une même société. La facilité de travail entre ces
entreprises s'en trouvera grandement facilité. Pour donner un éclairage pratique sur ce sujet,
nous fournissons à titre d'exemple un extrait du CD-ROM L'Actualité Technologique
Française, produit par l'ADIT, le Ministère des Affaires Etrangères et Innovation 128. (CDROM 1997-1):
LOGICIELS
Innovations technologiques
L'EDI entre dans le secteur du carton
La société Lamirande, fabricant de cartons ondulés, a mis en place la gestion des commandes clients par
EDI. Une première dans le secteur de l'emballage.
Le groupe Nicollet passe environ 10 commandes par jour à la société Lamirande, spécialiste de
cartonnage ondulé. Jusqu'ici le temps de traitement d'une commande était de 45 min.
Nicollet devait fournir une dizaine de paramètres sur le produit commandé et la livraison se faisait à la
demande.
Avec la mise en place de l'Echange informatisé de données (EDI) sur le flux de commande, le fournisseur
et le client se sont accordés sur un même langage, la norme internationale Edifact, pour transmettre leurs
données.
Le temps des correspondances commerciales est descendu à 15 min.
Le délai entre l'ordre d'achat et l'ordre de production a été ramené à une heure.
Les commandes sont intégrées à la gestion de production d'où un suivi du stock optimisé. Meilleur
dialogue client fournisseur Enfin, les relations clients-fournisseurs se sont améliorées, les commerciaux
ont davantage de temps pour dialoguer avec le client, la qualité et la sécurité des commandes est assurée.
Aujourd'hui, Lamirande souhaite étendre le concept pour fidéliser au mieux ses autres clients.
L'entrée dans une communauté EDI lui a permis dernièrement de remporter un marché avec la Sogedac,
la centrale d'achat de PSA qui imposait l'outil EDI. Ce projet pilote développé avec l'assistance de la SSII
Cazana demande un an de travail pour un investissement avoisinant le million de francs.
Cette expérience réalisée chez Lamirande est en phase de généralisation à l'ensemble du groupe Giepac,
quatrième groupe français de la filière carton.
Afin d'intégrer l'EDI au sein de la filière, des travaux sont en cours depuis mars 95 au sein de l'Union
syndicale du carton ondulé. Il s'agit pour les principaux membres du syndicat de profiter de l'application
réussie chez Lamirande afin de mettre au point un langage commun propre à l'emballage au sein de la
norme Edifact.C.G (Copyright C.E.P. Information et Technologie).
M. Claude Gelé
16.4 - La norme HTML
Actuellement, une norme de fait semble s'imposer pour la création de sites WEB (Internet ou
extranet ou intranet), voire même pour la création de CD-ROM: c'est la norme HTML.
Comment le HTML fonctionne
Exemple
<HTML>
<center><a href="data.htm"><img src="logo.gif"></a>
<H2>This is an example of a HTML file</H2>
</center><P>
Quand des catactères spéciaux sont présents on va utiliser
un formalisme spécial:
sa t&ecirc;te &eacute;tait coiff&eacute;e, d'un bonnet
&ccedil;a <B>c'est vrai.</B>
<BR>
The text will be longer and most difficult to correct.
</HTML>
CRRM
Le langage HTML, les marqueurs
Le HTML conduit à ne pas transmettre une page formatée sur réseau. Cela demanderait trop de
temps. Au contraire on va transmettre un texte en ASCII, mais incluant des marqueurs, par
exemple <BR> pour aller à la ligne, <center> pour centrer, etc...
La première ligne, par exemple signifie qu'en cliquant sur le logo (image stockée en format gif
avec le nom de logo.gif sur l'ordinateur serveur), on accédera à la page HTML nommée
data.htm sur le même serveur. Une fois le texte reçu sur votre ordinateur, il est interprété en
local par un logiciel résidant, du type Netscape, Windows Internet Explorer, etc... Le résultat à
partir du texte précédent et visualisé sur votre écran sera le suivant:
How does the HTML system works
L
This is an Example of an HTML file.
When texts include accents special markers must be used sa
tête était coiffée d'un bonnet ça c'est vrai.
The text will be longer and most difficult to correct.
CRRM
Résultat à l'écran de l'interpréteur HTML
Il existe de nombreuse versions de HTML. Selon les versions des interpréteurs, certaines
versions ne seront pas correctement lues. Il existe aussi des produits informatiques (freewares,
sharewares, etc...) qui permettent à partir de textes en ASCII de transcrire ces derniers en
langage HTML. Cela facilite le travail, surtout à avec les langues à caractères riches, mais une
connaissance de base du HTML reste nécessaire.
16.5 - La norme ACROBAT d'ADOBE
Nous avons déjà évoqué l'utilisation des produits ADOBE (le créateur du format postscript).
ADOBE a conçu le système ACROBAT. Ce système est destiné à créer des fichiers à un format
dit PDF (Portable Document Format), qui pourront être transformés, liés (par hypertexte)
annotés, indexés à partir de programmes de travail spécialisés. Ces fichiers sont multiplateformes, donc reconnus par des systèmes tels que les systèmes PC ou UNIX. Ils seront lus en
local par un programme gratuit, distribué par ADOBE: Acrobat Reader.
Les fichiers pourront être réalisés soit directement à partir de textes saisis sous Winword, et
contenant des images ou des graphes. On procède simplement par impression sur disque au
format Acrobat à partir d'une imprimante virtuelle Acrobat installée à partir de l'ensemble des
logiciels Acrobat, soit on pourra traiter des images scannérisées au format EPS (encapsulated
postscript) et les transformer en fichiers PDF.
ACROBAT
d' ADOBE
.PDF format
Portable
Document
Format
Le groupe de programmes Acrobat
Par des programmes spéciaux d'Acrobate, on pourra lier les fichiers, créer des hyperliens à
partir du texte ou des images, créer des imagettes, des signets, pour faciliter la consultation, etc.
Dans le cas de documents imprimés (par exemples magazines) contenant du texte et des images,
on scannérise le document, puis Acrobat Capture reconnaît la partie texte, la transforme en
fichier PDF par OCR. Si la reconnaissance n'est pas bonne pour certains termes, ceux-ci seront
laissés dans le texte sous forme d'images. Le texte ne sera donc pas altéré lors de la restitution.
L'image étant traitée comme telle. Le tout est ensuite restitué à l'écran ou à l'impression dans le
même format que le format original, texte avec la même police, image(s) à la même place.
L'intérêt est que le fichier sera compacté (gain de place), multi-plateformes, véhiculable sur
réseaux, donc internet, intégrable sur CD-ROM, et consultable car le texte pourra être indexé ce
qui n'est pas possible à partir d'un simple fichier image.
Exemple de fichier Acrobat avec imagettes
Présentation de l'aide d'Acrobat avec imagettes, etc... Les couleurs du texte sont aussi
conservées, ce qui permet d'enrichir celui-ci de multiples façons. On remarquera aussi les loupes
permettant de voir des détails du texte ou des images, avec une très grande qualité, ce qui est
implicite avec le format postcript. (C'est en ce sens qu'avec Adobe Capture, qui traite les textes
scannérisés, le produit final est souvent meilleur que l'original !). Pour plus d'information sur les
produits ADOBE, consulter: http://www.adobeshop.com.
17 - La protection des informations
Nous avons beaucoup parlé de l'information, de son recueil, de son analyse, etc. Mais, ce travail
ne serait pas complet s'il n'abordait pas le niveau de la protection des informations. Nous
aborderons ce sujet de manière synthétique, car de nombreux ouvrages traitent de cet aspect.
Nous diviserons la protection en trois parties. La première traitera des comportements. L'analyse
des chapitres précédents va nous permettre de replacer un ensemble de faits dans les pratiques
quotidiennes et donc dans le comportement de tous. La deuxième partie est plus technique, elle
concerne la protection informatique et la protection des télécommunication. La troisième
concerne les brevets, le secret et la divulgation volontaire de certains résultats.
17.1 - Les comportements
Le comportement de base nous semble être le suivant: applique à toi même ce que tu
appliques aux autres. Ceci veut dire que si on met en place tout un arsenal de méthodes,
d'outils, de réseaux, pour accéder à de l'information, qu'elle soit formelle ou informelle, les
"autres" vont agir de même. Ainsi, l'information qui sera diffusée par l'entreprise, sera collectée
et analysée par les concurrents. Il faut donc être conscient que cette information (qui doit être
placée dans le cadre de la communication prise au sens large) va à la fois servir l'image de
l'entreprise, mais aussi constituer des points d'entrée dans celle-ci.
Nous conseillons, de réaliser avec quelques personnes et si possible un spécialiste une analyse
des comportements, des actions, des lieux des points où l'information peut être captée. Il ne
s'agit pas que des points physiques, mais aussi avec les nouvelles technologies de communication
des points virtuels.
L'exemple suivant est donné à titre indicatif. Il doit être situé après qu'une sensibilisation globale
des personnels ait été effectuée, en ciblant plus particulièrement les personnels exposés.
La "check list" suivante pourra être réalisée:
1 - Contrôle des visiteurs: qui ils sont, qui ils vont voir. Eventuellement demander à la
personne visitée ce qui lui a été demandée.
2 - La protection des locaux est des biens qui s'y trouvent est elle bien assurée ?
3 - Contrôle des stagiaires (*). Signent ils un engagement de confidentialité, de quel ordre,
quel est son contenu. Vont ils accéder à de l'information confidentielle, de quel type ?
Vont ils être en contact avec des personnes disposant d'informations confidentielles, ou
accéder à des locaux contenant de l'information confidentielle ou importante: recueil
d'information, rapports, ou expérience en marche,.... Vont ils devoir se plier à des normes
de qualité, donc accéder aux manuels de qualité, lesquels?
4 - Visites: y-a-t-il un circuit de notoriété ? où va-t-on montrer ce qui peut être vu sans
contrôle?
5 - Communication: qui vérifie les réponses aux appels d'offre, les publicités émises par
l'entreprise, les communiqués. Les chercheurs où autres personnes devant participer à des
conférences ou des colloques sont elles bien au courant des pratiques informatives des
concurrents. Les textes et ce qui peut être dit ont ils fait l'objet d'une analyse ?
6 - Les textes importants, les rapports sont ils protégés, (on parle ici de produits papier,
on verra la protection informatique ensuite).
7 - Les personnes qui voyagent sont elles au courant du fait que l'on ne doit pas avoir de
conversations très centrées sur le travail en train ou en avion (surtout en avion du fait de
la proximité des occupants), de même pour la lecture ou le travail sur des rapports
particuliers?
8 - Les réponses à de multiples enquêtes sont elles bien contrôlées, la demande d'enquête
est elle examinée correctement: qui l'a émise, pourquoi, dans quel but.
9 - Comment les discussions avec les fournisseurs sont elles organisées, par qui, comment,
pourquoi ?
10 - A la réception des matériels, les chauffeurs des entreprises de transports signent ils, à
l'entrée dans l'usine, une clause de confidentialité sur ce qu'ils verront ?
........................................................
La liste pourrait être encore plus longue, mais elle est nécessaire. Il ne s'agit pas de voir le mal
partout, ni de céder à "l'espionnite" ni à un réflexe sécuritaire primaire, mais de prendre les
précautions élémentaires en étant au courant de ce qui peut se passer et des pratiques de
certains.
(*) A propos de la protection des informations, on pourra se référer au texte de Louis J Freech
Directeur du FBI. Ce texte, est accessible via l'Internet www.fbi.gov/ecespion.htm. Il est diffusé
sous forme d'un Hearing on Economic Espionage, en date du 28 Février 1996, et a été
présenté au Senate Select Committee on Intelligence. Citons ce qui est dit à propos des
stagiaires:
"Some foreign government task foreign students specifically to acquire information on a variety of
economic and technical subjects. In some instances, countries recruit students before they come to the
United States to study and task them to send any technologiqcal information they acquire back to their
home country. Additionally, as an alternative to compulsory military service, one foreign government has
an organized program to send interns abroad, often with the specific task of collecting foreign business
and technological information...."
17.2 - La protection informatique
L'informatique est de plus en plus utilisée dans l'entreprise. Il sera donc nécessaire de s'entourer
des précautions élémentaires pour éviter une perte d'informations via ce média. D'autre part,
l'informatique personnelle (ordinateurs portables dans le cas d'une entreprise) et la microinformatique, dans l'entreprise se généralisent. Dans la majeure partie des cas, cette informatique
est reliée à un réseau local, voire à des réseaux beaucoup plus larges. Il sera donc nécessaire de
faire une distinction entre la protection d'un site informatique central (ordinateur important
relevant d'un service spécialisé), par rapport à la protection du système de mirco-informatique.
Enfin, un autre aspect de l'informatique doit être protégé: celui de la transmission des données
par réseau, l'internet, le fax, les messageries, les réseaux d'entreprises entrant dans ce cadre.
Nous n'aborderons pas spécifiquement la destruction ou la pertes de données, car ceci ne rentre
pas dans le champ, mais soulignons tout de même que compte tenu de la taille des disques durs,
en micro-informatique, il faut réaliser périodiquement des sauvegardes (qui devront être mises
en lieu sûr), et assurer la protection des machines par des onduleurs (ce n'est pas absolument
nécessaire pour un ordinateur personnel, même au bureau, mais cela le devient pour des serveurs
locaux).
17.2.1 - Le site ou les sites centraux
Cette protection est liée à une expertise particulière et à la prise en compte de différents facteurs
d'intrusion. Elle ne sera pas abordée ici, car elle est trop spécialisée. Le lecteur intéressé pourra
consulter la série de références suivantes (Preserve , protect and defend your data, Grinthal
W., Chemical Engineering, vol.100, n°11, pp.191-198,1993 ) qui lui permettra d'aborder en
détail le problème.
Patrick Galley (Institut Polytechnique de Lausanne), rend disponible sur le WEB http://web.1888.com/iwmag/main.html un travail important concernant le terrorisme informatique: Quels
sont les risques ?
Citons l'aperçu fournit par l'auteur:
"Notre société est de plus en plus dépendante de l'informatique. Où que vous soyez, quoi que vous fassiez,
vous risquez d'avoir affaire, directement ou indirectement à un ordinateur. ....De temps en temps, la
presse dévoile aux yeux du public que des pirates informatiques se sont introduits dans tel ou tel système,
ont volé des centaines de numéros de cartes de crédit.... Que se passerait-il, si une organisation ou un
gouvernement réunissait les compétences de ces pirates isolés pour mener une action de grande envergure
contre un Etat ?
17.2.2 - La micro-informatique
Il y a dans ce domaine un certain nombre de règles qui relèvent du bon sens. Tout d'abord, il faut
utiliser les précautions primaires qui consistent à utiliser la possibilité de créer des mots de passe
pour accéder à votre ordinateur (windows 3.11, Windows 97, par exemple). D'autre part, quand
vous êtes sur un réseau, ne partagez pas systématiquement (sauf en cas de besoin) vos fichiers.
Mettez un mot de passe, ces possibilités sont courantes.
D'autre part, ne laissez pas sur votre disque dur des fichiers confidentiels. Si vous en avez,
stockez les sur une disquette, si le volume est trop grand, utilisez des facilités comme les disques
durs amovibles, ou des unités de stockage amovibles de forte capacités (une centaine de méga
octets est chose courante). Le prix de ces produits est suffisamment faible pour que ce soit le
complément indispensable de votre ordinateur. En outre, ces unités de stockage pourront aussi
servir de sauvegarde. Méfiez vous aussi des virus, protégez votre ordinateur en permanence.
D'autre part, le prix d'un ordinateur est suffisamment faible, pour que vous ne partagiez pas avec
quelqu'un un ordinateur sur lequel il peut y avoir des données sensibles. Si une personne est
responsable de sa machine, toute autre personne qui l'utilise doit le faire avec son autorisation.
Enfin, pour tous ceux qui utilisent leur micro ordinateur et leur modem pour accéder à des bases
de données, ne mettez pas vos codes d'accès collés sur le haut de votre écran !
En ce qui concerne les données elles-mêmes, si elles sont sensibles, mieux vaut utiliser un
cryptage de ces dernières, à la fois pour les véhiculer sur réseau ou pour les garder dans votre
ordinateur. Compte tenu de la puissance actuelle des machines, cette opération ne prend pas
beaucoup de temps. Il existe de nombreux logiciels de cryptage, depuis les freewares, et
sharewares, en passant par des produits commerciaux. On pourra citer MSI sous Windows qui
par simple glissé de la souris permet de crypter un fichier avec une clef de 64 bits et un mot de
passe. Pour décrypter on fait la même chose. On peut aussi crypter l'ensemble des données
présentes sur le disque dur avec des logiciels comme AB-Crypt par exemple. Le but n'est pas de
rendre indéchiffrable le cryptage, mais de rendre l'opération de restitution du texte plus difficile
et ainsi de gagner du temps. Pour les cas les plus sensibles, ont peut utiliser des systèmes de
cryptage résidents sur des "puces" spéciales.
17.2.3 - Exemple d'utilisation d'un logiciel de cryptage: CONDOM
Extrait du fichier associé CONDOM.TXT:
Condom! Version 1.0, 06/01/90, by The Lonestar
for "Safe" Data...
Disclaimer: The Lonestar is NOT RESPONSIBLE for any damages from the use of
Condom!. It is an extremely powerful Encryption/Decryption tool and must be
used with care. DON'T FORGET YOUR PASSWORD!!! Once a file has been encrypted
with Condom!, you will NEVER decrypt it without the original password EXACTLY
as it was entered. Don't come crying to me, because I can't get it back either.
.......
Condom! is public domain. You are free to use it and distribute it in its
original, unaltered state.
Exemple de fichier texte qui va être encrypté: (nom du fichier exemple)
Voici un exemple de texte que nous allons traiter par le logiciel d'encryption CONDOM.
Ce n'est pas un des plus modernes, puisque la version utilisée date de 1990.
Il existe maintenant sous windows d'autres systèmes, permettant de travailler dans
un environnement ergonomique plus souple, etc....
Processus d'encryption:
commande: condom exemple
Réponse du logiciel CONDOM
Condom! version 1.0
Elite File Security
for "Safe" Data
from the Lonestar 06/01/90
Enter Password : dou
Proceed (Y/N): y
Résultat:
Xl4!7]ç
%þ¬>ɽØÖ«Ÿüªµ¾žŽÚrÒ¡~o¾MgÂ@W’,Ba$ge*å/óè0ÎðJØŠ
²ð_FŸo=ì9g—
d[$05`F'DHCæY#üùxÚ÷ÈŒ£Ùî¯
ùÂÿÝŠ™Íatª~•U”1Gk;
…ºòÀ‘¤²Œ›—Ô|t«
6&1&CZé!ä§1Æöµ£§ší´½ð™³Ä’ˆÖh•¸>j¯HO€/\–
7uB#M÷6åê1Š·
-£Ýþ§¿é†•À
+3"MFfüè#̺ߋHò
Ce fichier résultat se nomme toujours exemple. Pour le régénérer, on procède de la même façon,
avec le même mot de passe.
On constate que le processus est simple, qu'il peut être automatisé, et que cela permettra de
protéger simplement un certain nombre de textes du regard des indiscrets. Bien entendu, la
même remarque que pour les codes de sécurité est à faire: ne notez pas votre mot de passe sur le
haut de votre écran ! d'autres part, évitez d'utiliser différents mots de passe dans les processus
d'encryption, car autrement vous ferez des erreurs (de mémoire) et vous ne régénérerez plus vos
fichiers.
17.2.4 - Les TTP
Actuellement, dans l'allocation de clés de codage, que l'on soit entre deux sites, ou même dans
certains cas multisites, est particulièrement étudiée. Dans le commerce électronique, on fait
appel à ce que l'on appelle les TTP (Trusted Third Parties in electronic commerce, Skevington
P.J., Hart T.P., BT Technology Journal, v.15, n°2, Avril 1997, pp.39-44)
Ce sont des institutions ou des organismes publics ou privés, qui serviront de garant à certaines
transactions en les sécurisant. Par exemple en allouant les codes d'encryption. Ces
troisièmes partenaires, seront admis par les deux autres (acheteur et vendeur) et ils garantiront
l'intégrité de la transaction.
Nous avons utilisée la stratégie suivante pour savoir plus, via l'Internet:
On utilise le terme
TTP dans le systèmes de recherche du AltaVista
(http://altavista.digital.com) On obtient un nombre de réponses important. Il faut alors affiner la
recherche en utilisant la fonction refine, qui va lister avec le pourcentages approché, les
différents thèmes couverts par les réponses:
Refine your search by requiring a few relevant topics,
excluding irrelevant ones, and ignoring the others.
90%Ttp, task, force
25%Germantown, cloverleaf, remediation, contaminated, contaminants,
contamination, situ, investigator, contaminant
22%Waste, radioactive,
hanford, wastes, inel, mixed, pnl, tank, richland
Anthony de Jacquier (ULB)
Titre : SELTA - un animateur de specification ET-LOTOS
.....
On constate que l'un de ces séminaires couvre le sujet qui nous concerne, et qu'il possède un lien
avec le terme abstract (résumé). On arrive ainsi à celui-ci:
Jeudi 22 octobre : Guy Leduc
Titre : Specification et verification d'un protocole TTP (Trusted Third
Party) pour l'acces conditionnel a des services
Abstract:
Specification et verification d'un protocole TTP (Trusted Third Party)
pour l'acces conditionnel a des services :
We use the formal language LOTOS to specify the Equicrypt protocol and
verify its robustness to attacks by an intruder. We use the model-based
CADP verification tools from the Eucalyptus toolbox to discover some
successful attacks against this protocol.
Mais, il n'y a pas d'adresse ni de e-mail. Pour ce faire, et comme cela est l'usage, en fin de
l'ensemble des résumés on obtiendra les données nécessaires à une poursuite par e-mail de la
recherche des informations:
Markowitch Olivier Hernalsteen Christian
Email : [email protected] Email : [email protected]
Phone : 650.56.07 Phone : 650.50.42
Comme au départ le terme TTP nous donnait trop de réponses, on avait avec la fonction refine
limité aux problèmes: trusted, encryption, keys, cryptography, escrow, cryptographic, crypto,
confidentiality, encrypted.
Mais on peut aussi utiliser sur cet ensemble de réponse la fonction refine, à nouveau. On
obtiendra alors un ensemble de thèmes encore plus précis:
Refine your search by requiring a few relevant topics,
excluding irrelevant ones, and ignoring the others.
99% Ttp, encryption, trusted, cryptography, escrow, crypto, confidentiality, keys, integrity
89% Jbp, postel, xns, vmtp, zsu, satnet, hwb
86% Unassigned, udp, netrjs, sgmp, cronus, tsap, chargen, netsc, xyplex
79% Reynolds, milnet, malis, netlabs
59% Cryptographic, repudiation, security, authentication, encrypted, signatures
54% Rht, qotd, rwho, axb, bxl, hems, pcmail
On remarque les thèmes: Cryptographic, repudiation, security, authentication, encrypted,
signatures qui preprésentent 59% de cette nouvelle sélection. A partir de ce dernier groupe on
obtiendra 90 réponses la majorité étant pertinentes. un extrait de ces réponses est le suivant:
90 documents match your query.
1. Glossary
Glossary. Access Control Unit (ACU) Protocol. ACU Provider (ACUPv)
Public Key Certificate. Authentication. Random Number. Certificate of Key(s)...
http://okapi.igd.fhg.de:8080/glossar.htm - size 9K - 1-Sep-97 - English
2. Entrust Interactive: Download Entrust/Solo
Entrust/Solo: Security on a Personal Note. Entrust/Solo, for Windows 95
and Windows NT, allows you to secure files on your PC/laptop, or send
sensitive
http://www.entrust.com/solo_eval.htm - size 9K - 7-Oct-97 - English
3. Entrust Interactive: Download Entrust/WebCA
Entrust/WebCA, available for Windows-NT, allows you to issue Web
certificates to browsers and servers capable of using SSL security.
Entrust/WebCA is
http://www.entrust.com/webca_eval.htm - size 7K - 7-Oct-97 - English
4. Response to DTI Proposals on Trusted Third Party Encryption Services
Response to DTI Proposals on Trusted Third Party Encryption Services.
Paul Rouse R-cube Systems Ltd Refuge House 2-4 Henry Street Bath BA1 1JT
email:...
http://www.r-cube.co.uk/dti-response.html - size 20K - 30-May-97 English
5. LICENSING OF TRUSTED THIRD PARTIES
nbsp; LICENSING OF TRUSTED THIRD PARTIES. FOR THE PROVISION OF
ENCRYPTION SERVICES. Public Consultation Paper. on. ...
http://www.cl.cam.ac.uk/users/rja14/dti.html - size 98K - 21-Mar-97 English
6. JILT: DTI proposals for the licensing of Trusted Third Parties for
the provisi
This is a consultation paper published in JILT on 30 June 1997
(Originally published by the DTI) LICENSING OF TRUSTED THIRD PARTIES.
FOR THE PROVISION OF..
http://elj.warwick.ac.uk/jilt/consult/ukcryp/ukdtipap.htm - size 97K 2-Jul-97 - English
7. DTI proposals for the licensing of Trusted Third Parties for the
provision o
21 March 1997 Source: http://dtiinfo1.dti.gov.uk/pubs/ Thanks to E.
Michael Power, Coordonnateur, Secrétariat au commerce électronique,...
http://www.jya.com/ukttp.htm - size 96K - 21-Mar-97 - English
8. Updated UK Proposals for Licensing Encryption Services
LICENSING OF TRUSTED THIRD PARTIES FOR THE PROVISION OF ENCRYPTION
SERVICES. This page contains the text of the government's paper, issued
on the 20th...
http://www.seven77.demon.co.uk/updated.htm - size 200K - 30-Apr-97 English
9. Trusted Third Parties- Deloitte & Touche Management Summary
Trusted Third Parties. What is It? Trusted Third Parties (TTPs) are used
in large, distributed and complex networks such as the World Wide Web.
The...
http://www.dtcas.co.za/ttp.htm - size 9K - 27-Apr-97 - English
10. Response of the Data Protection Registrar: Licencing of Trusted
Third Parties. Paper on...
http://www.open.gov.uk/dpr/ttpfinal.htm - size 18K - 30-Jun-97 - English
On obtient ainsi des réponses, avec des liens vers les sources originales. Ceci permettra de
continuer la recherche et surtout, de trouver les e-mail à partir desquels on pourra entrer en
liaison avec les auteurs ou les responsables pour obtenir une information plus finalisée selon nos
besoins.
On constate ainsi la supériorité des stratégies mixtes: les bases de données me permettent
d'avoir une vision élargie du domaine et de sérier des thèmes. Parmi ces derniers les TTP, nous
paraissent importants. Il faut alors aller plus loin, vers une information plus récente et avec la
possibilité d'entrer en contact avec les protagonistes de ces réponses. C'est là toute la supériorité
de l'Internet.
Notons, pour corollaire, que ceux qui ne sont pas présents sur le WEB, se privent ainsi de
nombreux contacts et d'une publicité internationale de très haute qualité.
17.2.5 - Le fax
L'utilisation du fax est une cause importante de "fuites". En effet, très souvent le fax est
accessible par un nombre de personnes important, il est souvent situé dans un couloir, voire dans
un espace bureau proche d'une photocopieuse. Comment se protéger des indiscrétions ? On peut
évidement demander à une personne de venir personnellement récupérer le fax, mais la nuit cela
est difficile. On peut aussi accueillir directement le fax sur son propre ordinateur (dans ce cas le
correspondent peut crypter du texte), mais cela va monopoliser une ligne téléphonique.
C'est dans cet objectif, que l'on a créé des logiciels de cryptage qui fonctionnent de la manière
suivante:
Le cryptage des Fax
Votre texte avec ou sans
images
On imprime le fichiers
crypté localement..
On crypte avec un logiciel
spécialisé. Si le texte et les
images, ne sont pas dans votre
ordinateur on scanne les
données.
Le volume est
beaucoup plus faible.
On expédie le fichier crypté,
soit à partir de votre ordinateur,
soit par un fax normal. Votre
correspondant reçoit le fichier.
CRRM
On décrypte, en re-scannant si nécessaire
Mécanisme de cryptage des fax
Ce procédé est utile, car il permet, même si votre correspondant ne possède qu'un fax classique,
de recevoir des données cryptées. Ensuite, à partir de cette image (le fichier crypté et compacté
se présente comme un cadre rempli de points noirs avec des intervalles plus ou moins grands
entre les points), votre correspondant pourra scanner le fichier pour avoir une image sous forme
d'un fichier qui sera ensuite décodé à partir du même mot de passe que celui qui a permis le
codage. Si le fax subit quelques aléas durant la transmission, des algorithmes spéciaux
permettent de restituer tout de même la majorité du contenu. Si vous recevez le fax sur un
ordinateur, la phase de restitution du fichier informatique par scannage n'est pas nécessaire.
Cette technique permet aussi d'archiver sous forme papier des documents compacté et codés.
17.3 - L'Internet
Dans le cas de l'internet, beaucoup des choses ont été dites et écrites, depuis la sécurité des
réseaux jusqu'à la création informatique d'un "fire-wall" qui permettra une protection contre les
intrusions. Cependant, la solution pour le commerce électronique, pour la transmission des
messages, reste le cryptage des données. Actuellement les réglementations qui étaient assez
strictes au niveau des états sont entrain de s'assouplir considérablement, surtout depuis le 1er
Juillet 1997, où le Président des Etats-Unis, a pris largement position en faveur de la
libéralisation d'une déréglementation dans un rapport intitulé "A Framework For Global
Electronic Commerce". Dans un article publié par le Figaro du 4 Septembre 1997, Jean-Paul
Delaye, traite de ce problème et termine son article par le commentaire suivant auquel nous nous
associons:
"La France par l'insuffisance de ses réflexions et par esprit centralisateur prendra-t-elle dix ans de retard
sur le Japon ou les Etats-Unis."
Pour plus d'informations sur ce sujet, consulter les deux sites WWW dont les adresses sont
jointes à cet article:
http://www.cdt.org/digi-in-fra/970701-clinton.txt
http://www.iitf.nist.goc/eleccomm/ecomm.htm
http://www.cdt.org/digi-infra/970701-commerce.htm
http://crypto.com/key-study
Il existe en outre des sites WWW où vous pouvez masquer votre adresse de départ (adresse
internet) lorsque vous envoyez un message. La réponse sera lue à partir du site utilisé pour créer
la discontinuité. Dans ce cas, la confiance dans le site utilisé pour brouiller les pistes doit être
bonne.
17.4 - Les systèmes physiques
Si on ne veut pas passer par des programmes de cryptage ou par des mots de passe, c'est à dire
par une protection logiciel, on peut passer par une protection physique. Dans ce cas, on utilisera
une caractéristique physique de la personne habilité pour permettre l'accès aux données.
Signalons ce que l'on nomme Biométrie. On aura par exemple comme processus de
reconnaissance la lecture par un lecteur spécialisé de votre empreinte digitale, ou de l'empreinte
de votre main par exemple.
Il existe aussi d'autres systèmes de protection, entre autre avec des "cartes à puces", etc.
Signalons à ceux qui accèdent au câble ou au Satellite Astra qui diffuse les émissions en clair de
la chaîne de télévision CNBC, que de très bonnes émissions sur l'utilisation de l'Internet sont
réalisées quasi quotidiennement (émissions PCTV). Ces émissions sont diffusées en américain.
De même il existe aussi des émissions du même type réalisées sur TV5 international, faites par
les canadiens et diffusées en français. Elles ne sont pas retransmises sur TV5 en France.
17.5 - Brevets ou divulgation
Nous avons vu que le brevet constituait une protection efficace lorsqu'il était nécessaire de
protéger un pays ou un ensemble de pays, à la fois au niveau de la fabrication, mais aussi au
niveau de l'importation d'un produit réalisé dans les pays non protégés.
Il existe cependant des cas, où il ne faudra pas prendre de brevets, car le brevet et en lui-même
une divulgation de l'invention, et cette divulgation ne dure pas éternellement. Par exemple, dans
le cas du Coca Cola, si la formule avait fait l'objet d'un brevet, elle serait depuis très longtemps
passée dans le domaine public, et tout le monde aurait pu l'utiliser. Dans d'autres cas, lorsqu'il
n'est pas possible à partir du produit, de remonter vers les ingrédients, il ne faudra pas prendre
de brevet. Ceci est le cas des gommes de pneumatiques, par exemple. Cependant, dans ces deux
derniers cas, puisqu'il n'y a pas de brevet, le secret doit être absolu.
Enfin, il peut se trouver que dans certains cas, on fasse une avancée dans le domaine des
sciences et des techniques, sans que l'on veuille, pour diverses raisons exploiter celle-ci. Par
contre, on voudrait être sûr, qu'à partir du moment ou on fait cette avancée, elle ne puisse pas
nous nuire (d'autres pourrait aussi le faire et breveter !). Dans ce cas, on va divulguer l'invention
publiquement, de façon à faire tomber celle-ci dans le domaine public, pour que tout le monde
puisse l'exploiter (si on le désire), mais sans exclusivité. On utilise pour ce faire des journaux
spécialisés, par exemple Disclosure. Pourquoi n'utilise-t-on pas la publication scientifique
classique ? Simplement parce que le systèmes des examinateurs fait que plusieurs personnes:
éditeur, comité de lecture, examinateur(s), peuvent être au courant du contenu du travail avant
que celui-ci ne soit divulgué (publié dans ce cas). Comme l'on n'est jamais sûr de personne, des
journaux spécialisés divulguerons l'invention, en évitant les écueils précédents. Pour aller même
plus loin dans ce domaine et maîtriser totalement le système, certaines entreprises ont créé leurs
propres publications qu'elles diffusent largement. C'est le cas entre autre de la Société IBM.
18 - Etudes de cas
Les études de cas suivantes sont faites pour amener par des exemples des compléments aux
principes généraux qui ont été exprimés dans la première partie de cet ouvrage. Ces études
recouvrent soit des domaines nouveaux dans lequel l'information est nécessaire, soit des
exemples de réalisations, soit des cas concrets liés à des études ou à des réalisations. Certaines
de ces études, entre autre celles concernant l'Internet peuvent être complétées par la consultation
des sites que nous indiquons dans celles-ci.
18.1 - L'agilité, le commerce électronique
Ce n'est pas de culture physique que nous allons parler ici ! Les concepts, les situations évoluent,
et si actuellement on entend beaucoup parler d'Intelligence Economique, il est probable, puisque
les concepts "s'usent" vites, que celui-ci soit remplacée par une autre préoccupation: l'AGILITE.
Que recouvre ce concept, et comment doit on se positionner?
L'agilité, ou agile manufacturing, est un concept qui intègre les données actuelles sur le "line
manufacturing", les méthodes CALS, les concepts d' "Agility" dans le sens d'ateliers de systèmes
de production reconfigurables selon les besoins, "d'interroperabiblity", de flexibilité, de
prototypage rapide, flux tendus, etc... Mais, le concept d'agilité va bien au delà de cette
phase connue, il intègre le client comme un élément de la chaîne de production. Il permet
donc de ne plus considérer les clients comme un élément passif, mais il les fait participer au
"design" du produit qu'ils achètent, voire au choix de l'intégration d'un certain nombre
d'éléments (couleur, forme, fonctions, matériaux ...). Ce passage, de la notion de passivité à la
notion de considération, est bien situé dans la lignée des travaux de Richard D'Aveni, que
nous avons abordé au début de cet ouvrage. Cette situation nouvelle va permettre de redéfinir la
qualité perçue en valorisant le client. On débouche alors sur de nouvelles réflexions sur la
stratégie industrielle. On entre ainsi dans une autre logique: avant, maintenant même, on est
encore dans la production de masse, dans des choix relativement restreints pour le
consommateur. On va maintenant passer dans un autre système, où le consommateur va pouvoir
pour des surcoûts très faibles, organiser lui même ses choix, en quelque sorte façonner ses
achats.
Couplé avec les systèmes d'accès en ligne à l'information, entre autre ce qui va dériver de
l'Internet actuel avec une forte augmentation prévisible des débits (le réseau ATM par exemple),
cela va déboucher sur de nouvelles opportunités de vente, de conception de produits, de
livraisons rapides lorsque l'ensemble est couplé à DHL (ou des systèmes analogues) pour les
produits de faibles dimensions. Mais, cette notion de modélisation directe par le client, avec une
intéractivité très forte, touchera entre autre le secteur des services avec des répercussions qui
n'ont pas encore fait l'objet d'analyses poussées ni d'expérimentations en vrai grandeur.
L'agile manufacturing, permettra aussi une réduction draconienne des stocks, les systèmes
de productions agissant à la demande pour réaliser directement les pièces, produits et
composants choisis et élaborés par le client.
Tout d'abord, comment avoir été prévenu au départ de cette évolution ? C'est à notre
connaissance le service scientifique de l'Ambassade de France aux USA qui le premier a signalé
l'importance de ce développement, puis ensuite à l'aide de l 'ADIT et des pouvoirs publics un
dialogue a pu être mis en place avec différents industriels français. On notera au passage l'article
de sensibilisation réalisé dans Technologies Industrielles, publication de l'ADIT, (L'Agilité ou la
Réindustrialisation des Etats-Unis, Maud Faivre et Christian Dupont, Mai 1997). On constate
ainsi, que sans préoccupation directement liée à son environnement professionnel, cultiver des
rapports avec les différents services scientifiques des ambassades françaises dans les pays les
plus développés est important, au plan de l'information informelle. En outre, ces services ont des
serveurs WWW qu'il est facile de consulter, ainsi que des messageries électroniques pour poser
des questions. Le relais, réalisé par l'ADIT est utile, mais encore faut il être abonné à ses revues
et ne pas attendre des articles de presse qui reprennent les articles de l'ADIT eux mêmes créés à
partir des alertes réalisées par les services scientifiques de nos ambassades !
18.1.1 - Agilité
Pour s'informer sur le thème Agile Manufacturing, qui devrait on faire aujourd'hui? Plusieurs
voies sont possibles, prenons les plus simples:
* Les bases de données: la base de données ABI-INFORM (qui existe entre autre en CD-ROM
ou en ligne sur des serveurs comme Dialog), permet d'accéder à diverses informations à
caractères techniques, mais surtout économiques et sociologiques. Les bases de données
Compendex et Inspec (Physique) et NTIS (National Technical Information Service)
compléteront sur un plan plus technique les informations.
Exemples de résultats:
Base de données Compendex: noter le faible nombre total de références avec le termes
AGILE(W)MANUFACTURING (107 références, le 16 Septembre 1997 serveur Orbit)
.-3- (COMP)
.TI - Quality time and innovation based performance measurement system for
agile manufacturing.
AU - GUPTA UMA G; MITTAL RAVI O
OS - East Carolina Univ, Greenville, NC, USA
SO - Proceedings - Annual Meeting of the Decision Sciences Institute v 3 1996.
Decis Sci Inst, Atlanta, GA, USA. p 1511-1513 (PAMSED)
CONF- Proceedings of the 1996 27th Annual Meeting of the Decision Sciences
Institute. Part 3 (of 3), Orlando, FL, USA (1996 Nov 24 - 1996 Nov 26)
CN - 46863
LA - ENGLISH (EN)
DT - CA (Conference Article)
CC - 913.4.1 Flexible Manufacturing Systems; 911.2 Industrial Economics;
913.3 Quality Assurance & Control; 913.1 Production Engineering
IT - *Flexible manufacturing systems; Cost effectiveness; Quality assurance;
Performance; Productivity
AB - Agile manufacturing is a business concept that integrates organizations,
people, and technology into a meaningful unit by deploying advanced
information technologies and flexible and nimble organization structures
to support highly skilled, knowledgeable, and motivated people. The
concept was introduced in 1991 by a government-sponsored research effort
at Lehigh University to facilitate organizations to be highly responsive
to customers demands for new products and services. Although the words
agile and lean are sometimes used interchangeably in this context, they
are not one and the same. Lean implies highly cost-efficient and
productive, although it does not necessarily imply being responsive.
Agile, on the other hand, stresses the importance of being highly
responsive to meet the `total needs' of the customer, while
simultaneously striving to be lean. Thus, an agile manufacturer places a
higher priority on responsiveness than cost-efficiency while a
manufacturer whose primary goal is to be lean compromises responsiveness
over cost-efficiencies. (Author abstract) 5 Refs.
UP - 9741
-7.TI
AU
OS
SO
(COMP)
- Delayed product differentiation strategy in agile manufacturing.
- HE DAVID W; KUSIAK ANDREW
- Univ of Iowa, Iowa City, IA, USA
- Industrial Engineering Research - Conference Proceedings 1995. IIE,
Norcross, GA, USA. p 701-708 (IERCE9)
CONF- Proceedings of the 1995 4th Industrial Engineering Research Conference,
Nashville, TN, USA (1995 May 24 - 1995 May 25)
CN - 46582
LA - ENGLISH (EN)
DT - CA (Conference Article)
CC - 913.4.1 Flexible Manufacturing Systems; 913.2 Production Control; 604.2
Machining Operations; 913.1 Production Engineering; 911.2 Industrial
Economics
IT - *Flexible manufacturing systems; Production control; Machining; Assembly;
Cost effectiveness; Product design
AB - Agile manufacturing aims to produce a large variety of products, in a
short time, and at a low cost. The delayed product differentiation is a
powerful design concept which can be used to achieve agility. In this
paper, the implementation of delayed product differentiation strategy in
a manufacturing system is discussed. The problem of selecting the designs
so as to minimize the number of parts and the manufacturing cycle time is
formulated and solved. An illustrative example is presented. (Author
abstract) 9 Refs.
UP - 9735
Base de données INSPEC: noter aussi le faible nombre de références, du même ordre que celui
de la base de données Compendex.
.-2- (INSC)
.TI - The practical side of e-mail in agile manufacturing plants.
AU - Allen T
OS - Effective Manage. Syst. Inc., Milwaukee, WI, USA
SO - I&CS, vol.70, no.5, pp. 53-57, May 1997
PU - Chilton
CP - USA
LA - English
DT - J (Journal Paper)
.PY - 97
TC - PR (Practical)
.AB - For many of today's more information driven manufacturers, electronic
mail (e-mail) is proving to be a highly efficient mode of communications
among customers, vendors, and employees. However, the utility of e-mail
reaches far beyond front office correspondence to include operational and
maintenance data crucial to the agile manufacturer. By now, most shop
floor personnel and management are familiar with (if not well versed in)
online communications. After all, even if one's work is not rich in
information technology chances are good that an individual has worked
with e-mail at home, in school, or in another workplace. This article
looks at how e-mail and its groupware sibling can help keep everyone in
an enterprise up to date on the manufacturing process. The role of two
forms of groupware-Outlook from Microsoft and Notes from Lotus-is
demonstrated. (0 Ref.)
- Copyright 1997, IEE
IT - computer integrated manufacturing; electronic mail; groupware; process
control
ST - e-mail; agile manufacturing plants; information driven manufacturers;
customers; vendors; employees; maintenance data; operational data; shop
floor personnel; management; Outlook; Microsoft; Notes; Lotus
CC - C7480 Production engineering computing;
C6130G Groupware;
C3355 Control applications in manufacturing processes;
C7160 Manufacturing and industrial administration;
C7420 Control engineering computing;
C3350 Control in industrial production systems;
C7104 Office automation
-3.TI
AU
ED
OS
SO
(INSC)
- Information models for partner selection in agile manufacturing.
- Herrmann JW; Minis I; Ramachandran V
- Law KH
- Dept. of Mech. Eng., Maryland Univ., College Park, MD, USA
- Engineering Data Management and Emerging Technologies. Presented at the
1995 ASME International Mechanical Engineering Congress and Exposition
(CED-Vol.7), pp. 75-91, Published: New York, NY, USA, 1995, v+117 pp.
PU - ASME
CP - USA
LA - English
DT - PA (Conference Paper)
.PY - 95
CONF- Engineering Data Management and Emerging Technologies. Presented at the
1995 ASME International Mechanical Engineering Congress and Exposition
(CED-Vol.7), San Francisco, CA, USA, 12-17 Nov. 1995, Sponsored by: ASME
TC - PR (Practical)
AB - Discusses the information required for three functions of agile
manufacturing: prequalifying partners, evaluating a product design with
respect to the capabilities of potential partners, and selecting the
optimal set of partners for the manufacture of a certain product. In
particular, this paper presents a new information model that describes
the systems, process capabilities and performance of a manufacturing
firm. We have implemented this model and used it as part of a decision
support system for design evaluation and partner selection in agile
manufacturing. (63 Ref.)
- Copyright 1997, IEE
IT - decision support systems; manufacturing data processing
ST - information models; partner selection; agile manufacturing; prequalifying
partners; product design evaluation; potential partner capabilities;
product manufacture; process capabilities; manufacturing firm
performance; decision support system; design evaluation
CC - C7160 Manufacturing and industrial administration;
C7102 Decision support systems
Base de données FSTA (Food) Une seule référence:
.-1- (FSTA)
TI - A strategy for survival: tools to decrease product development time.
AU - Faeth, L.; Bradshaw, L. L.
AD - Cent. for Nondestructive Evaluation, Iowa State Univ., Ames, IA, USA
SO - Cereal Foods World, 42 (3, Special Report to the Baking Industry)
SR12-SR14, SR16, 1997, [17 ref.]
NU - ISSN 0146-6283
DT - Article
LA - ENGLISH (EN)
CC - D (ECONOMICS)
IT - developments; management; foods; ECONOMICS
ST - ECONOMICS
AB - For food companies to grow and prosper they have to have an efficient
system to develop and introduce new products and, as the market share is
often dominated by the 1st product introduced in a category, the speed of
product development is critical to success. Means of accelerating new
product development are considered with reference to: management issues
(the systems approach to quality management, analysing the organizational
structure); additional strategies for speeding product development
(flexible manufacturing systems, agile manufacturing, quality function
deployment, concurrent engineering, utilization of outside resources);
and electronic exchange of information.
* L'internet.
Le Terme Agile, peut être structuré, par l'intermédiaire des facilités offertes par le Système
AltaVista. On obtient (Septembre 1997) les différents groupes de termes suivants qui vont
permettre des sélections précises sur ce thème:
"Refine your search by requiring a few relevant topics, excluding irrévelant ones, and ignoring
others."
98% Agile, manufacturing, enterprise, intelligent, engineering, competitiveness, concurrent,
industrial, mechanical.
24% Agility, reconfigurable, thrive
11% Rear, steering, suspension, wheel, horsepower, brakes, seat, liter
11% Technologies, integration, integrated, technology, advanced, architectures
10% Breed, dog, breeds, dogs, akc, herding, kennel, sheepdog
9% Infrastructure, enebling, arpa, tesbed, interoperability, nist, nii, interoperable, testbeds
9% Strategic, reengineering, reengineer
9% Deployment, management, deploy, operations, operational, deployed
9% Combat, attack, forces
8% Flexible, industry, demands, automated
8% Frequency, mhz, modulation, ghz, transmitter, microwave, frequencies, transmitters
8% Automation, robotics, conference, assembly, robotic, robots, robot, workcell
8% Fighter, fighters, interceptor
8% Aircraft, flight, pilots, flying, pilot, wing, fuselage
8% Competitive, competitors, customers, customer, achieving, solutions, achieve, deliver
8% Responsive, responsiveness, delivers
8% Prototyping, rapid, prototype, prototypes
7% Capabilities, capability, mobility
7% Systems, robust, control, functionnnability, architecture, distributed, controller
AltaVista: les différents clusters obtenus
On constate ici la richesse de l'Internet comme outil d'information. En effet, le terme agile
conduit à plusieurs dizaines de milliers de références, qui peuvent être structurées à partir du
tableau suivant (certains concepts comme Dogs, Fighter, Combat, Frequency pouvant être
écartés dans une première approche). Mais, chacune de ces segmentations conduira à des
centaines, voire des milliers de sites WWW, qui chacun auront un certains nombre
d'informations et sans doute des liens avec d'autres sites. L'accès à l'information est facilité au
plan de la recherche globale, mais on bute sur la lecture et la sélection de ce qui sera important.
C'est pour cela que des Robots (ou Agents Intelligents) sont développés pour satisfaire ce
besoin. On citera entre autre AUTONOMY qui est auto-apprenant, et AURESYS 2 (Agent
Intelligent développé au CRRM par Monsieur Bruno Manina) développé au laboratoire CRRM
en collaboration avec IRIS (Médiathèque Régionale de la Région Provence Alpes Côte d'Azur).
Soit dit en passant, on voit ainsi se dessiner une autre utilisation complémentaire de l'internet:
affiner et suivre une information que l'on obtient par d'autres canaux. Par exemple si les services
de l'Ambassade de France à Washington nous indiquent le nom de quelques personnes,
laboratoires universités ou entreprises en avance dans le domaine, et si celles-ci apparaissent
dans un site WWW on pourra s'informer facilement sur la partie laissée visible par ces
institutions ou personnes. Dans le cas des personnes, si celles-ci on un e-mail, on pourra
toujours leur envoyer des messages pour obtenir des informations supplémentaires. Il faut dans
ce cas le faire avec astuce et discernement.
18.1.2 - Le commerce électronique
Ce thème est mieux connu et de multiples articles ont été publiés sur le sujet, depuis les
pratiques des utilisateurs, la sécurité des paiements, le couplage avec des réseaux de distribution,
etc.
Les bases de données publiques, que nous avons citées pour l'agilité conduisent à de bonnes
références. Il faudrait y ajouter la base de données Prompt de Predicat, pour les informations
économiques.
Mais, nous n'allons pas nous situer à ce niveau. Si nous sommes une Société intéressée par le
sujet, sur quoi doit elle vraiment veiller, et comment bâtir un plan d'observation ?
Nous allons nous référer à Internet pour ce faire. Non pas directement en posant une question et
en la segmentant comme cela a été réalisé dans le cas de l'agilité, mais en utilisant un discours
politique. Nous avons déjà cité l'adresse du site internet qui permettra d'accéder à ces données
http://iitf.nist.gov/eleccomm/ecomm.htm. On accède alors au texte du discours suivant:
A Framework For Global Electronic Commerce
President William J. Clinton, Vice President Albert Gore, Jr.C
On trouvera, parmi un certains nombre de considérations qui sont trés utiles pour déterminer les
contours que souhaitent donner les américains au commerce électronique, un certains nombre de
"points durs", pouvant être utilisés pour structurer une recherche d'informations avancées sur le
sujet. En voici quelques exemples:
Technical standards:
Strandards are critical to the long term commercial success....
To ensure the growth of global electronic commerce over the Internet, standards will be needed
to assure reliability, interoperability, ease of use and scalability in areas such as: (note de
l'auteur, remarquez des termes identiques à ceux présents dans la segmentation du terme Agile)
* electronic payement,
* security (confidentiality, authentificatioin, data integrity, access control, non-repudiation)
* security services infrastructure (eg. public key cerificate authorities)
* electronic copyright management systems
* video and data-conferencing
* high-speed network technologies (eg. Asynchronous Transfer Mode, Syncronous Digital
Hierearchy)
* digital object and data interchange
Considérations moins technologiques
In order to spur the removal of barriers, ...
* encouraging private sector investment by privatizing government-controlled
telecommunications companies
*promoting and preserving competition by introducing competition to monopoly phone markets,
ensuring interconnection at fair prices, opening markets to foreign investment, and enforcing
anti-trust safeguards
* guaranteeing open access to network on a non-discriminatory basis, so that GII users have
access to the broadest range of information and services
* implementing by an independent regulator, pro-competitive and flexible regulation that keeps
pace with technological development.
D'autres données sur les produits d'encryption et leur liberté d'utilisation suivent, ainsi que le
nom des principales instances sur lesquelles il faudra s'appuyer pour dégager des normes et des
standards, etc.
Cet exemple, met bien évidence les différents usages que l'on peut faire des sources
d'information dans ce domaine, et entre autre, comment un discours politique (sans doute écrit
par des experts suivant une ligne politique générale décidée par le Président) peut être très utile.
Il faut tout de même, dans de tels cas, examiner ce qui est dit pour déterminer dans quelle
mesure on n'est pas en présence d'une information biaisée ou d'une désinformation.
Enseignement
Comme l'on est dans un sujet quasi opérationnel, il ne faudra pas uniquement se baser sur
l'avenir, mais voir ce qui est fait au présent. Pour cela l'éducation et les programmes proposés
sur le commerce électronique sont une large source d'information. Souvent présentés sous forme
de MBA, ils sont à la fois techniques, économiques, de Business Dévelopment.... devant faire
face à une compétition forte aux USA (pour attirer les étudiants), les programmes sont bien
décrits et de ce fait sont une source importante d'informations dans le domaine.
On citera par exemple le site suivant: obtenu avec une recherche sur AltaVista avec les termes
mba et electronic commerce.
MBA Core Module on Electronic Commerce
MBA Core Module on Electronic Commerce.
http://midir.ucd.ie/~jmooney/sworld/ecourse/mbacore.html
http://www.isworld.org/isworld/ecourse/mbacore.html
18.2 - L'Observatoire de la Production Scientifique en Provence
Alpes Côte d'Azur
Ce projet, a été développé par le CRRM à Marseille depuis 1995. Il est né d'une constatation
très simple: la majeure partie des experts scientifiques d'une discipline, voire d'une sousdiscipline, n'ont qu'une vision excessivement restreinte de l'ensemble de la production
scientifique régionale. Cette vision se restreint même au plan de leur discipline à quelques
laboratoires avec lesquels ils collaborent, ou dont ils lisent les travaux publiés. Mais, même pour
leur propre discipline, l'intégration de la production scientifique régionale dans un ensemble plus
important (comme dans notre cas le Sud de l'Europe) n'est pas bien perçu.
Nous avions aussi constaté, ceci au plan industriel, que le potentiel réel de recherche (pas
nécessairement celui affiché dans le descriptif des laboratoires), n'était pas connu ou pas bien
perçu. En fait, les relations se bornaient souvent à un travail avec des équipes ou des
laboratoires ayant noués des relations depuis un certain temps, sans que les nouvelles expertises
soient prises en compte.
Partant de ce constat, et ayant à notre disposition à la fois un serveur WWW, et une volonté de
rendre plus visible la production scientifique et si possible de créer automatiquement à partir de
celle-ci des liens avec l'industrie, nous avons développé (thèse de Jean-Marie Dou, Université
Aix-Marseille III, Faculté des Sciences et Techniques de Saint Jérôme, 1998) sur l'internet un
Observatoire permettant aux chercheurs et aux étudiants en DEA et en thèse d'obtenir
facilement un certain nombre de renseignements globaux sur la recherche dans la Région
Provence Alpes Côte d'Azur.
Présentation de la première page de l'application Observatoire
Des données générales:
Les travaux qui ont été menés dans le cadre d'Université 2000, ainsi que dans le cadre du
schéma régional de la recherche, ont été, après avis du DRRT, synthétisés et mis à disposition
sur le serveur. Ceci conduit à une notion de positionnement global, très utile pour éviter les on
dits, ou autres interprétations. De même, de larges extraits du rapport de synthèse ont aussi été
mis à disposition, ce rapport n'étant pas globalement accessible très facilement.
Ecran présentant un certain nombre d'informations générales
Travaux de recherche:
Pour aller plus vite, nous avons, en accord avec l'INIST qui a fourni les informations, obtenu la
production scientifiques de la Région, indexée dans la base Pascal, pour les années 1993, 94 et
95. Ces données ont été traitées et formatées pour êtres placées dans le serveur sous forme d'une
base de données. Les références ne sont pas contenues dans un fichier global, mais sont chacune
autant de pages HTML indexées. Ceci permet le cas échéant de changer une référence, où d'y
ajouter des commentaires, voire même le texte intégral.
Le passage de l'ensemble des références à une segmentation en page Web a été réalisé
automatiquement, de même la création de la base de données, l'indexation et le processus de
recherche ont été développés à partir de CGI accessibles en freewares.
Statistiques générales:
A partir de la base de données précédentes, nous avons établis un certain nombre de statistiques
qui mettent en évidence les secteurs scientifiques les plus importants ainsi que la liste des
chercheurs et des revues dans lesquelles ils publient. Ces statistiques ont été réalisées en utilisant
le logiciel Dataview, ce qui permis de réaliser différentes extractions de listes. Ce sont ces
dernières qui ont été placées dans le serveur. A toutes fins utiles, nous avons aussi réalisé
l'environnement direct d'un auteur, en traitant l'ensemble des paires d'auteurs présents
simultanément dans la même référence. Cet ensemble de paires d'auteurs permet, lorsqu'elles
sont indexées dans un gestionnaire de document, d'extraire très rapidement l'environnement
scientifique d'une auteur. On recherche un nom d'auteur, et toutes paires qui le contiennent sont
sélectionnées, d'où l'accès immédiat à son environnement scientifique (les personnes avec
lesquelles il publie). Ces données ne sont pas rendues publiques, bien quelles soient
implicitement contenues dans la base de données, simplement parce que nous ne voulons pas
que l'on puisse supposer que nous nous intéressons particulièrement aux personnes. Néanmoins
l'ensemble du fichier des paires d'auteurs peut être obtenu via un ftp.
Le gateway:
De nombreux laboratoires, universités, institutions de recherche possèdent leur propre serveur
WWW. Pour faire gagner du temps aux personnes intéressées, nous avons réalisé un gateway,
qui permet à partir de la consultation de l'Observatoire des Productions Scientifiques, d'atteindre
les serveurs les plus représentatifs. Cette rubrique est souvent en modification, compte tenu de la
création ou de la disparition de certains sites.
Il faut, dans ce cas être prudent, car certaines données, bien qu'intéressantes, ne sont pas
permanentes. Elles peuvent fluctuer dans le temps.
Une partie des données accessibles à travers différents liens
Le lien avec l'industrie:
Afin de donner la possibilité aux chercheurs de situer leur recherche dans un secteur industriel,
même très large, une thèse a été entreprise sur le transcodage des références Pascal avec la
Classification Internationale des brevets. En se basant sur divers traitements statistiques (thèse
de Monsieur Pascal Faucompré, Université Aix Marseille III, Faculté des Sciences et
Techniques de Saint Jérôme, CRRM, 1997), nous avons créé pour la majeure partie des
références Pascal un champ IC (Classification Internationale des brevets). Ce champ contient
une ou plusieurs classes, selon les mots-clés caractérisant la référence. Ceci permet de situer les
travaux fondamentaux dans le champ technique, et d'autre part, à partir de la classification de
retrouver avec une certaine cohérence des travaux, des noms d'experts et des adresses de
laboratoires. Cet ensemble est disponible sur l'Internet.(http://crrm.univ-mrs.fr)
La boîte aux lettres:
Pour permettre aux utilisateurs de l'Observatoire d'avoir un lien direct avec la personne qui
administre celui-ci, une boîte aux lettres a été créée. Elle permet aux utilisateurs de laisser des
messages et de demander une inscription auprès de l'Observatoire, pour qu'un mot de passe
personnalisé lui soit ensuite fourni, lorsque l'Observatoire sera pleinement opérationnel.
Les difficultés rencontrées:
La difficulté majeure rencontrée est celle de la collecte des données et de l'intérêt que peut
revêtir pour le chercheur l'insertion de sa production dans un ensemble plus général. Les
données telles que l'appropriation des travaux par les entreprises pour créer une richesse
technologique ou des synergies, la connaissance des secteurs de développement industriel et les
liens possibles avec leurs activités de recherche ne sont que rarement évoqués.
Par exemple, dans le cadre des thèses, il ne nous a pas été possible d'obtenir la totalité de la
production. Or, la base téléthèse, a un retard certain dans ce domaine.
Enfin, les rares fois où nous avons pu obtenir des informations, il était difficile d'obtenir un
format informatique correct, et même dans certains cas seulement le produit papier était
disponible sans pouvoir obtenir un quelconque support informatique de sa saisie!
Dans notre cas, ce n'est pas vital, mais pour une entreprise cela le sera certainement. On voit
ainsi toute l'attention qu'il faut porter sur l'organisation de la saisie des données, de leur recueil,
de leur format et de leur stockage.
Les développements futurs:
Nous nous sommes rapidement rendus compte, que, s'il nous était possible de maintenir sur le
site WWW diverses applications, le problème majeur concernerait le recueil des données. Nous
avons donc décidé de nous focaliser sur trois domaines précis:
* continuer la mise à disposition des travaux régionaux via la base Pascal,
* analyser la production scientifique dans une grande gamme de domaines,
* commenter les résultats, en espérant que cela suscitera des réponses.
En effet, nous souhaitons ne plus rester dans le domaine stérile des citations ou des revues de
rang A, B .... mais passer au niveau de l'intersection de la recherche et de l'économie. Il sera
donc nécessaire, dans la mesure du possible, de mettre aussi en place une analyse poussée des
domaines technologiques où un développement industriel peut se réaliser dans la région. On
pourra opérer soit par thématique, soit par zones géographiques.
On peut remarquer, que la structure de l'Observatoire a été conçue pour permettre
éventuellement un développement partagé de recherche d'information, puis d'alimentation de ce
dernier. C'est pour cela que nous avons choisi le format d'une seule référence par page HTML,
ce qui permettrait l'insertion de nouvelles informations commentées, ou par l'intermédiaire de la
boîte aux lettres, l'envoi vers le site maître d'un ensemble d'informations. Le fait aussi d'avoir la
possibilité de n'accéder à l'observatoire que par un mot de passe si cela est nécessaire,
permettrait de créer un système de veille partagée, cette fois-ci sur un thème et sur une zone ou
des zones géographiques très larges. Le même concept (avec une valeur ajoutée supplémentaire
du fait de l'analyse par un expert) est actuellement utilisé depuis 7 mois environ par le Réseau
Chimie mis en place dans la francophonie par le CRIQ (Centre de Recherche de l'Innovation du
Québec, Parc Technologique du Québec métropolitain, 333, rue Franquet, Sainte Foy
(Québec) Canada G1P 4C7)), et ceci via l'Internet.
18.3 - Une diffusion systématique des informations en média multiples.
Le Colloque sur l'Information Elaborée d'Ile Rousse
Les colloques lorsqu'ils sont organisés avec des moyens relativement modestes, ce qui est
souvent le cas, ne peuvent que difficilement assurer une diffusion et une publicité importante de
la manifestation objet du colloque. Nous relatons ici, ce qui a été réalisé dans ce cadre par le
CRRM et la Société Française de Bibliométrie Appliquée (SFBA) pour le Colloque sur
l'Information Elaborée, d'Ile Rousse.
Ce colloque, est organisé par la SFBA tous les deux ans, à Ile Rousse en Corse.
L'annonce du Colloque est réalisée, une année avant par Internet, et couplée par un envoi
d'informations particulières aux adhérents. L'annonce est faite sur le site http://crrm.univ-mrs.fr
La page descriptive du serveur déjà présentée dans ce livre montre sous la rubrique Ile Rousse
97, l'état de la présentation du colloque qui a eu lieu en Juin 1997.
Les inscriptions en ligne ne sont pas réalisées. On envoie aux personnes qui nous demandent
comment s'inscrire, un Bulletin d'inscription suivi du programme du Colloque. Ceci est
simplement lié au public (universitaires et industriels qui ne paient pas directement les droits
d'inscription), et à la difficulté en France de réaliser légalement une inscription électronique via
carte bancaires et reconnue par l'administration.
L'appel à communication:
Il est réalisé par Internet presque exclusivement pour les particuliers. Les institutions qui
participent généralement au colloque reçoivent les indications sur produits papier. La saisie est
unique, les produits papiers envoyés étant imprimés à partir de la version HTML présente sur
l'internet.
Les résumés:
Les résumés des communications sont demandés aux participants soit sur disquette (format
ASCII ou au format Winword), soit via e-mail. Dans quelques rares cas, on a encore des
résumés papiers. A partir de cet ensemble, on construit la présentation Internet du colloque, telle
qu'elle peut être consultée actuellement.
Les communications:
Il est demandé à chaque personnes ayant effectuée une communication, de nous transmettre le
texte au format Winword, le texte incluant déjà sous forme informatique les images et les
schémas. La transmission se fait généralement sur disquette, ou par e-mail et fichiers attachés.
C'est cette partie qui est la plus difficile à réaliser. En effet, on a toujours une grande difficulté à
réunir l'ensemble des communications, et le fait d'utiliser un format électronique ne change rien.
Le colloque
Durant celui-ci un certain nombre d'éléments vont être réalisés sur place. Ces derniers vont avoir
pour but d'une part de synthétiser les différents aspects du colloque (ce sont des interviews sous
forme d'enregistrements). Ensuite, pour rendre la présentation plus vivante, un certain nombre
de photographies seront réalisées (il n'est pas question ici de faire une oeuvre artistique, mais de
réaliser un outil d'information destiné à être diffusé). Nous utilisons pour cela un appareil photoélectronique du type ION.
La préparation du produit
On réalise un produit suivant les indications que nous avons déjà données au niveau de l'hyperinformation. Une partie écrite va synthétiser ce qui s'est dit dans le colloque, en fait cela
constitue une analyse rapide qui renvoie en hypertexte aux données principales. Cette synthèse
est complétée par un accès aux interviews principaux des personnes représentatives.
Une autre partie du produit est réalisée par un album photos, destiné à rappeler aux participants
certains moments du colloque.
Il faut utiliser toutes les facilités possibles pour créer une présentation originale ainsi que des
moyens de navigation pour accéder aux informations (hypertexte, ou indexation).
Le produit peut être réalisé de différentes façons: une partie peut être encapsulée dans une
présentation unique (en utilisant authorware par exemple), et une autre présentation via
ACROBAT, des communications. C'est cette manière de faire qui a été utilisée pour réaliser le
CD-ROM du Colloque sur l'Information Elaborée d'Ile Rousse 1995.
La diffusion du colloque 1997
En deux ans, les technologies ont évolué. Nous avons adopté pour le colloque 1997, une
diffusion CD-ROM sous forme HTML globale, pouvant ou non contenir des pages .PDF
(Acrobat d'Abobe). Mais, nous n'encapsulons plus le produit par un logiciel ne permettant que la
consultation du contenu. Le choix du HTML est fait pour permettre à ceux qui achèteront le
CD-ROM 1997, de le diffuser soit sur un intranet, soit en réseau, soit de prendre certaines
parties et de les rediffuser sur l'Internet en les plaçant sur leur propre serveur. Cette liberté qui
est laissée au niveau du choix de la diffusion et de la rediffusion, conduit à une augmentation
considérable de la disséminations des produits.
Au niveau technique, les images sont au format Gif, les sons au format Wav.
La musique générale a été acquise pour être en règle avec le copyright.
Le CD-ROM sera réalisé avec comme programme de consultation Microsoft Internet Explorer,
dont nous avons acquis les droits de diffusion et de "customization" auprès de Microsoft.
La diffusion des communications du colloque de 1995
Si les résumés sont diffusés sur l'Internet, avec un certain nombre de photographies, l'ensemble
total est réalisé sous forme d'un CD-ROM. On montre ici quelques unes des caractéristiques du
CD-ROM 1995, qui reprend une présentation générale globale qui sera conservée, avec une
partie des textes accessibles via ACROBAT. Les informations sont structurées en grands
chapitres, de manière à repérer rapidement ce qui est intéressant pour le lecteur.
Le Reader d'Acrobat, qui est gratuit, est inclus dans le CD-ROM de manière à ce que le lecteur,
s'il ne le possède pas puisse l'installer sur son disque dur.
Présentation générale, ouverture du CD-ROM
On essaie le plus possible de procéder par menus visuels, pour que le lecteur puisse avoir
rapidement une vue d'ensemble de l'événement, au niveau des images ou du texte selon ce qui
est choisi. Dans le cas présent, l'unité de lieu est respectée, les images sous forme d'icône
reprennent des lieux (bâtiments et sites d'Ile Rousse).
Deuxième page du CD-ROM, ouvertures vers les différentes parties
L'accès à la présentation des photographies conduit à retracer les différents événements du
colloque. La photographie suivante présente les organisateurs du Colloque: (de droite à gauche)
Le professeur Jacques Emile Dubois (ancien Directeur de la DRME), l'Amiral Lacoste (ancien
Directeur de la DGSE), le Professeur Clément Paoli, le Professeur Henri Dou, François
Jakobiak (Directeur d'Existrat)
Une partie "cachée" du CD-ROM
La présentation de l'ensemble des textes des communications réalisée sous ACROBAT est
précédée de diverses analyses bibliométriques mettant en évidence la structure du vocabulaire,
les principaux termes traités par les auteurs, etc....
La figure suivante montre la lecture d'une partie de cette analyse avec le lecteur ("Acrobat
Reader") d'Acrobat.
18.4 - Un service dans une entreprise: un intranet
Les potentialités actuelles des matériels informatiques, la facilité de réaliser des réseaux locaux,
la disponibilité de logiciels de plus en plus performants et simple d'utilisation, ont conduit à un
large développement de l'accès en réseau aux informations, des échanges, de la messagerie, et
aux partage des données. Plus des 2/3 des entreprises américaines qui ont été analysées par
Forester Research considèrent devoir posséder un intranet (Intranet business opportunities,
Machover Carl, Proceedings of Computer Graphics International Conference, CGI, 1997, IEE,
Los Alamitos, CA USA, pp. 138-143 - Intrantnet Grand Livre, J. Paul et al. traduit de
l'Allemand par F. Reitz, Lavoisier, 1997 - Groupware et intranet, L'entreprise et la maîtrise
de l'information, G. Puiseux, Lavoisier, 1997)
On ne va pas dans ce chapitre traiter de la totalité de la notion d'Intranet, puisque de très
nombreux ouvrages ont déjà été publiés à ce sujet. Simplement, on va donner quelques éléments
qui permettront de bien comprendre les enjeux.
Ces enjeux sont importants, car ils peuvent introduire un avantage compétitif par rapport aux
concurrents, par exemple même avec un serveur modeste, on peut atteindre des performances
remarquables et donc un avantage certain (Competitive advantage from the Intranet, Jina J.,
Wright D.T., Manufacturing Engineer, v.76 n°3, Juin 1997, pp.124-128). Lorsqu'on voudra
réaliser un intranet sur une plus grande échelle, les facteurs de maintenance, de robustesse de
l'ensemble, du design devront être prises en compte (Enterprise Intranet Management, O Hara
Brian, Andersen Consulting, Telecommunications (Americas Edition) v.31, n°4, avril 1997, pp.
122-131)
Tout d'abord, disons que le terme intranet ne signifie pas nécessairement qu'un système internet
va être utilisé. C'est faut dans l'absolu, car Intranet signifie à la base l'utilisation des outils de
l'Internet et l'utilisation des normes HTML (ce qui coûte bien moins cher que d'autres systèmes
!). Mais, par exemple, on, peut très bien réaliser tout un processus de contacts, d'échanges, de
gestion des informations à partir de Lotus Notes. Dans ce cas, et bien que la terminologie ne soit
pas adéquate certains parlent d'Intranet.
Au départ la notion d'Intranet correspondait à une notion de site. Actuellement elle s'étend à la
notion de système privé qui peut être multi-sites. On parle alors aussi d'Extranet.
Cependant, au départ et si l'on n'a pas du tout de système de base, il faudra analyser le système
de "groupware" qui va être utilisé par l'entreprise. Par exemple, certaines sociétés, selon ce
qu'elles ont à transmettre comme informations, avec les types de mises à jour et d'utilisation,
trouveront un avantage important dans les systèmes ouverts (type Intranet HTML vrai), alors
que d'autres préféreront des systèmes propriétaires comme Lotus Notes. Ces types de choix sont
cruciaux pour les sociétés. De même, les constantes de temps sur le long terme doivent aussi
être évaluées. (Enterprise-level groupware choices. Evaluating Lotus Notes and Intranetbases solutions, Ginsburg M., Duliba K., Computer Supported Cooperative Work CSCW. An
International Journal, v.6, n°2-3, 1997, pp.201-225).
18.4.1- Les fonctions de base d'un Intranet
Elles vont être de permettre:
* la messagerie, l'envoie d'informations par exemple par des fichiers attachés aux messages.
Attention à cette pratique, elle est parfois stérilisante, quand, pour évacuer un problème on se
contente de transmettre au suivant un message avec un fichier attaché sans tenir compte des
volumes finaux à lire et sans joindre une analyse préalable.
* le fonctionnement de groupes de discussions, avec gestion des questions et modérations
* l'envoi de documents par des listes de diffusions
* l'accès à des informations de natures différentes: textes, images, éventuellement sons et
séquences animées.
Les informations pourront être de nature différentes, par exemple fichiers Word, tableurs Excel,
textes ASCII, images avec différents formats, documents mixtes, etc.
* consultation de bases de données.
* hiérarchisation des accès par mot de passe.
* possibilité de cryptage des informations.
* bonne convivialité et ergonomie.
Mais, cet ensemble ne fonctionne pas tout seul, il faut le gérer, à la fois sur le plan informatique
(ce n'est pas le plus difficile), mais aussi sur le plan des informations à introduire dans le
systèmes, pour animer les groupes de travail, pour réaliser des synthèses à partir des
commentaires, etc. Un bon conseil, il faut au départ bien analyser ce que l'on veut obtenir du
système. Ne pas placer les contraintes et l'informatique au premier plan, il faut d'abord en
fonction de la structure hiérarchique de l'entreprise, de la circulation des informations, de la
localisation des experts, bien déterminer ce que l'on attend du système. Ensuite, que l'on utilise
Lotus Note, ou autre chose, cela ne pose pas de problème car la majorité des problèmes
techniques peuvent être résolus (à des coûts très différents il est vrai).
Cependant, au-delà de l'information elle même, c'est "l'organisation apprenante" qui va être
concernée lorsque l'on met en place un intranet. C'est en effet à une stratégie proactive que
devrait conduire à la mise à disposition des bonnes informations, au bon moment et vers les
bonnes personnes, le tout lié à de la messagerie et à des groupes de discussions. L'intranet
fournit ainsi une infrastructure qui va permettre d'aider au développement des différentes phases
de l'entreprise apprenante (Intranets and organizational learning, Harvey M.G., Palmer J.,
Speier C., Proceeding of the 1997 ACM SIGCPR Conference, San Francisco, CA, USA, 1997,
avril 3-5).
18.4.2 - L'Intranet multisites
Dans le cas d'un Intranet sur plusieurs sites, le problème des réseaux sur lesquels va circuler le
trafic doit être bien analysé au niveau des vitesses. Réseau privé, téléphone RTC, RNIS, passage
par l'Internet, etc. Selon les niveaux d'encombrement, de vitesse, d'ouverture du réseau vers
l'extérieur, il faudra utiliser diverses solutions au niveau de la taille et des formats des
informations à transmettre, et au niveau de la protection de ces dernières. Dans le cas de
l'utilisation de l'Internet, il faudra si le serveur est aussi lié au réseau de l'entreprise, prévoir un
"fire-wall" (système informatique de filtrage des appels, empêchant l'entrée dans le système de
personnes non agrées. C'est le point de passage obligé pour entrer et sortir.) qui permettra une
certaine sécurité. Attention il ne faut pas que le "fire wall" soit tel qu'il ralentisse trop la
circulation des informations sur le réseau.
Dans le cas d'un Intranet multisites, il sera intéressant d'utiliser une encryption entre les firewalls,
ce qui conduit pratiquement à réaliser un réseau privé à partir du réseau Internet public. On
pourra consulter à ce sujet: Internet firewalls: questions and answers, Ker Keith, Proceedings
of SPIE, The International Society for optical Engineering v.2116, 1996, Society of PhotoOptical Instrumentation Engineers, Bellingham, WA, USA p.65-77 (PSISDG). Conference
Protection and Network Security, Philadelphia, PA, USA, 1995, Oct 24).
Actuellement, il est très facile de réaliser un Intranet à partir d'un simple PC, en créant un
serveur WWW. Le coût est minime. Il faudra bien sûr installer en local les forums, les mailing
lists, attribuer des e-mail internes, etc... Il faudra aussi que certaines personnes maintiennent le
système non pas tant au niveau informatique mais au niveau des données qui sont mises à
l'intérieur.
Dans ce cas, on a un seul site serveur. Il gère la messagerie les groupes de travail et accès aux
sources d'informations qui sont uniquement au niveau du serveur. La mise à jour peut être
effectuée soit au niveau du serveur localement, soit sur le même serveur à distance. Dans ce cas,
si l'Intranet est local on n'aura pas de problème. Si on veut agir de l'extérieur, il faudra que le
serveur soit accessible via le téléphone et un modem.
Pour fonctionner en Extranet, il faudra que le serveur soit accessible en permanence par le
réseau RTC, ou Transpac, ou via Transpac à l'Internet.
Enfin, il ne faut pas, au plan général, regarder l'intranet comme une sorte de "gadget". Citons à
ce porpos Etats de Veille, n°16, Septembre 1997, p.6:
La France a un Intranet de retard. Selon une étude du cabinet Mc Kinsey, la mise en place de
l'intranet dans les entreprises américaines devrait générer près de 6000 milliards de francs
d'économie dans les prochaines années. 50% des 100 premières sociétés américaines sont
concernées. En France les entreprises montrent peu d'intérêt pour une technique qui semble
pourtant révolutionner l'organisation managériale outre-atlantique ..... (Challenges, Juillet-Août
97).
On pourra aussi consulter dans le même esprit le site internet des Echos:
http://www.lesechos.fr/enquintranet/enquintra2.htm, à partir duquel on peut extraire le tableau
significatif suivant:
Pas de développement d'application
Internet
parce que n'en ressent pas le besoin
à cause du coût lié au développement d'une
application
par manque de compétence ou de savoir faire
interne
par ce que vos cleints ne sont pas utilisateurs
d'Internet
parce que la sécurité des transactions n'est pas
garantie
autres
%
63,1
9,1
10,9
33,5
5
8,8
Base: total des réponses (320 entreprises de 20 à 500 salariés)
L'absence de besoin principal frein à Internet
On constate bien que le régionalisme des entreprises et une clientèle encore peu encline à utiliser
les moyens modernes d'information, sont les freins les plus importants au développement. Cette
constatation va de pair avec la nécessité pour les entreprises de passer du niveau local au niveau
global.
18.5 - Exemples d'utilisation de "check-lists"
Les "check lists" sont un éléments importants dans la conduite d'un système d'information, mais
plus généralement dans la conduite de toute opération. Elles permettent, avant que le système à
réaliser ne soit géré par des règles ou par un protocole bien rodé, d'être le plus sûr possible que
l'ensemble des étapes à suivre est cohérent, et que rien n'a été oublié.
L'image populaire de la check list est celle du pilote qui avant le départ d'un vol aérien, avec une
telle liste, vérifier l'ensemble des appareils nécessaires à la bonne réalisation vol. On peut
facilement transposer cette situation au niveau des processus mis en jeu par le plan de
renseignement, puis au niveau de l'analyse de l'information, de la mise en place des groupes
d'experts et ensuite de la dissémination des produits d'information.
Il est aussi intéressant de noter, compte tenu de ce qui a été dit sur le temps et son importance
qu'une check list peut être associée à un planning très simple de réalisation, d'avancement de
certaines tâches. Ceci sera important lorsqu'il faudra coordonner des éléments venant de lieux
différents et émanant de personnes différentes.
La check list, dans son aspect le plus fruste peut être simplement une succession de "choses à
faire" qui sera écrite sur une feuille de papier et à laquelle on se référera pour ne rien oublier.
Mais, dans une expression plus moderne, la check list devient informatique, et elle devient alors
un véritable outil, à la fois pour ne pas oublier de tâches essentielles, mais aussi pour suivre leur
déroulement et les associer de commentaires. Les systèmes de gestion automatisés permettent
alors de planifier une opération avec un groupe de "réalisateurs", en tenant compte des contacts
possibles, des experts, des personnes qui voyagent ou qui ont déjà acquis une connaissance des
faits, etc. Ainsi, dans sa réalisation moderne, la réalisation d'une check list pour une opération
particulière devra tenir compte de ce qui a été fait dans des situations semblables (surtout au
niveau de la réminiscence de ce qui n'avait pas bien fonctionné). Elle devra aussi être
soigneusement réalisée en tenant compte des détails. Cela ne veut pas dire que l'on doive
introduire une sorte de charte de qualité, ni faire en sorte que la recherche d'information soit mis
à une norme ISO quelconque, mais, il faut simplement préparer en professionnel une opération
de recherche de recueil, d'analyse, de gestion des informations et donc mettre le plus d'atouts de
son côté. Je pense personnellement que c'est une erreur que de vouloir placer un service
de Veille et d'Intelligence Economique à une norme de qualité quelconque. Ce sont les
processus de gestion et de management de l'information qui peuvent l'être. Peuvent aussi
être concernées les recherches d'informations formelles, puis ensuite la diffusion des produits du
service.
Mais, l'organisation de la recherche, l'initiative qui doit être laissée aux experts, les processus de
compréhension, ne doivent en aucun cas être instrumentalisés par des normes et des chartes
quelconques. Il faut éviter les rigidités de tous ordre et augmenter la souplesse générale.
Utilisation et réalisation d'une check list:
A partir d'une cible qui a été fixée, ou même pour mieux rationaliser un processus de Veille ou
d'Intelligence Compétitive, on va établir, avec des experts une sorte de canevas qui va permettre
de tisser globalement la toile de fond sur laquelle l'opération sera menée.
On analysera les différentes étapes:
1 - Le plan de renseignement:
Analyse des sources d'information, formelles, informelles.
2 - Recueil des informations et analyse:
a - Recherche des informations.
i - Qui fait quoi, à quelle vitesse, à qui sont transmises les informations.
ii - Comment les informations vont elles être gérées, c'est à dire placées dans un
système quelconque permettant leur dissémination ainsi que leurs
commentaires.
b - Analyse et corrélations.
i - Les informations à analyser justifient-elles d'un traitement préalable ?
ii - Si oui, qui le fait, où sont placés les résultats.
3 - Consultation d'experts, comprendre:
La compréhension des informations.
i - Quels sont les experts associés à l'objectif ?
ii - Les informations sont-elles transmises en flux continu, ou en batch avec
collation des réaction des experts et réunions ? Utilise-t-on le modèle groupe
de travail en messagerie électronique, comment les commentaires sont ils
gérés, par qui, qui fait la synthèse finale.
4 - Transmettre, quoi, comment, à qui ?
Les produits issus du service.
i - Pour qui, à quel niveau hiérarchique, sous quelle forme ?
ii - Qui transmets ?
5 - Animation de l'ensemble
Comment, avec quelle considération pour ceux qui agissent.
Exemple de check list moderne
Elle peut être détaillée pour chacune des opérations. Elle peut s'appuyer ou être en liaison avec
des bases de données de personnes ou avec la mémoire de l'entreprise. Elle peut contenir des
informations sur les concurrents. Cette liste peut être réalisée sur un système informatique dédié,
mais on peut aussi faire dériver des fonctions de certains programmes, entre autres organiseurs
pour gérer tout ou partie des opérations..
Il est important de noter toujours qui fait quoi, avec les adresses; les téléphones, les
déplacements. Pour les experts, il faut avoir accès à leur fiche signalétique, à la fois pour leur
expertise actuelle, mais aussi pour savoir comment leur passé peut contribuer à l'analyse et à la
compréhension des faits.
On peut, dans certains cas, utiliser des systèmes faisant appel à des bases de données de
personnes dans l'entreprise ainsi qu'à des agendas électroniques Lotus Smart Suite par exemple.
L'objectif étant toujours de laisser la plus grande place à l'initiative tout en maîtrisant les dérives,
et de laisser aussi la place à l'innovation et à l'imagination. Mais, en s'entourant d'un certain
nombres de précautions pour ne pas passer à côté de l'essentiel.
Il n'existe pas de produits informatiques dédiés à de telles opérations sur le plan commercial. On
peut en réaliser un, mais aussi comme nous l'avons déjà souligner, utiliser les fonctions de
certains programmes de gestion du temps. On notera par exemple le nouveau Sidekick 97 de
Borland, qui outre les fonctions classiques d'un organiseur, permet aussi d'imprimer les tâches à
effectuer ou les caractéristiques des personnes avec lesquelles on doit prendre contacts, il tiendra
compte des décalages horaires. On pourra aussi citer des gestionnaire de contact. Signalons
aussi Contact Browser qui en outre est un shareware, etc. Les programmes de gestion de projets
du type PERT (PSN7 sous Windows par exemple) peuvent certes être utilisés, mais l'essence
même des opérations de renseignement, de Veille, d'Intelligence, ne rentrent pas à mon avis tout
à fait dans cette catégorie.
18.6 - Les technologies stratégiques françaises
L'année passée, le Ministère de l'Industrie a réalisé une étude pour déterminer les principales
(105) technologies françaises. Un livre récapitulatif: les 100 technologies du futur a été édité à la
suite de ce travail (L'annuaire des Technologies clés, Ministère de l'Economie des Finances et
de l'Industrie, Secrétariat d'Etat à l'Industrie, Délégation à la Communication, 20 av. de
Ségur, 75353 Paris 07 SP ou http:www.industrie.gouv.fr).
Nous allons retracer rapidement la méthode qui a été utilisée, car elle peut bien se replacer dans
un contexte d'hyperinformation. Elle est en effet basée sur des critères généraux déterminés par
les experts du Ministère, puis procède par différentes phases de travail d'experts, positionnement
des technologies et choix définitif. Le lecteur pourra, selon les circonstances auxquelles il doit
faire face, s'inspirer au niveau méthodologique.
18.6.1 - Méthode utilisée pour les choix
Directives générales: au plan général, il a été décidé que l'examen des technologies qui allaient
être détectées devrait se faire en tenant compte du "Market Pull" et du "Technology Push".
On retrouve ici l'idée générale que "quelque chose se passe toujours "à l'intersection de la R&D
et du Marketing."
Phase 1. 9 critères sont déterminés:
Les marchés de référence et les marchés potentiels
L'impact direct sur l'exportation
L'acceptation sociale ou l'incitation sociale (pour les technologies concernées)
L'intérêt pour le soutien des avantages de nos produits
La vulnérabilité et l'indépendance industrielle
Les besoins nationaux (défense, santé, énergie...)
L'impact global sur les différentes industries nationales
Phase 2. Elle va consister en la création par le Ministère de 10 groupes d'experts, 5 orientés vers
le marché et 5 autres vers les technologies. Chaque groupe comprend de l'ordre de 15 à 20
experts.
Les cinq premiers (market pull) traitent de: santé et environnement, services et
télécommunications, systèmes de transport, infrastructures, biens de consommation courante.
Les cinq autres (technology push) de biologie, médecine et biotechnologie, information, énergie,
sciences pour l'innovation la conception et la production, matériaux et technologies associées.
A partir du travail de ces 10 groupes, on sélectionne une liste de 676 technologies
Phase 3. On va analyser les technologies précédentes en fonction du positionnement de celles-ci
au plan mondial, puis au plan européen, puis en tenant compte de la position française dans le
domaine (programmes de recherche, potentiel académique et industriel), brevets....
Pour mieux réaliser ce positionnement, on utilise des outils bibliométriques, et on tient compte
en outre de l'analyse des brevets, des aspects scientifiques: publications, etc....
La sélection conduit alors à 136 technologies.
Phase 4. On réalise un dernier examen au cours duquel on réduit encore le nombre, pour arriver
à 105 Technologies stratégiques. Un examen de ces 105 technologies montre sans doute pour la
première fois la prise en compte par le Ministère de l'Industrie de systèmes technologiques
transversaux, dans lesquels entrent des normes, l'analyse de certaines conditions de travail, la
documentation technique...
18.6.2 - Représentation synthétique
Phase 5. La représentation des technologies.
Dans cette phase, les technologies sont présentées suivant un modèle Atout-Attrait. On va
indiquer sur un graphe un triple positionnement: d'un côté le degré d'attractivité de la
technologie, de l'autre la capacité nationale de réussir dans le domaine, enfin la taille du cercle
représentant sur le graphe cette technologie avec un diamètre plus au moins fort (cinq niveaux),
selon que l'on peut mettre facilement en place un projet dans ce domaine au niveau national.
Technology Watch and Competitive Intelligence
Strategic Technologies
• Final selection e.g. transport technologies
•A
T
T
R
A
C
T
I
V
E
N
E
S
S
78 78
Automobiles weight
reduction
vehicle air conditioning
70
Facilities to conduct the
a project size 1 to 4
noise reduction in vehicle
80
69
Electric vehicle battery
Best chances to develop the technology
C.R.R.M.
On constate bien, dans cet exemple, l'importance qui est donnée aux experts. Cela veut dire que
si dans un domaine donné, l'intelligence nationale du domaine est faible, on risque d'amplifier
certaines erreurs. Ce n'est sans doute pas le cas pour la France, mais pour d'autres pays,
lorsqu'ils ne sont pas aussi technologiquement avancés, il faut être très prudent et valider les
résultats de multiples façons, en les critiquant.
La mise en oeuvre des 10 groupes d'experts, le suivi des travaux, la rédaction, etc... avaient été
confiés à un cabinet de consultants.
18.7 - Une revue électronique internationale: ISDM
Les difficultés actuelles des publications se heurtent souvent à des problèmes financiers, surtout
du côté de l'éditeur qui doit réaliser des publications commercialement hors déficit. C'est ainsi
que l'analyse des abonnés par pays, les thèmes traités, l'impact de la langue, .... vont rejeter la
majeure partie des productions qui ne seraient pas directement centrées, dans une langue
accessible, sur les sujets d'intérêt des lecteurs.
Nous avons vu aussi dans un des chapitres précédents, ce qui avait été écrit à propos des
expériences ne donnant pas de résultats positifs, dans le Courrier International: du fait des
contraintes économiques, ces résultats étaient presque systématiquement refusés par les revues
(donc en fait par les éditeurs, et in fine par les Comités de Lecture).
Dans une analyse réalisée il y a fort longtemps (Existe-t-il encore une expression française en
chimie, Information Chimie, vol. 231-241, 1982), nous avions par des méthodes
bibliométriques typé les sujets publiés par un certain nombre de revues, analysé leur nombre, le
nombre de pages annuelles, etc.... pour constater que la constance de ces chiffres obéissaient
plus à des impératifs commerciaux qu'à des impératifs scientifiques.
Premier écran de présentation internet de la revue ISDM
Dans le domaine concerné par cet ouvrage, nous avons été confronté avec le problème lié à la
diffusion des recherches et travaux effectués dans ce domaine. La communauté scientifique n'est
pas excessivement grande, il y a certes des lecteurs potentiels, entre autre au niveau industriel,
mais le nombre de revues dans lesquelles ont peut s'exprimer est restreint. Les contraintes sont
fortes; revues trimestrielles, avec nécessité d'écrire en anglais. C'est à dire, que dans un domaine
où la finesse d'expression et de narration ou de commentaire des faits est importante, on se
trouve, lorsque l'on est pas angliciste, devant un surcroît de travail important.
D'autre part, il est rare qu'une seule revue couvre l'ensemble du contexte de travail et de
recherche, et de ce fait les abonnements doivent être multiples. Ne concernant pas une grande
communauté, ils ne sont donc pas pris en charge dans la majeure partie des cas par une ou des
bibliothèques. Le coût de ces derniers devient donc rapidement trop important pour un simple
laboratoire.
Nous avons donc décidé, devant cette situation, de créer une revue électronique internationale
diffusée sur Internet. L'objectif était de permettre aux chercheurs de cette discipline de
s'exprimer, et d'autre part, à partir d'un comité de lecture international et reconnu de donner aux
travaux publiés dans la revue une reconnaissance.
L'ensemble est diffusé via l'internet. Un abonnement papier est certes proposé, mais son prix doit
être dissuasif, du fait que c'est vers le système électronique avec mot de passe individualisé que
nous nous orientons.
Comme la revue est accessible facilement au niveau international, et que d'autre part les revues
électroniques sont prises en compte par les organismes de gestion des publications, celle-ci a un
ISSN, ce qui au plan éditorial atteste de son existence.
La langue utilisée:
L'objectif poursuivi est de rendre accessible aux lecteurs le maximum d'informations possibles,
de bonne qualité, nous avons choisi notre Comité de Lecture de manière à ce qu'il reflète une
forte pluralité internationale.
Le choix de la langue, des langues devrait on dire, a été uniquement basé sur les
contraintes informatiques: tout ce qui peut être lu en HTML et diffusé comme tel est
accepté. Les publications soumises doivent nous parvenir sous forme de disquettes, ou comme
fichier attaché à un e-mail. L'objectif est, soit par l'intermédiaire du texte complet, soit d'un large
résumé en anglais, de favoriser le contact entre l'auteur et ceux qui seraient intéressés par le
travail. La possibilité par le "coupé-collé" de rédiger des mails reprenant facilement les résultats
et les commentant rendra de ce fait l'interaction plus vivante et donc, la collaboration. En outre,
les textes portant aussi les e-mail des auteurs, on passera facilement du niveau de la consultation
à celui de la communication.
Le format des données:
Le standard est Winword. On n'examine et donc on n'acceptera que ce qui est contenu dans une
disquette, sous forme d'un fichier unique. D'autre part, si la disquette contient un virus, elle
ne sera pas lu mais détruite.
Souvent, lors de la transmission de fichiers attachés avec des e-mail certains problèmes se posent
au niveau de la transmissions des caractères riches, sans compter la possibilité de transmissons
de virus, entre autre les macro-virus associés à des fichiers .DOC qui contaminerons ensuite le
fichier Normal.dot de Word.. C'est la raison pour laquelle nous préférons actuellement une
disquette. Nous ne voulons pas en effet introduire une pesanteur particulière au travers d'un
logiciel de transfert ou de consultation. Des produits commerciaux, voire gratuits existent, il faut
les utiliser.
On pourra nous reprocher de ne pas être assez "pointus" au niveau informatique, mais, lorsque
l'on veut travailler au niveau mondial, la plate-forme technique va nécessairement s'élargir et la
spécificité diminuer.
Pour les langues comme l'Espagnol, le Français, le Portugais, les transcripteurs directs en HTML
permettent de régler le problème des caractères enrichis. Evidemment cela exclura l'Arabe, le
Russe, le Japonais, le Chinois (*), le Coréen, mais ces pays pourront s'exprimer en anglais. Par
contre, une langue comme l'Indonésien, pourra parfaitement être utilisée.
Le problèmes des schémas sera réglé puisqu'ils seront directement incorporés dans le texte de
Winword. Les tableaux devront être les plus simples possibles. (Ceci est indiqué dans les règles
de rédaction accessibles via l'internet).
(*) En ce qui concerne le chinois, il faut signaler que des logiciels commerciaux permettent, en
étant appelés depuis Winword, de forunir une interface (bandeau en bas de l'écran) qui va
permettre d'écrire en chinois avec un Winword en français. Ceci est pratique et permet de
réaliser des textes en chiniois ous Winword. Ces textes pourront ensuite être "imprimés" avec
l'imprimante virtuelle d'Adobe au format PDF. On pourra ensuite les lier à des applications
HTML et donc les diffuser sur l'Internet (http://idsrm.u-3mrs.fr)
Exemple du programme Winword français, avec la saisie de textes en chinois
Une saisie, des produits diversifiés.
On retrouve bien dans cette réalisation les principes de base de la saisie unique, avec la
réalisation potentielle de différents produits:
* Internet avec la Revue Electronique,
* Possibilité de créer un CD-ROM regroupant les différentes publications pour réaliser un
stockage et une diffusion à faible coût postal. Le tout pouvant se faire soit en HTML, soit sous
forme Acrobate si cela est nécessaire.
* Possibilité de réaliser des intranets locaux dans des bibliothèques par exemples, en autorisant
le télédéchargement du sommaire ou des textes de la revue.
* Possibilité de réaliser, une diffusion contrôlée, par exemple le sommaire en accès libre, le texte
des communications en accès contrôlé par mot de passe.
18.8 - Une simple question de bon sens
Récemment, dans un article d'un journal local, un rapport de la DDE, indiquait que La ville
d'Aix-en-Provence serait, dans les cinq années qui viennent de plus en plus difficle à atteindre à
depuis Marseille à certaines heures de la journées.
Le Provençal Mardi 3 Décembre 1996:
"Aménagement des Bouches du Rhône,: diagnostic alarmant. Rapport présenté le 2 Décembre 1996 à la
DEE et préfacé par le Préfet Hubert Blanc.
Embouteillages à Marseille. Les experts estiment que dans les cinq ans l'ensemble des autoroutes de
pénétration dans Marseille sera saturé. Ils prévoient une congestion totale de la zone aixoise dans les dix
ans."
Rapport: La Région urbaine marseillaise, métropolisation et développement durable, sous le
direction d'Eric Brassart, DDE13, édition de l'Aube, 1996.
Les temps de trajet en voiture, étant de l'ordre de 2 heures, pour 2002. Bien que cette
information soit digne de fois, et comme il semble bien que la situation économique ne changera
sans doute pas, j'ai été étonné de voir que cette situation prévisible ne générait que peu ou pas
de questions de mes interlocuteurs. Pourtant, les conséquences de ces ralentissements auront
certainement des répercussions sur le développement et surtout sur les modes de travail.
Comment peut on aborder, aprés cette information la question ?
On va analyser, puisqu'il s'agit avant tout d'un problème de trajet, la situation géographique entre
les deux pôles (Aix et Marseille), puis on passera ensuite à des projections au niveau du
développement économique?. Restera alors, si les informations sont validées, à tirer certaines
conclusions.
Tout d'abord, consultons une carte (extrait de Marseille Provence Economie, CCI Marseille
Provence, Juin 1997)
La situation géographique entre les deux pôles:
* les voies routières. Elles sont principalement constituées par l'autoroute entre Aix et Marseille,
qui est en cours d'élargissement à certains niveaux (passages de deux à trois voies).
* les voies de chemin de fer: il existe une liaison ferroviaire qui fonctionne déjà entre Aix et
Marseille, mais l'analyse montre que c'est une mono voie, et donc que les possibilités de trafic
sont très limitée.
* le transport par autocars, il existe déjà, mais il emprunte la même voie autoroutière, et de ce
fait subira les mêmes retards que les voitures.
* le TGV, la gare du TGV sera en 2001 à Marseille et côté Aix, au niveau de l'Europôle de
l'Arbois. Mais, il est peu probable, sauf exception, qu'il y ait un trafic spécifique entre ces deux
points et par cette voie. Encore que cela puisse être possible à certaines heures.
La situation démographique:
Entre deux référendums, Marseille a perdu environ 70.000 personnes. Elles ne font en fait que
quitter la ville pour s'établir dans la périphérie. L'ensemble Marseille Aix, est de l'ordre de
1.200.000 habitants.
La situation économique:
Il semble bien que le développement économique va se situer au niveau des industries
électroniques, vers la zone d'Aix: ZI d'Aix les Milles (le seul Technopôle spontané de la région
Provence Alpes Côte d'Azur), la vallée de l'Arc, et la zone de Rousset.
En outre, les données de l'Observatoire Economique des Bouches du Rhône (CCI Marseille
Provence, Direction des Affaires Economiques) (Echo Info 13, 1997, Observatoire Economique
des Bouches du Rhône) nous indiquent que:
"La Ville de Marseille assurant un rôle attractif pour les déplacements domicile travail, on assiste
à une explosion du trafic entre la Ville et sa périphérie."
Cet ouvrage constitue en outre un ensemble de renseignements très utiles sur la géopolitique de
la Région Provence Alpes Côte d'Azur. D'autres données économiques sont aussi disponibles
dans: Marseille Provence, l'Economie, CCI Marseille Provence Juin 1997.
Et maintenant, anticiper, qui, comment, pourquoi, quand ?
Cette analyse rapide montre comment à partir d'une simple information paru dans un journal, il
va falloir l'analyser à la lumière d'un nombre d'informations complémentaires de plus en plus
important. Le rapport en lui même, cité par le Journal pourra aussi être consulté, s'il est
disponible, mais c'est surtout l'ensemble des faits liés à l'information principale qui sera utile.
Ensuite, selon l'activité, la localisation de l'entreprise, le flux des personnes se déplaçant, leur
domicile, etc... on en tirera un certain nombre de conclusions qui pourront toucher à
l'aménagement du temps de travail, au système de communication entre les personnes, à la
répartition du travail, etc. Sûrement, cette approche analytique permettra de prendre à temps, un
certain nombre de mesures destinées à minimiser les inconvénients qui seront créés par
l'encombrement du trafic.
Au niveau des collectivités locales et de certaines instances politiques, il faudra bien, avant qu'il
ne soit trop tard, que l'on accepte les faits, tels qu'ils sont, avec leurs implications. La notion
d'anticipation devra être bien plus présente qu'elle ne l'est actuellement. Mais, le corrolaire sera
aussi que les citoyens, qui votent et dans ce sens sont en fait "solidaires" des élus, aient aussi un
reflexe de perception, d'information, d'analyse et de mémoire ! Faute de quoi, quand il y aura
urgence, les mesures seront prises par des circuits trés différents, remettant en cause les
structures chargées d'analyser de préparer, voire de prendre les décisions.
18.9 - Accès aux Informations par combinaisons de CD-ROM et de
textes
Nous nous devons, même si le sujet peut sembler un peu éloigné du thème central de ce livre,
signaler une manière d'accéder aux données qui est entrain de se développer: c'est la synthèse
entre le CD-ROM et les textes imprimés. Cette manière d'accéder aux données va simplifier le
travail de l'utilisateur. Elle devrait normalement évoluer vers une utilisation plus globale, où les
textes intégraux, au lieu d'être recherchés directement à partir d'un ou de plusieurs CD-ROM
puis consultées sur le produit papier, seraient directement disponibles sur le support
informatique.
Mais, cela ne se réalisera pas rapidement d'une part à cause des volumes mis en jeu et des mises
à jour, d'autre part à cause de la protection du chiffre d'affaires de l'éditeur. C'est pourquoi,
compte tenu du fait que la situation actuelle risque de se prolonger, nous présentons tout de
même cette manière d'accéder aux documents.
18.9.1 - Les techniques de l'ingénieur
Elles ne sont plus à présenter. Elles constituent un compendium de toutes les techniques, avec
un certains nombre de thèmes traités par des spécialistes de haut niveau. Elles constituent ainsi
au niveau du patrimoine technique une source d'informations générales, importante pour les
personnes dont le métier est d'aborder des domaines techniques. Cet ouvrage permettra une
vision rapide du sujet, et donc situera un certain nombre de problèmes pour ensuite permettre
d'aller plus avant dans la collecte de l'information. (http://www.techniques-ingenieur.fr)
Il existe les ouvrages papier, généralement accessibles dans les bonnes bibliothèques. Mais, la
consultation en est parfois longue, compte tenu du fait que des thèmes peuvent être
transversaux, qu'on ne connaît pas trés bien le vocabulaire, ou les têtes de chapitres, etc. De
plus, le problèmes peut se compliquer puisque les observations deviennent globales et sont
souvent en langue anglaise ou en d'autres langues. Pour apporter une solution à ces différents
problèmes, les Techniques de l'Ingénieur on publié deux CD-ROM:
* Le lexique des termes techniques en anglais, français, allemand et espagnol
* L'index de la collection
18.9.1.1 - Le lexique des termes techniques
Il est constitué par un CD-ROM qui va permettre de rechercher si un terme technique est
présent dans l'ensemble des travaux présentés par les Techniques de l'Ingénieur. Le choix des
termes techniques étant le fait de l'analyse des experts de la collection. Le terme est formé d'un
ou plusieurs mots pouvant être associés par des opérateurs booléens ou tronqués avec des
opératuers de troncatures. La recherche conduit alors à l'affichage des termes, avec le domaine
des techniques de l'ingénieur concerné, la traduction, et en même temps selon le cas un schéma
général permettant de situer le terme dans un ensemble plus large.
Représentation d'un écran de recherche à partir du CD-ROM Lexique des termes techniques
(Techniques de l'Ingénieur), Edition PC 1997
Une personne veut situer le terme routeur et pont dans son contexte. Elle ne connaît pas
rigoureusement la technologie, mais elle pense qu'elle concerne l'électronique ou l'informatique.
C'est pourquoi elle sélectionne ces deux termes parmi les domaines où la recherche doit être
effectuée. La fonction recherche (langue française) lui permet de poser la question: pont. Elle
obtient un certain nombre de réponses, parmi lesquelles elle note Routeur/pont (****). Le
domaine concerné est l'Informatique. Elle accède aussi simultanement à la traduction dans les
quatre langues.
En même temps, les quatre étoiles (****) indiquent qu'un schéma de situation est disponible. Le
schéma est visualisé, il situe le terme dans l'ensemble des opérations de mise en place d'un
réseau.
18.9.1.2 - Index de la collection
L'ensemble des thèmes traités par les Techniques de l'Ingénieur, est répertorié dans un autre CDROM, celui de l'index de la collection. Il permet d'accéder par mots clés, ou par thèmes aux
signalements des informations de façon à pouvoir les consulter rapidement dans l'ensemble de
l'édition des Techniques de l'Ingénieur. Noter que les mots clés ne sont pas de la même nature
que les termes techniques précédents.
18.9.1.2.1- Recherche par thèmes
On choisit l'interrogation par thèmes en cliquant sur thèmes. La liste des thèmes apparaît. On
clique sur Informatique (c'était le thème afférent à pont/routeur), puis une liste s'affiche, on
choisit matériel, ensuite on accède à une liste où on va choisir réseaux locaux. On aurra alors
accés au sommaire d'un article traitant de la question et consultable sur les éditions papier des
Techniques de l'Ingénieur.
Ecran de présentation du contenu du thèmes informatique
On va choisir le thème matériel (deuxième à partir du haut sur l'écran), qui est celui
correspondant à pont/routeur. On obtiendra alors l'écran suivant:
Contenu des articles présents sous le thème matériel
On choisit alors équipements de communication ce qui correspond à la recherche entreprise.
On obtient le dernier écran suivant:
Dernier écran obtenu, signalement et sommaire d'un article clé dans le domaine.
Ce dernier écran nous donnera accès à un article de base qui nous permettra de situer le domaine
et éventuellement d'entreprendre des recherches complémentaires ou de situer les informations
que nous avions déjà dans un contexte plus large.
18.9.1.2.2- Recherche par mot clé:
Dans ce cas, on clique sur mot clé. On accède alors à un masque de saisie. On tape un mot clé
dans le masque et on applique la fonction recherche. Dans le cas présent on a introduit le mot
VEILLE.
Ecran représentant le masque de saisie permettant de rechercher les articles qui
traitent du mot Veille.
Parmi les articles obtenus, on a sélectionné celui qui traite de Veille Technologique.
Accès au signalement d'un article traitant de la Veille Technologique et à son sommaire.
Nous avons vu, dans ce mode de recherche, un mode assez semblable à celui utilisé en ligne par
certains serveurs, comme MAID par exemple (MAID est un serveur d'informations
économiques auquel on peut accéder via un tléphone et un modem). On utilise des termes pour
la recherche, puis on obtient une série d'articles. On accède gratuitement au sommaire de ces
articles, et on peut alors choisir ce qui est intéressant pour la personne qui entreprend les
recherches. Elle peut sélectionner à partir du sommaire certaines parties et n'accéder qu'à cellesci.
Ce dernier écran nous donnera accès à un article de base qui nous permettra de situer le domaine
et éventuellement d'entreprendre des recherches complémentaires ou de situer les informations
que nous avions déjà dans un contexte plus large.
18.9.1.2.2- Recherche par mot clé:
Dans ce cas, on clique sur mot clé. On accède alors à un masque de saisie. On tape un mot clé
dans le masque et on applique la fonction recherche. Dans le cas présent on a introduit le mot
VEILLE.
Ecran représentant le masque de saisie permettant de rechercher les articles qui
traitent du mot Veille.
Parmi les articles obtenus, on a sélectionné celui qui traite de Veille Technologique.
Accès au signalement d'un article traitant de la Veille Technologique et à son sommaire.
Nous avons vu, dans ce mode de recherche, un mode assez semblable à celui utilisé en ligne par
certains serveurs, comme MAID par exemple (MAID est un serveur d'informations
économiques auquel on peut accéder via un tléphone et un modem). On utilise des termes pour
la recherche, puis on obtient une série d'articles. On accède gratuitement au sommaire de ces
articles, et on peut alors choisir ce qui est intéressant pour la personne qui entreprend les
recherches. Elle peut sélectionner à partir du sommaire certaines parties et n'accéder qu'à cellesci.
18.10. - Accès aux informations par globalisation, recherche croisée et
corrélats
Différentes façons d'accéder à l'information ont été décrites dans ce livre. Que ce soit au plan
général en utilisant des bases de données, ou, avec des moyens modernes tels que des
hypertextes, des intranets des extranets, ... on accède à des choix multiples, raisonnés,
permettant à la personne qui recherche des informations de se voir proposer des orientations
multiples propres à stimuler sa curiosité ou son esprit d'innovation.
Dans ce cadre, nous avons choisi de mettre en évidence une façon de travailler assez novatrice,
puisque liée à un CD-ROM et à des liens très performants. Cette une base de données portable
ne nécessite pas de liens avec l'extérieur et rend ainsi autonome l'utilisateur. C'est la manière de
présenter l'information qui a été choisie par l'Encyclopaedia Universalis. Nous allons la décrire
brièvement.
18.10.1 - L'Encyclopaedia Universalis
L'Encyclopaedia Universalis est trés connue, surtout pour les éditions papier, dont de nombreux
volumes, permettentun accès à un ensemble unique de connaissances. Les articles sont écrits par
des spécialistes et contiennent un certain nombre de données. L'ensemble est structuré de telle
sorte que des corrélats sont créés entre les différentes contributions présentées. Ce sont en
quelque sorte des renvois spécifiques qui à partir d'un sujet donné vont renvoyer à un autre sujet
corrélé avec le précédent. Ce nouveau sujet, s'il est approfondi contiendra aussi des liens
(corrélats) avec d'autres sujets et ainsi de suite. Ainsi, le lecteur n'est plus confronté à une seule
lecture séquentielle, où il lui faut parcourir un article, puis passer au suivant, etc. En fait
l'apparition des technologies de l'ypertexte et du CD-ROM ont permis le développement d'une
manière d'accéder à l'information originale.
C'est en ce sens que nous propoposons cet exemple, à la fois pour montrer comment travailler
avec cette source d'information, mais aussi comme exemple qui peut être utilisé dans la diffusion
de produits d'information. La même façon de procéder est possible via un intranet ou un
extranet, il faut s'en inspirer.
18.10.1.1 - La méthode de recherche et d'accés à partir d'une question
de base
Nous avons choisi de traiter la question suivante: SHANNON. Ce chercheur est connu pour son
travail sur la thérie de l'information. On va donc utiliser son nom comme clé de recherche, et
utiliser l'option qui consiste à travailler sur tous les textes de l'Encyclopédie présents dans le CDROM. (Nous ne sommes pas dans ici dans un cas identique aux techniques de l'ingénieur, ou
seulement le sommaire des articles est accessible.)
Ecran montrant le résultat de la recherche du terme SHANNON sur l'ensemble des textes
On constate que le terme génère dans la partie gauche d'autres thèmes qui contiennent ce nom.
Nous avons choisi le thème INFORMATION (THEORIE DE L'), et le résultat est affiché dans
la partie droite de l'écran. En haut du texte affiché se trouve un bandeau comprenant les termes
auteurs, sources, corrélats. On peut alors à partir de ces derniers connaître la bibliographie de
l'article que l'on visualise (sources), ou à partir des corrélats accéder à des thèmes concernés
aussi par cet article.
Dans le cas présent, on a utilisé les corrélats et le terme COGNITIVES (SCIENCES). On
accède ainsi à un nouvel article traitant de ce problème, mais relié à l'article initial.
Corrélats, choix d'un domaine et article concerné par ce dernier
Une autre façon de procéder, consiste aussi à choisir des articles différents qui contiennent le
nom SHANNON, comme par exemple ECHECS (JEU D'). A partir de cet article, on pourra
avec ses propres corrélats aller vers d'autres articles comme par exemple celui qui est présenté
ci-dessous.
Autre façon d'utiliser les corrélats
18.10.1.2 - L'exemplarité de la méthode
On constate donc la puissance de ces méthodes de recherche. Elles sont utiles au plan de la
connaissance du produit qui est présenté ici, mais elles ont surtout valeur d'exemple. Elles
préfigurent ce que devrait être un Intranet ou un extranet convenablement conçus, pour
permettre une exploitation complète et intelligente de l'ensemble des documents disponibles dans
une entreprise. Bien sûr il est évident que l'organisation de cet ensemble ne sera pas
complètement automatisé, et qu'il faudra que des personnes donnent au système son intelligence.
Mais, cette façon de faire deviendra sans doute classique dans quelque temps. En outre les
possibilités de liaison par réseau par exemple la messagerie et l'internet, conduiront à des
systèmes mixtes, ou des compléments quasi instantanés pourront être obtenus en prenant
contacts directement avec les experts ou les personnes concernées.
En outre, au niveau de l'archivage, ou au plan de la réalisation de produits d'information ayant
une certaine durée de vie et importants pour l'entreprise, on constate combien ces systèmes qui
contiennent une certaine "intelligence" s'éloignent de la GED classique. Notons par contre que
des produits comme ACROBAT d'ADOBE, permettent de concevoir des produits d'information
hautement performants sans avoir recours à un matériel trop sophistiqué. On laisse ainsi toute la
place nécessaire à la création des informations, à leur agencement, ainsi qu'à la création des liens
qui vont apporter des éléments ou des visions innovantes dans le système.
La possibilité d'archiver rapidement des produits papiers par scannérisation, des textes, des
images, des sons sous forme électronique conduit à agréger facilement la matière de base.
Ensuite, les facilités de manipulation et de création d'informations ou de cheminements originaux
ouvrent la voie à des produits hautement très performants pouvant stimuler la réflexion.
Ces produits ne seront pas confectionnés automatiquement, car ce n'est pas un programme
informatique qui déterminerait les corrélats. Mais, ce sera des experts qui apporteront, par leur
expertise et leur travail, une valeur ajoutée très forte aux produits.
C'est en ce sens, ce qui vient d'être présenté au niveau de l'Encyclopaedia Universalis a valeur
d'exemple.
Pour ceux qui auront la curiosité de visiter le site Internet de l'Encyclopaedia Universalis,
pourront constater que le potentiel d'information offert par le système CD-ROM ou Universalis
papier s'étend au delà de ces systèmes. En effet, en créant un Club Utilisateurs de
l'Encyclopaedia Universalis, et sans doute un forum ou des listes de diffusion, on va rendre actifs
les "clients", et leur faire mettre en commun une partie de leurs connaissances personnelles. Sans
aucun doute la synergie sera forte. On retrouve ici la tendance décrite dans l'étude de cas
concernant la recherche sur l'agilité.
19 - Enseignement
On ne peut pas finir cet ouvrage sans consacrer un chapitre à l'enseignement. J'expose ici des
idées générales qui sont les miennes, mais qui sont aussi partagées par certains. Le but est
simplement d'ouvrir la discussion et de montrer que le développement des attitudes, des
pratiques devient le fait de tous. Les technologies de l'information ne se cantonnent plus dans
une étroite niche d'un programme, ou dans la pratique documentaire. Elle constituent un trait
d'union entre les disciplines, par leur pouvoir de synthèse et de parcours diversifié.
Nous avons vu, tout au long de ces présentations, qu'une des caractéristiques de base de
l'hyperinformation était d'être curieux, d'avoir une vision pluridisciplinaire importante, une
spécialité de base (ces disciplines nouvelles s'inscrivent dans le cadre d'une double, voire
actuellement d'une triple compétence)., et d'avoir une connaissance de l'entreprise.
Ceci étant posé, on se rend compte que peu de formations actuelles répondent à de telles
spécificités. La formation opérationnelle, pour aller ensuite vers l'industrie ou des institutions,
c'est à dire pour appliquer et travailler, doit se situer au niveau des troisièmes cycles, mieux
encore au niveau d'un doctorat qui serait tourné vers les problèmes de développement, de
l'entreprise et qui fournirait des cadres avec l'expérience nécessaire pour débuter dans
l'entreprise sans constituer pour celle-ci une charge supplémentaire souvent lourde, et sans
doute trop lourde pour les PME et PMI, mais acceptable pour les grandes entreprises.
Pour les PME et PMI, le niveau de maîtrise, avec des aménagements pourrait être suffisant, à
condition, que les enseignants ne soient pas limités par des maquettes rigides issues du
Ministère et qui ne peuvent pas tenir compte des changements très rapides intervenant au
niveau des techniques, des méthodes et des applications. Nous reviendrons sur ce dernier
point.
Mais, avant tout, il me semble que c'est bien avant dés l'enseignement primaire, le collège et le
lycée, que les élèves devront apprendre à introduire dans leur comportement une approche
active vis-à-vis de l'information. Cela veut dire, que les programmes ne devront plus
constituer une base intangible, conduisant l'enseignant à figer ses pratiques et à rester
passif devant les évolutions historiques qui se produisent actuellement. Pour permettre
aux élèves d'intégrer ces comportements nouveaux, il me semble que les technologies de
l'information et de la communication devraient être intégrées d'une manière plus importante au
plan de l'enseignement. Non pas au strict niveau documentaire, mais dans les cours eux mêmes.
En effet, prenons un exemple: l'informatique n'a pas pour objectif d'apprendre à programmer.
C'est bien sûr une de ses composantes, mais avant tout elle devrait permettre à un élève de
mieux comprendre par les effets de simulation d'elle rend possible. Le pendule à ressort, les
équations mathématiques avec les variations introduites dans la représentation graphique
lorsque les paramètres changent, sont les exemples types qui peuvent être traités par
l'informatique, l'élève pouvant par approximations successives trouver les grandes lois et les
principaux paramètres régissant l'évolution du système. Cela est possible parce que
l'informatique permet la visualisation des résultats très rapidement, surtout au niveau
graphique.
19.1 - Les révélateurs, les catalyseurs
Lorsque l'on prend une photographie, et qu'on la développe, on passe par une étape qui utilise
un révélateur, qui va permettre de visualiser l'image. Quand un chimiste met en présence
certains composés, il peut très bien ne rien se produire, par contre, l'introduction d'un
catalyseur va conduire les composés en présence à réagir, et parfois de façon violente.
A mon avis, les technologies nouvelles, l'internet, jouent le rôle de révélateur, de
catalyseur. En mettant en évidence les lacunes, les immobilismes voulus ou contraints, en
laissant présager des différenciations de plus en plus fortes entre étudiants mais aussi entre
enseignants, ces techniques et méthodes modernes contribuent à "mettre à plat" un certain
nombre de tabous, que ce soit au niveau de la didactique, de la pédagogie et de la structure
même des enseignements.
19.1.2 - Les technologies nouvelles
Les technologies nouvelles servent de révélateur. En effet, ces nouvelles façons de pratiquer,
d'avoir chez soi à disposition, de manière interactive, des masses de connaissances structurées,
disponibles avec des présentations attrayantes, de la couleur, du son, des animations,…
introduisent un malaise: l'élève, l'étudiant, peuvent avoir chez eux des outils bien plus
performants à la fois sur le plan ludique et didactique que ceux qui leur sont présentés à l'école,
à l'université. Ceci crée, à la fois au niveau de l'enseignant, puis au niveau de l'enseigné, un
malaise qui n'est que le révélateur de changements de pratiques et de paradigmes. On entre
dans une période nouvelle où l'action personnelle d'apprendre va voir ses résultats décuplés par
l'utilisation de moyens nouveaux et efficaces. Cela pose un double problème: le décalage
comme nous l'avons souligné dans les chapitres précédents et d'autre part la notion de niveau
minimal qui devrait être présent au niveau scolaire ou universitaire pour ne pas créer de
décalages trop grands.
On ne pourra pas, en effet, empêcher ceux qui en ont les moyens ou la volonté de disposer
chez eux des infrastructures de base leur donnant à la fois une ouverture sur le monde et une
manière rapide d'accéder puis d'assimiler des connaissances nouvelles.
Cela pose aussi, à terme le problème de l'évolution du corps enseignant. Il est bien évident que
devant la masse et la vitesse de propagation des ces systèmes nouveaux, se reposer uniquement
sur la formation de l'enseignant en préalable à l'introduction de nouvelles technologies ou de
nouvelles méthodes (pour avoir participé à de nombreuses réunions, j'ai pu apprécier la peur
générée par le clavier, l'aversion à la saisie informatiques des notes parce qu'on est trop âgé! la
soi disant non adaptation de ces technologies aux littéraires, etc. j'ai aussi constaté la facilité
de repli de camouflage et d'alibi offerte à certains par ce nouveau sujet). Les enseignants
devront donc par une démarche volontaire acquérir eux mêmes les comportements et les
connaissances nécessaires à l'intégration de ces outils nouveaux. Le feront ils sur leur lieux
de travail, chez eux, dans des associations, qu'importe! Car il faudra bien les intégrer puisque
les élèves eux n'attendent pas et vont de l'avant tout seul, en groupe ou avec leurs parents. Une
fracture pourrait très bien se produire. Alors le décalage entre les méthodes deviendrait de plus
en plus grand jusqu'à atteindre l'insoutenable pour certains élèves.
L'intégration de la formation aux technologies nouvelles dans les IUFM pour la formation
initiale des enseignants devient désormais plus importante qu'une formation disciplinaire pure.
19.1.3 - L'Internet
Par la très grande médiatisation qui en est faite, l'Internet constitue un phénomène qui va sans
doute s'amplifier encore, sans que l'on puisse bien prévoir les conséquences de celui-ci. En
effet, dans le cas du Minitel, la facturation en kiosque (avec un coût parfois très important),
limitait le temps d'utilisation et interdisait pratiquement aux élèves et aux étudiants une
utilisation intensive. Avec les dernières propositions sur le câble et avec des vitesses d'accès
très importantes pour un abonnement de 270 francs par mois et une utilisation illimitée, avec
sans doute la même stratégie pour l'accès à ce média par le téléphone classique (les nouveaux
opérateurs le proposeront certainement), la limite d'utilisation ne sera plus un obstacle. Ainsi
toutes sortes de services pourront se développer, des approches diverses, des analyses
différentes, seront accessibles, conduisant l'enseignement à prendre en compte ce nouvel accès
à la connaissance au décloisonnement et à l'ouverture sur le monde.
L'enjeu est de taille. En effet, l'ergonomie, la facilité d'utilisation, le faible coût des accès font
que le système ne relève plus d'une formation ou d'un apprentissage des enseignants ou des
enseignés, mais d'une culture nouvelle.
Il n'est plus possible de dire "l'Internet je n'en ai pas besoin parce que ce n'est pas dans le
programme". Si on donne encore prise à de tels propos, c'est peut être plusieurs générations
d'élèves qui seront sacrifiées le terme est sans doute trop fort, mais certainement décalées par
rapport à la réalité et à l'évolution du monde.
Les USA, au mois de Novembre 1997 viennent de créer 400.000 emplois. Toute proportion
gardée (au plan du volume de la population), on aurait du en créer environ 70.000 ! à ma
connaissance c'est 3.000 seulement qui on été effectivement créés. A quoi cela sert-il de dire
que nous avons le meilleur enseignement du monde, si au bout de compte c'est pour ne pas
avoir la possibilité d'intégrer nos enfants dans le monde du travail ?
19.2 - Quelques éléments pour agir vite
Peut on rattraper le retard ? Bien des journaux ont souligné que le retard pris par les
établissements scolaires français (qu'il soient publics ou privés, c'est la même chose lorsqu'il
s'agit de pratiques d'enseignement) était alarmant. Le Ministre de l'Education Nationale vient
de mettre en place un plan d'équipement minimum, avec un système multimédia par classe. A
partir de cette base, comment bâtir une stratégie ?
19.2.1 - L'inventaire de l'existant
Avant de développer une stratégie dans ce domaine, il est bon de procéder avec des méthodes
ayant fait leur preuves, entre autre celles afférentes à la Veille Technologique et à la mise en
place d'hyperinformations, voire de meta-informations (Meta-information systems: how can
they support corporate information management, J.Herget, Information Services & use, 14,
1994, pp. 315-324) dans le domaine. Analyser l'existant et entre autre les produits disponibles
avec leur coût devient une attitude rationnelle. En effet, devant la diffusion de masse
nécessaire, il faudrait sans doute éviter de rendre le secteur captif des programmes et éviter de
générer des outils officiels réalisés à grand frais, sans se rendre compte qu'il existe des
initiatives et des produits au niveau planétaire. Un essai de traduction du BASIC en Français
réalisé il y a quelques années pose bien le problème de manière caricaturale!
Un inventaire s'impose donc. En ce sens l'ORME, développé à Marseille par le CRDP, et qui
constitue un observatoire des produits multimédias disponibles au niveau éducatif constitue
bien le premier maillon de la chaîne.(ORME, Observatoire des Ressources Multimédia en
Education http://www.ac-aix-marseille.fr). L'approche de la Communauté Européenne, au
niveau d'EVICI (Université Virtuelle Européenne) se situe bien dans ce cadre, complété par
des actions comme "Training", ayant pour but de mettre à jour en permanence et de manière
structurée les offres éducatives présentes sur l'Internet au niveau mondial de façon à permettre
avec un effort minimum d'accéder aux programmes éducatifs les plus performants.
Pour ceux où celles, qui personnellement ou regroupés dans des associations voudront
s'intéresser à ce problème, il existe de multiples catalogues (Le Catalogue OCD, édition 19971998, Office central de documentation, spécialisé dans la documentation électronique, 33 rue
Linné 75005 Paris, ou plus simplement des catalogues comme Micro Application 20-22 rue
des Petits-Hotels 75010 Paris). Ce qui est important dans la démarche actuelle, c'est que la
pensée classique, les habitudes, situent toujours la formation dans un univers présentiel, ou
l'enseigné doit se trouver en présence du professeur. Avec ces nouveaux outils, on diminue le
niveau de difficulté (la barrière de potentiel) qui existait lorsqu'on se plaçait dans le cadre d'un
enseignement à distance (par correspondance). On peut donc penser qu'en des lieux précis
(l'école, l'université en font parti, mais nous avons indiqué dans les chapitres précédents que les
lieux structurants au niveau français étaient entrain de changer de nature), on pourra mettre à
disposition des moyens simples pour accroître la base des connaissances et la faire évoluer, en
restant performant, et ceci sans un contrôle strict du système d'enseignement ou de
l'obtention de diplômes!
Actuellement, la notion de diplômes, qui est ancrée en amont sur la notion de conventions
collectives, reste en France un élément de base du système professionnel et éducatif. Pourtant,
un passionné de programmation pour prendre cet exemple n'aura pas nécessairement un DESS
dans le domaine, mais, s'il passe des heures, appartient à un club, etc. il sera certainement très
performant.
19.2.2 - Introduire ces éléments nouveaux dans les cursus de formation
La possibilité d'accéder sur les lieux de formation à des outils nouveaux, va conduire au
développement de nouvelles pratiques d'enseignement. Ces outils permettent de pratiquer, de
découvrir ou d'approfondir le cours soit en anticipant, soit après le cours en approfondissant.
En ayant à sa disposition des sources de plus en plus accessibles et diversifiées d'informations,
et en ayant la possibilité de recouper, d'écouter de lire, de regarder, l'assimilation intuitive va
jouer de plus en plus un rôle important au niveau des élèves.
19.2.2.1 - L'enseignement primaire et secondaire
Il sera donc nécessaire, pour l'enseignant de maîtriser ces outils, donc de les introduire de façon
active dans son cours. Ne pas en parler, éluder ces derniers, serait la pire des chose car elle
conduirait à un décalage entre le cours et les réalités.
Cette manière de faire est bien illustrée par certaines PAE, par les dossiers de recherche que
peuvent effectuer les élèves, surtout lorsqu'ils travaillent en groupe (binôme ou trinôme) .
Mais, il est regrettable que ces activités s'estompent en fin de Collège et au Lycée, pour
reprendre seulement au niveau de la maîtrise ou de certaines licences à l'Université. C'est quand
l'élève serait dans la période la plus propice et la plus réceptive à cette approche que celle-ci est
abandonnée au nom de l'élitisme et des préparations à des concours variés.
L'attitude vis à vis de l'information doit changer. On n'est plus dans un système passif, mais
dans un système actif où on doit en écoutant, en lisant, en se préoccupant des problèmes,
aller vers l'information et ne plus attendre passivement que tout nous soit fourni. Par exemple,
s'il est bon que les élèves illustrent certaines leçons, à quoi cela peut-il servir d'aller à la
papeterie proche de l'école acheter des images et des textes identiques pour tous, pour illustrer
le propos de l'enseignant. Ne vaudrait il pas mieux, qu'un choix d'illustrations soit fourni à
l'élève et que parmi celles-ci il choisisse celles qui lui semble les meilleures et qu'il justifie en
quelques lignes son choix. On passe alors de l'information passive à l'information active. C'est
typiquement par sa richesse de propos et d'illustration ce que permet une encyclopédie
multimédia (depuis 1500 francs pour le CD-ROM de l'Encyclopaedia Universalis, à 195 francs
pour "Mon Encyclopédie 1998" (plus de 180.000 entrées, 6.000 photos, 100 maquettes
interactives en 3D, plus de 4 heures de vidéos de sons et un quiz !)
Un tel outil, mériterait d'être introduit au niveau de l'enseignement de manière
pluridisciplinaire. Elle n'a aucun label (donc pas prisonnière des programmes et de certains
éditeurs), elle est en langue Française, elle devrait être utilisée car son prix est particulièrement
attractif (pour une classe de 30 élèves, si le matériel de consultation existe en classe, cela
constitue pour une année un investissement de 6,5 francs soit un 1/3 paquet de cigarettes ou un
litre d'essence!)
C'est donc bien au niveau de barrières mentales ou administratives que se situe le
problème et non plus au niveau des moyens.
Je n'ai pas parlé dans ce chapitre de l'enseignement technique. Issu de ce milieu, je sais quels
efforts sont réalisés pour intégrer au niveau des outils, des machines, des bases de données, des
commandes numériques, des outils modernes de dessins de gestion… les développements des
technologies modernes que l'on retrouve dans les entreprises. Les moyens sont aussi
importants et constituent une forte charge pour les Conseils Régionaux. Pourtant, tout en étant
en avance par rapport à l'enseignement classique, la perception globale par les acteurs et
décideurs Français de ce domaine est très en retrait de ce qu'elle devrait être. L'exemple
Allemand devrait nous montrer le chemin.
19.2.2.2 - Dans le cadre de l'enseignement supérieur
Les cours et les programmes de l'enseignement supérieur, se prêtent bien si on le souhaite au
développement de la curiosité des étudiants et à la création des réflexes nécessaires à l'hyperinformation. Bien entendu, dans les premières années, il sera difficile de développer un cours
basé sur des études préalables puisant leurs sources dans une documentation diversifiée. Mais,
en allant vers la maîtrise, puis vers les DESS les DEA en a fortiori au niveau du doctorat les
divers mémoires doivent donner l'occasion à l'étudiant de développer des analyses critiques non
pas sous forme de compilations, mais en essayant de mettre en évidence les orientations et
leurs répercussions soit au plan de la recherche, soit au plan industriel soit au niveau
commercial.
Je reprendrai ici l'exemple d'un travail réalisé sur le commerce électronique. Les étudiants (de
DEA) auxquels j'avais demandé au début du cours de rassembler des informations, m'ont tous
apportés celles-ci, certains sous forme de dossier de synthèse. Le travail accompli était de
qualité sur le plan documentaire, mais ne me satisfaisait pas sur le plan de l'information
avancée, critique et de positionnement. En effet, ce qui aurait été intéressant, ce n'est pas la
narration des faits, mais se poser la ou les questions suivantes:
Si j'étais une entreprise, en quoi serais-je concerné par le commerce électronique ?
Pour quelles gammes de produits ?
Sans doute à quelle période, maintenant, plus tard, et quelles sont les constantes de temps de
prise en compte dans ce domaine de divers types de produits ?
Quel serait le marché à court et à moyen terme, etc…
Habitués à une compilation très scolaire, les étudiants voient ainsi ce qui les sépare d'une
présentation contrastée, en clair obscur, mettant en relief les opportunités, les faiblesses, les
efforts à faire et les gains potentiels. Mais, exposer de la sorte c'est prendre un risque, puisque,
en quelques sorte on va prendre parti en analysant.
De même, les bibliothèques offrent la possibilité d'aller consulter directement des publications
scientifiques ayant dans certaines disciplines (la chimie, la botanique, la géologie .. par
exemple) la possibilité d'illustrer le cours. De même, j'ai toujours été frappé par le manque
d'utilisation des brevets, qui principalement en mécanique ou même en chimie de synthèse, sont
un moyen d'avancer dans la description et les applications technologiques.
Bien sûr, il faudra que les étudiants comprennent l'anglais (ou au moins le lise, mais cela ne fera
que les habituer à la situation qu'ils rencontreront dans la vie active).
19.3 - Le renouvellement
Dans certaines disciplines, il paraît évident que l'évolution des technologies, des méthodes, va
bien plus vite que les descriptifs de maquettes de diplômes qui restent figées (par exemple
certaines maîtrises), ou ne sont remis en question que tous les quatre à cinq ans. (campagnes
de d'habilitation). Ceci n'est pas vrai partout, mais dans certains cas (ils préfigurent simplement
ce que sera le reste) on doit faire face à des situations de plus en plus complexes. Par exemple:
Durant les deux années passées, l'Internet, l'Intranet, l'Extranet, les agents intelligents, la
réalisation des serveurs, les normes HTML et PDF, deviennent un ensemble incontournable.
Comment peut on faire, que doit on minorer pour introduire ces nouvelles matières au niveau
qui doit être le leur ? Dans les sciences de l'information doit on diminuer l'accès aux
informations formelles classiques pour aller vers l'informel dont l'Internet participe en partie ?
Les réponses ne sont pas si simples, mais ce qu'il est important de noter, c'est que des
changements de cette ampleur ne se produisaient pas il y a quelques années dans un laps
de temps aussi court. Ceci va donc impliquer des analyses rapides de l'évolution des
professions concernées et de leurs pratiques, pour que des choix au niveau des programmes
soient réalisés et ceci quelles que soit les maquettes déposées, puisque leur constante de temps
et bien trop grande pour suivre le développement des sujets dont elles devraient traiter.
Pire, dans certains cas, les maquettes déposées ne tiennent pas compte (cela est normal puisque
le sujet traité n'existait pas quand la maquette a été réalisée au Ministère) de ces domaines
nouveaux, par exemple la nécessité d'introduire les technologies de l'information dans les PMI
et PME, l'importance du commerce électronique, la généralisation des normes de transfert de
données, etc… Il y a bien la possibilité de réaliser ces formations au niveau de DESS, mais
bien des PMI et PME ne peuvent pas embaucher à ce niveau et celui qui convient est celui de
la maîtrise. Il faudra donc agir hors cadre, on pourra alors être limité au niveau de
l'interprétation des textes, sans même examiner les contenus, selon les experts concernés ou
l'application rigoureuses des textes. Ceci constitue un danger pour les domaines où les
changements se produisent rapidement et où, il est nécessaire, diplômes nationaux obligent, de
proposer de nouvelles formations.
Eviter les rigidités, introduire au niveau des formations des attitudes plus souples prenant en
compte les évolutions modernes des technologies des pratiques et des méthodes sera la base du
développement. Cela demandera alors une auto-formation et le passage à une nouvelle culture.
Si on attend que celle-ci pénètre dans l'université dans les lycées, collèges et écoles par le
renouvellement du corps enseignant, il sera trop tard. Il faut agir vite et bien se rendre compte
qu'un avantage ne dure pas longtemps.
Conclusion
L'entreprise, les institutions, l'individu même, ne peuvent pas se développer, progresser sans une
vision. Cette vision doit être partagée. Elle doit aussi amener une réflexion sur la manière dont
on va pouvoir y arriver. Dans ce contexte, l'hyperinformation, nécessaire pour l'action et pour
le développement de l'anticipation devient une nécessité. Nous ne parlons plus ici de Veilles
diverses, d'Intelligence Economique, ... mais d'une façon d'être, d'un comportement nouveau, à
la fois vis à vis des structures de l'entreprise ou des institutions, des réseaux de personnes et
informatiques, de la compréhension et de l'analyse des informations.
Nous sommes placés, peut être pour la première fois de notre histoire devant une
discontinuité. En effet, les révolutions successives qui jalonnent l'humanité ont toujours été
matérielles: le bronze, le fer, les moyens de locomotion, l'imprimerie, la révolution industrielle, le
taylorisme, .... Cette foi-ci, nous sommes pour la première fois devant des réalisations
immatérielles, telles que les entreprises virtuelles, l'enseignement à distance, les informations en
push ... qui vont faire changer d'échelle les progressions, mais aussi les décalages. Tout
s'accélère, tout se complique. Trouver son chemin dans cette complexité, mieux analyser en
tenant compte de la géopolitique et de la dimension du monde, de ne pas subir les crises, mais
savoir les gérer pour mieux en sortir, tout cela devient nécessaire.
Nous avons vu, dans cet ouvrage, comment on devait, pour créer une information pour l'action,
élargir son champ de connaissance. Ce mécanisme concerne le développement de l'entreprise, sa
réaction et sa proaction. Il va aussi impliquer le connaissance des principes de base du
renseignement, la connaissance des réseaux humains et informatiques, leurs implications et la
maîtrise de sources d'informations formelles et informelles. Tout ceci devra s'appuyer sur un
savoir faire de base en micro-informatique et un pouvoir de rédaction et de synthèse
particulièrement important.
Tout ceci peut il être le fait d'une même personne ? A cette question, la réponse est oui. Oui au
niveau de la connaissance et de la pratique, donc de la capacités de comprendre ces différents
mécanismes, d'être "passé" par ces différentes étapes, de les avoir assimilées. Ceci est valable
pour l'animateur, le chef. Mais, non pour la réalisation matérielle qui devra faire appel à des
personnels spécialisés, à des experts et a des informateurs occasionnels.
Pour les personnes qui l'entoureront, il lui faudra choisir les compétences nécessaires pour que le
service fonctionne de la meilleure façon possible. C'est à dire qu'il puisse avoir accès aux
meilleures compétences, en fonction des objectifs et des thèmes liés à l'entreprise.
Pour les entreprises de taille plus restreinte, on n'insistera jamais assez sur la nécessité de
se regrouper, de travailler en réseau. Bien sûr, cela existe déjà et beaucoup de petites
entreprises ont réalisé "des coups ensembles". Mais, ce n'est pas là le propos. Ce qui est
important, pour des groupes d'entreprises, c'est d'avoir une culture dans les systèmes
d'information les plus performants, de se doter des plates-formes minimales pour aller plus loin,
de bien comprendre que l'on est entrain de passer d'un univers dans un autre. La nécessité d'être
vu sur les systèmes électroniques, la nécessité d'exporter, de participer à des appels d'offres, ....
vont modifier à la fois les façons de travailler, les normes de transfert et d'acquisition des
informations, les comportements et la structure des entreprises et de l'enseignement. Des
compétences nouvelles vont devenir nécessaires, la virtualité fait encore rire certaines personnes,
mais pour les faire revenir sur terre, qu'elles regardent simplement les services de vente
électronique sur l'Internet, les propositions de partenariats de la Communauté Européenne, ou
simplement les jeux vidéo utilisés par leurs enfants. Cela les fera réfléchir.
Cet ouvrage, marque simplement une étape. Il se situe après la publication du livre: Veille
Technologique et Compétitivité. Simplement parce qu'il constitue un témoignage du
cheminement, de l'évolution des concepts et des méthodes. Il met en évidence une accélération
des idées, des réalisations, des transferts. La production de plus en plus rapide d'informations et
aussi leur disponibilité constituent une rupture. Nous quittons le monde de la passivité pour
aller vers celui de l'action. Revenons au début de l'ouvrage: situons nous toujours par rapport
aux autres, le monde est grand. Nous pensons avancer, nous avançons sans doute, mais si les
autres vont plus vite que nous c'est la différence des vitesses qui jouera son rôle. Un des grands
messages, si ce n'est le plus grand de la pluralité des informations d'aujourd'hui c'est de bien de
nous faire comprendre que nous ne sommes plus seuls et isolés, que nous devons agir en réseau,
et que nous ne pouvons plus nous protéger par les barrières douanières ou par une considération
d'exception.