Les conditions d`efficacité du BPR 1 Succès et échecs - gregor-iae

Transcription

Les conditions d`efficacité du BPR 1 Succès et échecs - gregor-iae
1999.06
Les conditions d’efficacité du BPR
Jean-Louis Peaucelle
Professeur à l’IAE de Paris
Résumé : Le BPR est un mouvement dont les principes paraissent qualitatifs, bien que les
résultats de la réorganisation soient affichés sous forme quantitative, en amélioration des délais
et des coûts Cet article justifie ces principes qualitatifs en comparant las différentes manières
de traiter des flux aléatoires de travail. Cette comparaison est menée de manière discursive, en
insistant sur les sources de différences entre ces organisations. En annexe, la comparaison est
menée formellement avec les équations reliant les délais aux coûts. Les préceptes qualitatifs
avancés par Hammer sont ainsi validés. Cette approche analytique ne traite pas la variété de
toutes les situations. Elle montre l'intérêt des méthodologies où on simule le fonctionnement du
processus avant que la nouvelle organisation ne soit décidée.
Mots clés : BPR, Processus, Reengineering, reconfiguration, modèle, Hammer, simulation,
délais, coûts.
Abstract : Business Process Reengineering is a framework whose principles seem qualitative, although organization results are given in a quantitative form, as improvement of deadlines
and costs. This article justifies these qualitative principles through a comparison of various
methods dealing with random labor flows. This comparison is carried out in a discursive way
by insisting on the origins of the differences between both of these archetypal organizations. In
appendix, the comparison is carried out formally with the mathematical equations connecting
the deadlines and the costs. The qualitative precepts advanced by Hammer are thus validated.
This analytical approach does not deal with the variety of all situations. It shows the interest of
the current methodologies of installation of the BPR, by simulation, before the new organization
is actually applied.
Keywords : BPR, Process, Reengineering, model, Hammer, simulation, deadlines, cost.
1
Succès et échecs du BPR (Business Process Reengineering)
Depuis le début des années 1990, la réorganisation des activités de service selon les principes
de Hammer et Champy (1993 [7]) est à la mode dans les entreprises occidentales. Ces auteurs,
et d’autres organisateurs, se targuent de succès considérables et fournissent des références
convaincantes. Beaucoup d’entreprises ont suivi le mouvement. Les résultats n’ont pas toujours
été à la hauteur des espérances.
Grover, Jeong, Kettinger et Teng (1995 [4]) ont enquêté auprès de 105 organisations pour
découvrir les problèmes qu’elles avaient eu dans la mise en œuvre du BPR. Ils ont identifié 64
types de problèmes évoqués par les spécialistes. L’enquête montre que les difficultés les plus
fortement perçues sont liées au pilotage du changement, à l’informatique, à l’identification des
processus, à la planification du changement. L’analyse statistique montre que ces problèmes
sont significativement liés aux échecs perçus (bas degré de succès) du BPR, globalement et en
termes de réduction de coût, de réduction des délais, d’amélioration de la qualité. Les auteurs
n’indiquent pas les fréquences brutes de succès perçus. Elles doivent être basses compte tenu de
cette corrélation et des fréquences très fortes de problèmes signalés. Ils concluent sur le fait que
le BPR n’a aucune action «automatique», comme tout changement, il doit se gérer. Ceci n'est
pas nouveau. Hammer et Champy le disent dans leurs divers écrits. Tout ce qui a déjà été dit sur
IAE de Paris (Université Paris 1 • Panthéon - Sorbonne ) - GREGOR - 1999.06 -
2
les changements organisationnels, impulsés dans les entreprises par Frédéric Taylor et ses
successeurs, s'applique aussi au BPR.
Ces conclusions se retrouvent dans une étude approfondie menée par Hall, Rosenthal et
Wade (1993 [5]) qui montrent que l’amélioration de performance par le BPR est faible (moins
de 5 %) dans 11 cas sur 20 firmes étudiées malgré des réductions de coûts considérables (15 %
à 50 %) dans les processus eux-mêmes. Ils interprètent cet échec par une vision trop étroite des
processus qui oublie de considérer l’ensemble de la mission des unités. Les six meilleurs cas où
la performance croît de 18 % en moyenne ont utilisé une approche similaire: une vision large
des processus et une action en profondeur sur les responsabilités, sur les mécanismes d’incitation, sur la structure, sur l’informatique, sur la culture et les compétences.
De ces études retenons que le BPR est comme les autres démarches de changement. Au-delà
de recettes, il exige d’être réfléchi autant sur le plan technique que sur le plan humain. La question qu’on va se poser ici concerne la technicité du BPR. Dans quelle mesure les améliorations
considérables de performance peuvent-elles être obtenues? En effet, s’il y a des gains considérables, il sera possible de négocier le changement en redistribuant une partie de ce gain aux
acteurs. Selon quels principes les gains peuvent-ils être aussi considérables qu’on l’annonce?
Le mouvement du BPR a été lancé par Michael Hammer. Dans un article de 1990 [6], il
critique les informatisations traditionnelles qui ont copié les procédures manuelles antérieures
notamment pour ne pas remettre en cause la répartition des rôles entre les divers services. Il
avance sept autres principes pour organiser les services en faisant «table rase» («obliterate») de
l’organisation passée. Hammer ne les justifie pas. Il se contente de donner des exemples d'entreprises où ils sont mis en œuvre avec succès. Cet article a comme objectif de reconstituer le
raisonnement qui justifie ces sept préceptes classiques du BPR. Dans ce but, commençons par
examiner en détail les diverses solutions pour s'organiser face à une demande aléatoire qu'on
veut servir vite. La comparaison entre ces solutions est un outil pour comprendre les principes
de Hammer. Ces sept principes seront alors justifiés dans la troisième section de cet article.
La méthode qu'on va utiliser est comparative. Une réorganisation tente d'améliorer les performances de l'entreprise. Elle n'a de sens qu'en termes de comparaison entre deux modes d'organisation, l'ancien et le nouveau. Dans chaque entreprise, dans chaque processus, les
organisations anciennes sont spécifiques et les organisateurs du BPR mettent en place des solutions sur mesure. Cependant chaque organisation particulière est une combinaison de solutions
archétypales. La comparaison de ces solutions archétypales indique dans quel sens il existe des
améliorations. Les sept principes de Hammer s'interprètent comme l'évolution des organisations
concrètes vers la solution archétypale qui surclasse toutes les autres.
Décrivons d'abord quelles sont ces solutions archétypales et en quoi leurs performances
diffèrent. Ensuite chacun des principes de Hammer sera rapproché des écarts entre les solutions
archétypales.
2
Les solutions archétypales
Les modes d'organisation qu'on appelle ici «solutions archétypales» répondent au même
problème, caractéristique des activités de service : traiter des cas (dossiers) survenant de
manière aléatoire. Pour les traiter, est mise en place une organisation, c’est-à-dire des personnes,
une répartition du travail entre elles, une spécialisation éventuelle sur certaines tâches (ou une
polyvalence), des règles sur le rythme.
On suppose que le travail arrive de manière aléatoire selon une loi constante au cours du
temps. Pour atteindre une situation stable face à cet aléa, toutes ces organisations doivent
disposer de capacités de traitement supérieures au flux moyen d'arrivée des dossiers. Ces capacités excédentaires sont utilisées au moment où les arrivées sont nombreuses et sont inoccupées
quand les arrivées sont rares. Plus il y a de capacités excédentaires, moins on fait attendre les
dossiers au moment où ils arrivent en grand nombre. En conséquence le délai moyen est plus
IAE de Paris (Université Paris 1 • Panthéon - Sorbonne ) - GREGOR - 1999.06 -
3
faible. Mais ces capacités excédentaires sont inoccupées quand il y a peu de cas qui se présentent. Elles sont présentes, prêtes à faire du travail, payées. Donc, pour aboutir à des délais
faibles, il faut des ressources supplémentaires qui coûtent cher.
On compare les solutions archétypales selon les deux critères de coût par dossier et de délai
moyen d'achèvement du traitement des dossiers. Ces deux critères sont privilégiés par tous les
auteurs de l'école du BPR. D'autres critères sont possibles, comme la qualité (l'absence
d'erreurs) ou la flexibilité. Ils ne sont pas pris en compte ici.
Figure 1 : Les six solutions archétypales pour réaliser un travail dont l'arrivée est aléatoire
A) Poste de travail unique
B) Hiérarchie au fil de l'eau
C) Division du travail au fil de l’eau
avec bureaux communs à plusieurs
procédures
D) Division du travail avec
traitement par lots
E) Division du travail au fil
de l’eau avec bureaux dédiés
F) Serveurs à file d'attente
commune
Les six solutions archétypales sont symbolisées dans la figure 1, voici leurs principes.
- A - Poste de travail unique Pour faire face à une arrivée aléatoire de travail, la solution la
plus simple consiste à installer une file d'attente devant un poste de travail unique (souvent
appelé «serveur»). Dès que le serveur a fini de travailler sur un cas, il traite le suivant dans
la file d'attente. Si la file d'attente est vide, il reste inoccupé. Les cas nouveaux se placent
à la fin de la file d'attente. C'est la première solution, celle d'un poste de travail unique.
Cette solution est traitée rigoureusement par la théorie mathématique des files d'attente, classique en recherche opérationnelle. Les résultats mathématiques (voir § 6-1, page 14) expriment
que:
IAE de Paris (Université Paris 1 • Panthéon - Sorbonne ) - GREGOR - 1999.06 -
4
Pour que la file d'attente se stabilise, il faut que la capacité de traitement soit supérieure
au flux de cas arrivant,
Le coût est d'autant plus élevé qu'on a mis en place des capacités excédentaires,
Le coût est d'autant plus faible qu'on a mis en place des capacités excédant de peu les flux
à traiter. Il tend vers un coût minimum correspondant à un traitement continu des dossiers,
sans temps mort du serveur,
Le délai est d'autant plus bref qu'il existe beaucoup de capacités excédentaires. Il tend vers
un délai minimum qui est le temps de traitement lui-même,
Le délai est proportionnel à la durée de la tâche du poste de travail,
Le délai est d'autant plus bref que le coût est élevé.
- B - Hiérarchie au fil de l'eau La deuxième solution archétypale se rapporte à un ensemble
de postes de travail recevant indépendamment des dossiers aléatoires (par exemple provenant d’un territoire dont ils sont chargés). Chaque poste de travail est précédé d'une file
d'attente qui lui est propre. Il la gère comme dans le cas (A) précédent. Un chef vérifie
ensuite chaque dossier. Il stocke les dossiers dans une unique file d'attente. Chaque dossier
attend successivement dans une file d'attente à chaque niveau hiérarchique. Ce modèle a
été développé par Martin Beckmann (1988 [1]) dans le cadre de ses modélisations du
fonctionnement de la hiérarchie dans les organisations. Il dépend de cinq paramètres, les
salaires à chaque niveau, les rythmes de travail à chaque niveau et le nombre d'exécutants.
Pour équilibrer le travail du chef et celui de ses subordonnés, il existe une condition reliant
ces cinq paramètres. Le chef, mieux rémunéré, a une charge de travail supérieure.
Du point de vue de l'arbitrage entre coûts et délais, cette solution à deux niveaux hiérarchiques est meilleure que celle du serveur unique (A), lorsque le salaire du chef est supérieur à celui
de ses subordonnés. Si les salaires sont égaux, il y a une organisation avec serveur unique (A)
qui est équivalente. Ce résultat est compliqué à expliquer. Chaque dossier attend dans deux files
différentes. Mais le temps total de traitement est divisé en deux parts. Devant chaque poste de
travail, l'attente est plus courte.
Quand les salaires sont égaux, les charges de travail sont égales, les attentes sont proportionnelles au temps de traitement du poste de travail. Le total des temps d'attente et le cumul des
temps de traitement sont les mêmes que dans une organisation avec un seul serveur (A). Le
salaire unique y est une moyenne des salaires du chef et des subordonnés, le temps de travail
égal à la somme des temps de travail.
Quand le chef est mieux payé, il a une charge de travail plus forte, les dossiers attendent plus
devant lui. Comme il est plus occupé, son salaire est réparti entre un plus grand nombre de
dossiers. Seules les équations permettent de distinguer lequel de ces deux effets contradictoires
l'emporte. Dans l'annexe de cet article, on montre que cette solution (B) est légèrement moins
onéreuse que le poste de travail unique (solution A), quand le chef est plus payé que les subordonnés.
- C - Division du travail au fil de l'eau avec bureaux communs à plusieurs procédures Il est
aussi possible de créer une division du travail, comme le modèle de Beckmann commençait à le faire. Le traitement du dossier est partagé entre une séquence de bureaux. Chaque
bureau effectue une partie spécialisée du travail global. Si ces bureaux successifs ne sont
pas spécialisés sur la procédure considérée. Ils traitent d'autres dossiers, provenant
d'autres procédures. Par exemple, l'étape de contrôle juridique est faite dans un service
spécialisé. Mais ce service traite des aspects juridiques de tous les problèmes traités dans
l'entreprise. Il intervient dans plusieurs procédures différentes. Spécialisé dans le droit, il
a une polyvalence sur le genre de dossiers.
Il existe alors une file d'attente devant chaque poste de travail. La division du travail a créé
des files d'attente dans chaque bureau. Si chaque bureau est composé d'une seule personne et
que tous les employés reçoivent le même salaire, ces procédures enchevêtrées sont équivalentes
à un processus de serveur unique. La raison en est la même que pour la solution (B) de Martin
Beckmann avec salaires égaux. Le temps de traitement à chaque bureau n'est qu'une partie du
IAE de Paris (Université Paris 1 • Panthéon - Sorbonne ) - GREGOR - 1999.06 -
5
temps de traitement global. En conséquence la longueur de la file d'attente est plus petite. La
somme des attentes moyennes est la même que celle devant un poste de travail unique polyvalent. La somme des temps de traitement aussi.
- D - Division du travail par lots Supposons maintenant que les différents bureaux qui se
partagent le travail en séquence soient spécialisés sur la procédure. Une solution consiste
à lancer le traitement des dossiers selon une période régulière (tous les jours, tous les
mois, tous les ans). Dans ce cas, la file d'attente devant le premier bureau est vidée avec
cette périodicité. L'ensemble des dossiers (le lot) est traité par le premier bureau. Il est
ensuite transmis au deuxième bureau qui commence à le traiter sans attente parce qu'il est
dédié à cette procédure.
Ce traitement par lots constitue la troisième solution qui est très mauvaise en coûts et délais.
La raison est bien connue des organisateurs d'usine. La taille du lot de transfert influe fortement
sur les délais. En effet les éléments d'un lot attendent à chaque poste de travail que les autres
soient traités. Plus il y a de dossiers dans le lot, plus le délai est fort. La taille du lot dépend de
la périodicité (à même flux d'arrivée). La périodicité est donc le facteur dominant de l'explication du délai. Cette solution s'améliore avec une accélération de la périodicité. Elle reste
toujours moins bonne que le traitement au cas par cas sur un serveur unique.
- E - Division du travail au fil de l'eau avec bureaux dédiés Le travail est réparti comme dans
la solution précédente entre plusieurs bureaux dédiés à la procédure, mais les cas sont
traités dès qu’ils arrivent (au fil de l’eau). Il existe une file d'attente devant le premier
bureau. Si la capacité de travail des bureaux est équilibrée, ce travail peut être transmis
sans attente au bureau suivant. Si on néglige les délais de transmission, cette solution (E)
est meilleure que celle du serveur unique (A).
Comme les capacités de travail des bureaux sont équilibrées, les dossiers n'attendent qu'une
fois, devant le premier bureau. Cette attente est réduite parce que le temps de traitement par le
premier bureau n'est qu'une fraction du temps de traitement global. Ce délai d'attente est d'autant
plus petit qu'on a divisé le travail en un grand nombre d'étapes. La supériorité de ce modèle
s'accroît avec la division du travail. C'est un effet d'économies d'échelle, car il faut avoir suffisamment de travail pour pouvoir le diviser entre beaucoup de personnes.
- F - Serveurs à file d'attente commune La dernière solution archétypale considérée ici
reprend le principe de personnes polyvalentes traitant la totalité des dossiers, de bout en
bout. Mais plusieurs postes se partagent le travail. Ils peuvent traiter indifféremment tous
les dossiers qui surviennent. Il existe une seule file d'attente pour tous les serveurs. C'est
pourquoi on parle souvent de «serveurs en parallèle». Dès qu'une personne est libre, elle
prend le premier dossier de la file d'attente. S'il n'y en a pas, elle reste inoccupée.
Cette solution est encore meilleure que la précédente. Elle minimise les occasions pour une
personne de rester inoccupée. En effet dans la procédure séquentielle (E), il existe des moments
où la file d'attente est vide. Le premier bureau ne fait rien à ce moment. Cette inoccupation se
propage ensuite vers les bureaux suivants. Quand plusieurs dossiers arrivent en même temps, on
dépasse la capacité du premier bureau. Il y a une attente dans la file. Simultanément, il existe
des personnes inoccupées dans les bureaux (autres que le premier).
Au contraire, quand les serveurs polyvalents se partagent une même file d'attente (F), il n'y a
aucun moment où des dossiers attendent alors que des personnes seraient inoccupées. Chaque
personne traitant tout dossier indifféremment, elle a comme règle de se saisir du premier dossier
en attente, s'il y en a, dès qu'elle est inoccupée. Cette caractéristique est la raison pour laquelle,
en termes de délai et de coût, cette solution surclasse celle de la procédure séquentielle au fil de
l'eau et donc toutes les autres. Cette dominance n'est pas fondée sur une réduction des délais de
transmission puisque les dossiers sont traités par une seule personne. Plus le nombre de
personnes est grand, plus cette dominance est forte.
Ce raisonnement de comparaison repose sur le fait qu'on ne suppose aucun effet de productivité avec la division du travail. Le temps de travail global est seulement coupé en temps de
travail de chaque bureau. Par ailleurs on ne suppose pas d'effet de salaire. Quand les salaires sont
IAE de Paris (Université Paris 1 • Panthéon - Sorbonne ) - GREGOR - 1999.06 -
6
différents (cas traité pour la solution B), le salaire du poste unique auquel on peut se comparer
(auquel la solution est identique) est un salaire moyen entre ceux des exécutants et celui du chef.
Les solutions E et F sont les meilleures. Elles ne peuvent être mises en place sans un flux de
travail suffisant pour le répartir entre plusieurs personnes. Plus ce flux est important, meilleures
sont ces solutions. C'est un effet d'économies d'échelle.
Ces arguments sont construits sur l'identification des attentes et leur concomitance avec une
inoccupation de personnes. Ils sont précis et convaincants. Ils permettent un classement entre
les solutions archétypales. Il est possible aussi de construire précisément les courbes «délai x
coût» de chaque cas (voir figure 3, page 16, figure 4, page 18 et figure 5, page 20). On retrouve
naturellement le même classement des solutions archétypales. Les formules mathématiques
expriment quantitativement la même chose que le raisonnement qualitatif sur les attentes au
même moment que des personnes sont inoccupées.
En termes d'organisation, la conclusion serait de mettre en place uniquement des structures
d'organisation avec serveurs polyvalents (E). Il existe des contraintes qui font que ce n'est pas
toujours possible. Les préceptes du BPR, exposés par Hammer (1990 [6]), se ramènent très
largement à cette conclusion si simple. Cela mérite d'être examiné en détail.
3
Les principes du BPR
Les sept principes du BPR, tels que Hammer les a avancés en 1990 [6], peuvent s'interpréter
au regard des solutions archétypales. Il est temps maintenant de les examiner soigneusement et
de les justifier. On les passe en revue ci-dessous.
3-1
Principe 1 - Polyvalence des personnes de bout en bout dans le
processus («to have one person perform all the steps in a process»)
La même personne réalise toutes les étapes du processus. Elle suit le dossier de bout en bout.
Les tâches traditionnellement séparées sont «intégrées» dans un même poste.
Ce principe va complètement à l’encontre de toutes les habitudes de division du travail. Dans
la production industrielle, on a depuis très longtemps spécialisé les personnes comme Adam
Smith l’avait remarqué. Les raisons de cette spécialisation étaient:
- l’amélioration de l'habileté sur une tâche réduite (à condition qu’elle ne soit pas contrebalancée par l’ennui),
- la faible compétence de la main d’œuvre (avec une division du travail très poussée, on peut
former rapidement les personnes),
- les aptitudes inégalement réparties chez les travailleurs (des personnes sans formation,
donc moins payées, exercent les postes les plus simples),
- l’adaptation aux machines qui sont les auxiliaires du travail industriel pour des étapes bien
précises (les machines permettent une augmentation de productivité).
Certaines de ces raisons continuaient d’être vraies dans les entreprises de services au cours
du 20˚ Siècle. Les caractéristiques de la population des pays industrialisés et les technologies
informatiques rendent ces raisons moins pressantes:
- les employés ont une compétence de base assurée par le système éducatif et on sélectionne, au moment de l’embauche, en fonction de cette compétence,
- la formation permanente permet d’accroître rapidement la compétence et l’adaptabilité à
de nouveaux modes de travail,
- les machines informatiques ont une polyvalence qui permet aujourd’hui d’accéder à toute
la variété des programmes et des ressources depuis un poste de travail standard (alors que
les dossiers et archives papier n’étaient accessibles que dans un service unique spécialisé
sur une tâche),
IAE de Paris (Université Paris 1 • Panthéon - Sorbonne ) - GREGOR - 1999.06 -
7
- la compétence est épaulée et contrôlée par les programmes informatiques (par exemple
les systèmes d’assistance peuvent de manière experte apporter la connaissance d’une
réglementation appliquée très rarement).
La diversité des compétences reste un argument d’actualité qui peut justifier une place à part
pour les personnes disposant d’une compétence particulière (en général avec des diplômes) afin
de les utiliser au mieux compte tenu de leur salaire plus élevé. Elle reste un principe de différenciation des tâches. Par exemple, restent spécialisées les tâches de signature par le chef hiérarchique, seul habilité à engager juridiquement l’entreprise.
Si les arguments de la division du travail cessent partiellement d’être vrais, il faut considérer
les arguments inverses. Herzberg (1959 [10]) plaidait dès la fin des années cinquante pour
élargir les tâches et les enrichir, c’est-à-dire regrouper les tâches divisées au long de la séquence
des opérations et intégrer dans l’exécution quelques tâches de contrôle ou fonctionnelles (petite
maintenance par exemple). Mais son objectif premier était la motivation et ce n’est qu’au travers
de celle-ci qu’il visait la productivité.
La division du travail a un inconvénient bien connu. Il faut assurer le déplacement des
matières (ou des dossiers dans les services) d’un poste de travail à un autre. Avec la chaîne, Ford
mécanise ce déplacement. Dans les services, on a mis en place des systèmes automatiques de
transport des dossiers papiers, plus ou moins perfectionnés. En allant plus loin, le Workflow
(Gestion Electronique de Documents) transforme tous les dossiers en image informatique et les
réseaux assurent leur communication d’un poste de travail à un autre. Ces systèmes automatisent le passage d’un poste de travail à un autre, donc réduisent les délais et suppriment les postes
des personnes (en général peu formées) chargées de faire circuler les dossiers.
Pourtant le premier principe de Hammer ne fait pas allusion à ses systèmes qui conservent la
division du travail en limitant seulement ses inconvénients. En concevant un poste qui assure
toutes les tâches du processus, on change de modèle d’organisation et les coûts et délais associés
sont radicalement meilleurs. Dans ces comparaisons, on a supposé que le temps total passé à
traiter le dossier est le même quand c'est une personne qui le prend en charge ou quand c'est une
succession de personnes spécialisées.
Ces hypothèses ne sont pas toujours vraies si les compétences dans la procédure sont très
diverses. On ne pourra pas trouver de personne polyvalente, sauf à prendre celle qui fait la tâche
la plus difficile. Il faut alors lui conserver son salire élevé. La tâche polyvalente devient alors
très chère. L'argument, que je crois fondamental pour la division du travail, de différenciation
des salaires est une limite forte au regroupement des tâches.
A l'inverse, une autre remarque vient en faveur de la solution de regroupement de tâches.
Dans une procédure séquentielle, chaque bureau prend connaissance du dossier. Ce temps de
lecture se répète. En supprimant la division du travail, on supprime cette duplication de lecture.
Il est donc possible que le temps total passé par la personne polyvalente pour traiter le dossier
de bout en bout, soit inférieur au total des temps éclatés.
Dans tous les exemples donnés par les chercheurs ou les consultants, on note la diminution
du nombre d’étapes dans les procédures. Par exemple Hammer (1993 [7]) montre que la compagnie de téléphone Bell Atlantic a raccourci le délai de raccordement des nouveaux abonnés de
15 jours à 5 heures en constituant des équipes de 5 à 6 personnes à compétence transfonctionnelle dans un seul lieu, pour toute la chaîne du travail effectuée auparavant par 13 personnes en
séquence, installées dans des lieux différents.
Ce principe consiste à conduire une organisation avec division du travail (solution E) vers
une organisation (F) de personnes polyvalentes partageant la même file d'attente (figure 2, page
8).
Faire traiter les cas de bout en bout par la même personne suppose des outils informatiques
puissants pour qu’elle dispose, sur son poste de travail, de tous les éléments du dossier qui est
traité à ce moment, quelque soit ce dossier. Ce ne serait pas possible avec des archives papier.
IAE de Paris (Université Paris 1 • Panthéon - Sorbonne ) - GREGOR - 1999.06 -
8
F Serveurs à file d'attente
commune
1 - Polyvalence
des personnes
dans le processus
4- Centralisation
virtuelle
E Division du travail
au fil de l'eau avec
bureaux dédiés
6- Décentralisation de
la prise de décision et
contrôle sur les résultats
A poste de travail
unique
Division du travail avec actions
réalisées en parallèle
Figure 2 : Interprétation des principes du BPR selon Hammer (1990)
5- Mise en parallèle
des activités
2 -Fournir les
informations et des
aides informatiques
partout
C Division du travail
au fil de l'eau avec
bureaux communs à
plusieurs procédures
B Hiérarchie
au fil de l'eau
D Division du travail
avec traitement par lots
3- Intégration du système d'information au monde réel
7- saisie unique à la source
3-2
Automatisation du SI
Automatisation du SI
Principe 2 - Fournir les informations et des aides informatiques
partout («computer-based data and expertise are more readily available»)
Le deuxième principe signalé par Hammer (1990 [6]) n’est qu’une condition pour que le
premier soit réalisable. Il s’agit de fournir toute l’information à la personne qui traite le dossier.
L’accès aux bases de données, la construction de systèmes experts spécialisés, la fourniture de
documentation en ligne sont des moyens pour rendre compétentes des personnes, sans formation ni mémoire considérable sur chaque cas qui se présente.
Ces aides informatiques au travail permettent aux opérationnels de faire tout seuls, sans
attente, sans plus d'erreurs, ce qu'ils devaient demander aux services fonctionnels spécialisés
(comptabilité, achats, maintenance). On passe de la solution (C) à la solution (F) (voir figure 2).
IAE de Paris (Université Paris 1 • Panthéon - Sorbonne ) - GREGOR - 1999.06 -
9
Les procédures ne peuvent être abandonnées au profit de tâches globalisées que si ces traitements de l'information sont accessibles aux opérationnels. Si la mise en place de ces outils
d’aide n’est que progressive, les transformations organisationnelles suivent ce rythme. Les
services informatiques sont ainsi des partenaires obligés de toutes les actions de BPR.
La perspective de l’informatisation associée au BPR n’est donc pas de remplacer les
personnes dans leurs tâches mais de déplacer le lieu de traitement. Du service spécialisé, il
migre vers les personnes polyvalentes qui traitent les cas de bout en bout. C'est en ce lieu, réparti
dans la structure, que sont fournies les informations, au moment où les gens en ont besoin.
L’informatique communique et suit le rythme de travail des personnes.
Lucas, Berndt et Truman (1996 [16]) donnent un exemple de reconfiguration du processus
de traitement des valeurs sur support papier déposées par les clients aux agences de Merrill
Lynch. Ces valeurs sont envoyées par la poste au centre unique de traitement. Une part du temps
était consommé en aller-retour entre le centre et les agences pour des anomalies (documents
annexes non fournis, valeurs n’ayant pas cours légal…). Un système expert, accessible dans les
agences, permet de consulter toutes les valeurs en circulation et de décrire tous les cas où des
documents annexes sont nécessaires (certificat de décès en cas d’héritage par exemple). On
réduit alors à la fois le temps passé par les agents (donc le coût) et le délai pour le client (à cause
des aller-retour). Des solutions de workflow ont aussi été mises en œuvre. Les valeurs sont scannées (ou microfilmées si elles sont de format trop important). Une part du traitement est faite
après reconnaissance optique du document s’appuyant sur une base de données des "valeurs
papier" en circulation.
Cette migration des tâches spécialisées vers les agents polyvalents correspond à un abandon
du modèle (C) de bureaux spécialisés communs à plusieurs procédures. On a vu qu'effectivement il n'est pas le meilleur (s'il n'y a pas d'effet de productivité). Il faut cependant vérifier que
les tâches spécialisées sont bien accomplies par la personne polyvalente aidée de son informatique. Ceci dépend sans doute de la complexité des cas.
3-3
Principe 3 - Intégration du système d'information au monde réel
(«subsume information-processing work into the real work that produces the
information»)
Traditionnellement les activités administratives, d’« écriture », sont effectuées par des
employés spécialisés. Il s’agit de la distinction bien connue des cols blancs et des cols bleus.
Les personnels des ateliers ne sont pas amenés à tenir des crayons et des papiers. Quand ils le
font, on sait que la qualité de leur écriture n’est pas fameuse.
L’informatique renouvelle cette approche. On peut par des terminaux, spécialisés ou non,
faire réaliser la saisie des informations par les personnes en contact le plus direct avec le
«monde réel», celui sur lequel portent les informations. Avec cette intégration, quand elle est
possible, on supprime les postes administratifs par informatisation.
La saisie des données par les productifs, par les clients, par les demandeurs exige des
systèmes informatiques spécialisés, sécurisés, conviviaux. Ici encore la réalisation informatique
est une partie essentielle du BPR.
En intégrant système d'information et monde réel, on supprime des étapes dans une procédure, par automatisation. Au bout de ce principe, on supprime tout traitement manuel de l'information. Après la saisie par le client, toutes les tâches sont prises en charge par la machine.
Cette perspective de totale automatisation est loin d'être neuve. Dans le cas de Bell Atlantic,
rapporté par Hammer (1993 [7]) et cité plus haut, on veut aller vers du zéro délai d'installation
de service téléphonique. Le client saisira lui-même sa demande (par Internet) et ce sont des
programmes qui déclencheront les actions sur les centraux téléphoniques pour que le système
soit mis à disposition. C'est possible si l'infrastructure, lignes notamment, est déjà en place. La
IAE de Paris (Université Paris 1 • Panthéon - Sorbonne ) - GREGOR - 1999.06 -
10
partie administrative, signature de contrat, acceptation du tarif, sera prise en charge après la
mise à disposition du service;
3-4
Principe 4 - Centralisation virtuelle («treat geographically dispersed
resources as though were centralized»)
Le quatrième principe concerne les grandes entreprises qui disposent de localisations géographiques sur un territoire: agences, bureaux, boutiques,… Si on les regroupe, on bénéficie des
économies d'échelle qu'il y a entre le modèle de serveur unique répété (A) et la mise en commun
de la file d'attente (F). On évite le gâchis d'un serveur inoccupé à un endroit alors qu'il existe des
dossiers en attente dans un autre endroit.
L'avantage supplémentaire de la centralisation vient de l'ajustement plus facile aux flux. Les
bureaux répartis n'ont jamais une charge complètement égale. Même si à au moment de leur
création, leurs charges sont similaires. Les évolutions créent des distorsions entre bureaux
locaux. La mise en commun de la charge de travail évite ces surcharges locales, souvent
compensées par des charges très faibles ailleurs.
Ces économies d’échelle face aux aléas de l’arrivée des dossiers sont les mêmes que celles
entraînées par la centralisation des stocks. Le stock centralisé évite les situations de rupture dans
un dépôt local avec des marchandises dans d’autres dépôts.
Bien sûr, il faut que ce regroupement soit possible, c’est-à-dire que le service soit offert localement malgré le regroupement géographique. Les technologies de la communication rendent
l’accès à distance possible. Les exemples sont bien connus avec les «call centers» («centres
d’appels») qu’on retrouve ici comme résultat du BPR.
Mais la technologie va plus loin. Il n’est pas nécessaire de déplacer physiquement les
personnes en un seul centre. Puisque leur travail est délocalisé par rapport à la demande, il peut
l’être par rapport à l’équipe des personnes substituables. La délocalisation du travail rend
possible la constitution d’un service unique sans déplacer les personnes. La centralisation
géographique peut être virtuelle. La charge de travail est mutualisée entre tous les serveurs. Dès
qu’un dossier attendrait sur son site local, il est proposé aux agences éloignées géographiquement qui sont libres à ce moment. Les centres locaux s’échangent la charge de travail. C’est le
regroupement en équipes virtuelles préconisé par Hammer. Sur la figure 2, page 8, il est représenté par le passage de solutions A répétées, avec autant de files d'attente, à la solution (F) d'une
file d'attente commune.
Le regroupement permet aussi d’ajuster les effectifs à la saisonnalité de la charge de travail:
variation dans la journée, dans la semaine, dans l’année. Quand les effectifs sont limités, voire
une seule personne, il n’y a pas de modulation possible. Quand les effectifs sont importants, cet
ajustement limite le surcoût découlant d’effectifs pléthoriques à certains moments et les délais
d’attente des dossiers lors des périodes de pointes.
Wareham et Neergaard (1998 [19]) rapportent le cas de la réorganisation de la compagnie
d’assurance mutuelle Alka au Danemark. La réorganisation a eu comme principe directeur le
«guichet unique». Chaque client doit avoir un seul point de contact avec Alka, directement par
téléphone, pour gérer son contrat (ventes) et un autre pour gérer son sinistre (déclaration,
remboursement…). Antérieurement il devait s’adresser successivement par courrier aux divers
services spécialisés. À la place de 26 agences locales, ce sont 6 agences régionales puis trois qui
assurent les contacts commerciaux. Les auteurs n’indiquent pas les effectifs consacrés à la
vente. Ils disent que 56 postes de travail ont été supprimés (sur un effectif total de 375
personnes). Et la compétence (polyvalence) du personnel en place a été largement augmentée.
Les procédures, derrière le guichet unique, continuent d’exister. Elles ont été simplifiées avec
un maximum de 69 étapes réduit à 30 pour le commercial et, pour les sinistres, on passe de 193
étapes au maximum à 44. Le délai moyen passe de 32 jours à 6 jours pour régler un sinistre.
IAE de Paris (Université Paris 1 • Panthéon - Sorbonne ) - GREGOR - 1999.06 -
3-5
11
Principe 5 - Mise en parallèle des activités («link parallel activities instead
of integrating their results»)
La structure traditionnelle des procédures est la séquence, la succession d’étapes. On copie
ainsi la succession des postes de travail de la chaîne. Mais même sur la chaîne des usines, il
arrive que deux opérations soient simultanées, par exemple quand elles portent sur des sousensembles différents avant leur montage. Pour le traitement d’un dossier, certaines étapes
peuvent se dérouler simultanément, d’autant plus aisément que le dossier est dématérialisé. Il
est clair que les délais de chaque étape ne s’ajoutent plus. On gagne en délais.
Ce principe de simultanéité des étapes est celui qu’on trouve en production pour le montage
des outils et le réglage des machines en «temps caché» (pour réduire les temps d’arrêt entre
deux séries de production). Pour gagner du temps, on commence une étape avant que la précédente soit terminée.
Ce principe conduit à une solution qui n'a pas été examinée dans la section 2. Cette solution
est meilleure que la succession des étapes (E). Elle peut être meilleure que (F), ou moins bonne,
selon les cas. Sur la figure 2, page 8, on l'a représenté avec des performances variables par
rapport à celles de la solution (F) de la file d'attente commune.
3-6
Principe 6 - Décentralisation de la prise de décision et contrôle sur les
résultats («put the decision point where the works is performed and build
control into process»)
Dans son sixième principe, Hammer parle de la division verticale du travail, entre les exécutants et la hiérarchie. Le traitement d'un cas par les opérationnels fait parfois intervenir des
niveaux plus élevés, pour des décisions, des autorisations, des signatures officielles. Cet appel
à la hiérarchie est tout à fait similaire à la division fonctionnelle du travail que Hammer veut
éviter (deuxième principe § 3-2).
C'est par des outils informatiques qu'on déplaçait le lieu de réalisation de ces tâches spécialisées. La même solution est proposée pour ces tâches de la hiérarchie. Le rôle de la hiérarchie
est joué par les outils informatiques qui encadrent les actions et enregistrent ce qui a été fait. Les
personnes sont alors responsables de leurs actes. La hiérarchie jouera son rôle de contrôle, en
intervenant a posteriori au lieu d'intervenir a priori.
Hammer préconise donc une décentralisation de la décision et du contrôle au point le plus
bas, le plus proche du processus du monde réel. La hiérarchie peut ainsi presque complètement
disparaître. Ce sont des coûts qui disparaissent, en même temps que les délais sont diminués.
La hiérarchie apparaît dans la solution archétypale (B) de Beckmann. On a vu qu'elle est
proche de la solution A d'un serveur unique. Elle est surclassée par la solution (F) de prise en
charge globale d'un dossier par les mêmes personnes, mutualisant leur file d'attente. Le sixième
principe de Hammer s'interprète comme un passage à la solution (F) (voir figure 2, page 8).
3-7
Principe 7 - Saisie unique à la source («capture information once and at the
source»)
Le septième principe de Hammer concerne la saisie unique à la source. Il s'agit encore de la
suppression d'étapes dans le processus de traitement informationnel. Ce principe a été énoncé
depuis longtemps pour la conception des systèmes d’information. Il a pour but d'automatiser
une partie du processus informationnel, donc de supprimer du traitement administratif manuel,
comme le principe § 3-3 dont au fond il ne diffère pas.
IAE de Paris (Université Paris 1 • Panthéon - Sorbonne ) - GREGOR - 1999.06 -
4
12
Cohérence des principes de Hammer
Quatre des sept principes de Hammer s'interprètent précisément comme un changement vers
la solution la meilleure en termes de coût et de délai, celle de serveurs suivant de bout en bout
le traitement des dossiers et partageant une file d'attente commune (F). Le principe 5 (§ 3-5,
page 11), préconisant une mise en parallèle des activités, est aussi un principe organisationnel.
Au lieu de regrouper les tâches sur une seule personne, on gagne encore en délai si on fait
exécuter plusieurs morceaux de la tâche globale simultanément. Les principes 3 (§ 3-3, page 9)
et 7 (§ 3-7, page 11) , intégration du SI au monde réel et saisie unique à la source, sont au
contraire animés d'un esprit très classique d'automatisation. Là où il y a un travail humain,
parfois la machine peut l'accomplir. Dans ces conditions les délais et les coûts sont ceux de
l'informatique.
On en conclut qu'il y a deux aspects complémentaires dans la démarche du BPR. D'une part
on réorganise vers une exécution des tâches globalement de bout en bout ou vers un parallélisme. D'autre part, on informatise. Cette informatisation possède son propre but de substituer
la machine aux personnes dans le traitement des dossiers (automatisation), mais elle est aussi la
condition pour rendre possible la réorganisation du travail humain. L'un et l'autre but vont de
pair. La description des exemples n'est pas suffisamment précise pour qu'on puisse les distinguer.
Cette analyse du BPR conduit à proposer des interprétations des succès comme des échecs.
L'informatique est un passage obligé de la réorganisation. Mais l'essentiel réside sans doute dans
la réorganisation. Comme disent Davenport et Stoddard (1994 [2]), considérer l’informatique
comme le moteur du BPR est un mythe. En revanche, elle peut être un inhibiteur qui empêche
le changement à cause de retards ou d’impossibilités à construire les nouveaux systèmes. Si les
informaticiens gèrent le projet, ils risquent sans doute de ne pas saisir la complexité du changement organisationnel. L'échec potentiel est alors dû à un pilotage insuffisant.
Il arrive aussi que les changements mis en œuvre ne génèrent pas de gain important. Ses
pilotes n’ont pas de ressource à négocier avec personnes qui font le travail, sous forme de réduction d’horaires ou d’augmentation des salaires. Ceux-ci ressentent la réorganisation comme une
intensification des cadences. Ce n’est probablement pas une implication plus grande des directions générales qui résoudra les conflits potentiels.
La réorganisation doit identifier toutes les particularités du travail qui rendent empêchent
d'évoluer vers la solution (F) ou vers la simultanéité des tâches. Parmi ces spécificités, notons
la relation non formalisée construite par les agents sur leur territoire. Beaucoup d'éléments non
connus du système d'information peuvent contribuer au succès de la tâche. Banaliser le traitement des dossiers locaux dans un centre unique peut alors dégrader la qualité du travail.
Parfois aussi les procédures par lots ne peuvent pas être abandonnées. C’est le cas quand le
traitement de chaque dossier interfère avec celui des autres dossiers (classement, répartition de
ressource limitée, quotas, concours, budget, postes…) ou lorsqu’on veut traiter la totalité des
éléments d’un ensemble (période comptable, territoire géographique).
Les écarts de salaires continuent parfois d'être un bon argument de la division du travail. Les
spécialistes bien payés sont plus productifs en étant assistés de personnes dont le salaire est
moindre. L'intégration des tâches dans un poste de travail unique est alors peu rentable. Il est
tout à fait étonnant que cet aspect ne soit pas abordé dans les textes concernant le BPR.
En replaçant chaque principe du BPR dans le mécanisme qui fonde son intérêt, on facilite
sans doute la compréhension des actions dans chaque processus. Compte tenu de la multiplicité
des principes, il est bien possible qu'ils soient mal interprétés et appliqués hors de propos. Par
exemple, privilégier les seuls principes 3 (§ 3-3, page 9) et 5 (§ 3-5, page 11), centrés sur l'automatisation, est une mauvaise interprétation. Souvent, les vagues d'informatisation précédentes
ont déjà les limites du possible dans ce domaine.
IAE de Paris (Université Paris 1 • Panthéon - Sorbonne ) - GREGOR - 1999.06 -
5
13
Simuler les résultats de la réorganisation
Les gains de la réorganisation se mesurent au minimum en termes de réduction des délais et
des coûts. Pour connaître ces gains avant de déclencher le changement, il faut étudier le fonctionnement de la nouvelle organisation. Une situation concrète correspond rarement aux solutions archétypales ici développées. Pour les cas réels, spécifiques à des organisations, il faut
mettre en œuvre des outils de simulation. Avec ceux-ci, on teste diverses propositions. Avant
qu’on entreprenne le changement, on peut connaître les impacts. Cette approche est déjà suivie
par quelques praticiens.
Kim et Kim (1997 [13]) modélisent le trajet des malades en consultation à l’hôpital adventiste de Séoul. Les étapes administratives (enregistrement et paiement) sont obligatoires. Puis
les malades sont vus par le médecin. Ensuite ils peuvent répéter plusieurs fois des étapes
d’examens ou analyses (prépayés) ou délivrance de médicaments (prépayés aussi). Les chercheurs ont observé les lois d’arrivée des patients, les temps de prestations des diverses étapes.
La simulation, avec les mêmes chiffres de base, indique, comme les observations, 1,5 heures de
temps passé par les patients en consultation à l’hôpital. La simulation permet alors de tester
d’autres hypothèses organisationnelles: intégration de l’enregistrement et du paiement, automatisation des tâches administratives et réduction des personnels administratifs, augmentation du
nombre de médecins. Le processus ainsi redéfini traite les patients en 20 minutes en moyenne,
d’après la simulation. Gain considérable de temps avec des dépenses similaires dont l’article ne
parle qu’au travers du taux d’utilisation des personnes. La simulation est un support fort de
l’évaluation quantitative d’une réorganisation par le BPR.
Kumar, Ow et Prietula [14] adoptent la même méthodologie pour traiter un autre cas d’organisation d’hôpital. Ils s’intéressent à la fixation des horaires des analyses médicales par les équipements spécialisés (radio, IRM, scanner…). C’est un problème d’ordonnancement avec des
contraintes similaires à celles de la production industrielle. Ils considèrent une gestion centralisée ou non des services (où séjournent les patients) et une gestion centralisée ou non des laboratoires. Ils simulent les quatre situations avec différents flux de patients. Ils abordent ainsi par
la simulation le problème classique des théories organisationnelles du lien entre structure et
technologie (informationnelle dans ce cas).
La modélisation de processus renforce sans doute les chances de succès d'une réorganisation.
Elle facilite l'identification des gains potentiels de diverses solutions alternatives. Avec les principes de Hammer et par tâtonnement on découvre la manière de s'organiser pour avoir le moins
possible d'attentes et de personnes inoccupées, malgré les aléas du travail à accomplir. Les logiciels spécialisés facilitent aujourd'hui cette approche.
IAE de Paris (Université Paris 1 • Panthéon - Sorbonne ) - GREGOR - 1999.06 -
14
Annexe
Solutions archétypales
de traitement du travail de bureau à arrivée aléatoire
6
Notation et hypothèses générales
- dossiers survenant de manière aléatoire selon un processus de Poisson (l’intervalle entre
arrivées suit une loi exponentielle)
- λ = taux d’arrivée des dossiers, nombre par unité de temps
- µ = capacité de travail du poste de travail, nombre par unité de temps
- 1/µ = temps passé à travailler sur chaque dossier
- w = salaire par unité de temps des personnes au poste de travail
- s0 et s1 effectifs de niveaux d'organisation notés 0 et 1
- µ0 et µ1 capacité de travail des personnes de niveau 0 et 1
- w0 et w1 salaires des personnes au niveau 0 et 1
- WT = temps d’attente moyen d’un dossier + temps de traitement
- WT = temps d’achèvement du travail
- C = coût par dossier, coût total divisé par le nombre de dossiers
- x = délai normalisé = µ WT - 1
- y = coût normalisé = C µ/w - 1 x et y sont des nombres purs
Le coût et le délai évoluent en sens inverse. Dans un plan "coût x délai", chaque solution
archétypale est caractérisée par une courbe spécifique entre coût et délai. La performance est
formée par la position de cette courbe.
6-1
Solution archétypale A - Poste de travail unique
Pour atteindre un état stationnaire, il faut que µ > λ
Classiquement la recherche opérationnelle donne les résultats suivants:
WT = 1/(µ - λ)
C = w/λ
Avec les variables normalisées x et y:
x + 1 = µ WT = µ/(µ - λ)
y + 1 = C µ/w = µ/λ
y = 1/x
6-2
Relation 1
Relation 2
Relation 3
Relation 4
Relation 5
Solution archétypale B - Hiérarchie au fil de l'eau (Beckmann)
Le niveau des exécutants est noté par l’indice zéro. Le niveau du supérieur hiérarchique par
l’indice 1. La capacité de travail des exécutants (supposée égale entre les personnes) est µ0 et
celle du chef µ1. Le nombre d’exécutants est s0, le nombre de chefs s1 est égal à 1. On a évidemment la relation de capacité:
s0µ0 > λ et s1µ1 > λ
Relation 6
Chaque exécutant de niveau 0 a un flux de travail λ/s0. Le délai d’achèvement du travail
successivement par les exécutants et par le chef est:
WT = 1/(µ0 - λ/s0) + 1/(µ1 - λ/s1)
Relation 7
Le salaire des exécutants est w0 et celui du chef w1. Le coût de cette organisation par dossier
traité est:
IAE de Paris (Université Paris 1 • Panthéon - Sorbonne ) - GREGOR - 1999.06 C = (s0w0 + s1w1)/λ
15
Relation 8
Ces deux équations permettent, pour une organisation donnée (µ0, µ1, s0, s1, w0, w1 fixés) de
faire varier λ et d’étudier la variation concomitante de WT et C.
Beckmann aborde un problème supplémentaire, celui de la fixation des effectifs. Avec s0 et
s1 comme variables, l’organisation est optimale, sous les critères de coût (C) et de délai (WT),
si les dérivées partielles sont dans le même rapport.
∂C/∂s0/∂WT/∂s0 = ∂C/∂s1/∂WT/∂s1
Relation 9
En calculant les dérivées partielles dans les relations 7 et 8 on obtient:
w0 (s0µ0 - λ) 2 = w1 (s1µ1 - λ) 2
Relation 10
Cette relation 10 donne une valeur de λ pour laquelle une organisation caractérisée par µ0,
µ1, s0, s1, w0, w1 est optimale en coût C et délai WT. Autrement dit si λ varie, pour garder une
configuration optimale, un des paramètres µ0, µ1, s0, s1, w0, w1 varie simultanément. Si on
suppose que ce sont les effectifs s0 du niveau 0 qui s'ajustent. Posons:
x0 = délai normalisé du niveau 0 = µ0 WT0 - 1 = [s0 µ0/(s0 µ0 - λ)] - 1
y0 = coût normalisé du niveau 0 = C0 µ0/w0 - 1 = s0 µ0/λ - 1
x1 = délai normalisé du niveau 1 = µ1 WT1 - 1 = [s1 µ1/(s1 µ1 - λ)] - 1
y1 = coût normalisé du niveau 1 = C1 µ1/w1 - 1 = s1 µ1/λ - 1
C = C0 + C1
WT = WT0 + WT1
y0 = 1/x0
y1 = 1/x1
λ = µ0s0/(y0 + 1) = µ0s0x0/(x0 + 1) = µ1s1/(y1 + 1) = µ1s1x1/(x1 + 1)
Relation 11
Les relations 10 et 11 permettent alors de calculer s0/s1 en fonction des variables du modèle.
A chaque charge de travail λ, l'effectif optimal s0/s1 est différent:
s0/s1 = (µ1/µ0) (1 + x0)/[(w0/w1) 1/2 + x0]
Relation 12
On peut montrer alors que le coût et le délai peuvent s'écrire sous une forme similaire à celle
du modèle A avec un seul poste de travail.
Posons:
1/µ = 1/µ0 + 1/µ1
(1/µ = le temps total de travail est la somme des temps des deux niveaux)
w/µ = w0/µ0 + w1/µ1
Relation 13
Relation 14
(le salaire w du serveur unique est un salaire moyen entre celui des deux niveaux, pondéré
par les temps de travail)
Il existe deux variables x et y telles que:
WT = (x + 1)/µ
et C = (y + 1) w/µ
Avec x et y liés par la relation 17
Relation 15
Relation 16
x y = [µ02w1 + µ12w0 + 2 (w0w1) 1/2µ0µ1]/[µ02w1 + µ12w0 + (w0 + w1) µ0µ1] Relation 17
Le produit des variables x y est constant, comme dans le modèle A. Mais cette constante est
faiblement inférieure à l'unité (parce que 2 (w0w1) 1/2 est inférieur à w0 + w1). Ceci signifie que
le modèle hiérarchique à deux niveaux est légèrement meilleur que le modèle A équivalent avec
un seul serveur, travaillant le même temps total et rémunéré à un salaire moyen, pondéré par les
temps. La figure 3, page 16 montre la variation concomitante du délai normalisé x et du coût
normalisé y. La courbe est tracée pour le modèle de Beckmann et le modèle équivalent à un seul
serveur (A). Les écarts sont très faibles (10 % dans ce cas). On remarque que la solution opti-
IAE de Paris (Université Paris 1 • Panthéon - Sorbonne ) - GREGOR - 1999.06 -
16
male de Beckmann suppose des effectifs de subordonnés (s0) variant de 5 à 7 dans la zone représentée.
Figure 3 : Courbe d'évolution du coût normalisé y en fonction du délai normalisé x. Les
calculs ont été faits avec les valeurs suivantes: m0 = 1/4, m1 = 1, w0 = 1, w1 = 4, s1 = 1. Les
effectifs s0 sont variables de manière à rester au point optimal. En réalité s0 est un nombre
entier. On n'est donc jamais complètement optimal. Pour s0 ayant des valeurs entières, les
valeurs de x et y sont très proches. La différence ne serait pas discernable sur le graphique.
5
y coût normalisé par dossier
4
Solution équivalente A avec un serveur unique
s0 = 7
3
2
s0 = 6
1
Solution hiérarchique B de Beckmann
s0 = 5
0
0
1
2
3
x délai d'achèvement normalisé
Quand les salaires w0 et w1 sont égaux, la relation 17 exprime que x y = 1, la solution organisationnelle est identique à celle du modèle A d'un serveur unique. Le temps de traitement est
la somme des temps de traitement.
6-3
Solution archétypale C - Division du travail au fil de l’eau avec
bureaux communs à plusieurs procédures
Chaque dossier (d’un certain type) est traité successivement par plusieurs bureaux. Chacun
de ces bureaux intervient dans différentes procédures. Les dossiers arrivant entrent dans une file
d’attente propre à chaque bureau. Le délai d’achèvement du traitement du dossier est alors la
somme des délais d’attente et des temps de traitement dans chaque bureau, plus les temps de
transfert.
Soit ai = temps d’achèvement du travail dans la file d’attente de l’agent i
WT = Σi ai + Σi TTi
Relation 18
La valeur de ai dépend de l’organisation du bureau i. Le cas le plus simple est celui de
bureaux composés d’une personne. Si le bureau i traite une charge de travail λi, composée des
diverses procédures qui y passent, la valeur du délai d’achèvement est celle qu’on a vue au
cas A:
ai = 1/( µi - λi)
Relation 19
IAE de Paris (Université Paris 1 • Panthéon - Sorbonne ) - GREGOR - 1999.06 -
17
Pour connaître le coût associé à la procédure, il faut répartir le salaire wi des exécutants entre
les différentes procédures qu’ils traitent. La répartition au nombre de dossiers traités donne un
coût unitaire wi/λi :
C = Σi wi/λi
Relation 20
Si les salaires sont égaux (wi = w), si les charges de travail sont égales (λi = λ), si les capacités de travail sont identiques (µi = n µ) et si les temps de transferts sont nuls (TTi = 0), on a:
WT = 1/(µ - λ/n)
Relation 21
Relation 22
C = w/(λ/n)
Le délai et le coût sont les mêmes que ceux du serveur unique (modèle A) avec une arrivée
de dossiers de seulement λ/n.
Introduisons les variables normalisées de coût et de délai:
x = délai normalisé = µ WT - 1
y = coût normalisé = C µ/w - 1
Les relations 21 et 22 donnent l'équation 5 du modèle A: x = 1/y
Avec des salaires inégaux, on retrouverait les mêmes résultats qu'avec le modèle de Beckmann (B).
6-4
Solution archétypale D - Division du travail avec traitement par lots
Les personnes sont dédiées à la procédure. Elles se transmettent le travail par lots de dossiers,
constitués par un rythme régulier du premier poste de travail. A chaque étape, on traite un
ensemble de dossiers, regroupant tous ceux d’une période. Chaque poste de travail ou bureau
traite la totalité des dossiers avant de transmettre le lot à l’étape suivante. On suppose que les
bureaux sont affectés à temps plein à la procédure. On suppose qu'aucun travail n'attend
plusieurs périodes.
Notations:
T périodicité (délai entre deux traitements)
N = λ T nombre de dossiers à traiter par période de durée T
n bureaux i installés en séquence
si effectifs du bureau i (nombre d’agents)
s = Σi si effectifs totaux des bureaux
Pour que le processus soit stable, il faut que la capacité de travail de chaque étape, "siµi" soit
supérieure au flux de dossiers λ.
si µi > λ
Relation 23
Le délai d’achèvement du travail est la somme du délai de constitution du lot, du temps de
traitement dans chaque bureau et du temps de transfert entre bureaux. Le délai de constitution
du lot vaut "T/2" si les dossiers arrivent régulièrement, indépendamment des arrêtés de période
et si on traite à chaque période tous les dossiers en attente, sans report à la période suivante. Le
temps de traitement dans chaque bureau dépend du nombre de cas que traite chaque personne.
Les N dossiers de la période sont répartis entre les si personnes du bureau. Le temps de transfert
entre bureaux est noté TTi.
WT = T/2 + Σi Arrondi. sup (N/si)/µi + Σi TTi
Relation 24
En notant «Arrondi. sup (N/si)» l’arrondi à l’unité supérieure de N/si.
Si le nombre de dossiers par employé N/si est important, on peut prendre par approximation:
WT ∼ T/2 + Σi [λ T/si µi] + Σi TTi
Relation 25
IAE de Paris (Université Paris 1 • Panthéon - Sorbonne ) - GREGOR - 1999.06 Le coût de traitement d’un dossier est:
C = Σi si wi/λ
18
Relation 26
Supposons que le travail ait été réparti également entre les bureaux, que chaque bureau
emploie une seule personne ayant la même capacité de travail et que le temps de transfert entre
bureaux soit nul.
∀ i µi = n µ, si = 1, TTi = 0: WT ∼ T/2 + λ T/µ
Relation 27
La durée d’achèvement du travail est liée principalement à la périodicité (T).
Le coût de traitement d’un dossier est:
C = n w/λ
Relation 28
Normalisons comme précédemment le coût et le délai.
x = délai normalisé = µ WT - 1
y = coût normalisé = C µ/w - 1
Les relations 27] et 28 deviennent:
x + 1 = µ T [1/2 + n/(y + 1)]
Relation 29
Cette équation dépend encore de paramètres spécifiques de chaque organisation, "µ", "n" et
"T". La figure 4, page 18 montre un exemple avec n = 10 bureaux d'une personne, une capacité
de traitement µ = 1 de 1 cas par unité de temps, et une périodicité T = 1 d'une unité de temps.
Pour un même délai, les coûts sont supérieurs à ceux d'un serveur unique (A). Le cas de délais
très longs n'est pas significatif. On sature alors le premier poste. Les dossiers excédant la capacité sont reportés sur les périodes ultérieures. Le délai d'attente avant le premier poste est alors
supérieur à T/2 qui a été pris ici comme approximation.
Figure 4 : Délai et coût normalisés dans une division du travail avec traitement par lots (n
= 10, m = 1, T = 1)
10
Coût normalisé y
9
8
7
Division du travail avec traitement par lots
6
5
4
3
2
Poste de travail
unique A
1
Délai normalisé x
0
0
1
2
3
4
5
6
7
8
9
10
IAE de Paris (Université Paris 1 • Panthéon - Sorbonne ) - GREGOR - 1999.06 -
6-5
19
Solution archétypale E - Division du travail au fil de l’eau avec
bureaux dédiés
Les dossiers arrivent au hasard. Ils sont traités dès leur arrivée par une succession de s
personnes affectées à temps plein à la procédure. Si les charges de travail sont équilibrées (µi
= s µ), les dossiers forment une file d’attente devant le premier poste, puis ils sont traités par
tous les autres postes, sans attente mais avec un temps de transfert TTi. Le délai d’achèvement
du traitement des dossiers est donc:
WT = λ/sµ (sµ-λ) + 1/µ + Σi TTi
Relation 30
Pour traiter une charge de travail λ, avec un temps de travail total à accomplir 1/µ, il faut au
moins λ/µ personnes, entre lesquelles on peut répartir les étapes du travail.
s > λ/µ
Relation 31
Supposons que le temps de transfert soit nul (TTi = 0)
WT = λ/sµ (sµ-λ) + 1/µ
Relation 32
Relation 33
C = s w/λ
Introduisons les variables normalisées de coût et de délai:
x = délai normalisé = µ WT - 1
y = coût normalisé = C µ/w - 1
Les relations 32 et 33 deviennent:
x = 1/s y
Relation 34
La courbe de coût en fonction du délai est toujours inférieure à la courbe y = 1/x du cas
A. cette dominance est d'autant plus forte que s est grand.
6-6
Solution archétypale F - Serveurs à file d'attente commune
Le travail arrivant est placé dans une file d'attente unique. Les «serveurs», au nombre de s,
les traitent dès qu'ils sont libres. Les cas ne sont donc pas pré-affectés à un serveur. La capacité
unitaire des serveurs est µ. Pour atteindre un état stationnaire, il faut que la capacité de travail
sµ soit supérieur au flux d'arrivée des dossiers λ (sµ > λ).
Le calcul du temps d’achèvement WT tient compte du cas où les serveurs ne sont pas tous
occupés (un nouveau dossier passe un temps 1/µ dans le système) et du cas où ils sont tous
occupés (le dossier attend alors dans une file). Les formules sont plus compliquées. Elles figurent dans les manuels de recherche opérationnelle.
WT = 1/µ + λ (λ/µ) s-1/{(s-1)! (µs-λ) 2 [Σn = 0 n = s-1 [(λ/µ) n/n!]+(λ/µ) s/s! (1λ/sµ)]}
Relation 35
Par ailleurs, si les salaires des personnes sont identiques, le coût par dossier est:
C = s w/λ
Relation 36
La figure 5, page 20 montre les courbes coût/délai de quatre solutions. La solution des
serveurs avec file d'attente commune (F) est meilleure que celle de la division du travail avec
bureaux spécialisés échangeant les dossiers au fil de l'eau (E), elle-même meilleure que la solution du serveur unique (A) (voir figure 5). Cette solution est celle préconisée par Hammer.
IAE de Paris (Université Paris 1 • Panthéon - Sorbonne ) - GREGOR - 1999.06 -
20
Figure 5 : Relation entre le coût normalisé et le délai normalisé. Solution A (1 serveur, relation [5]), solution E (division du travail entre 2 et 6 personnes, relation [34]) et solution F (2
et 6 serveurs, relations [35] et [36]).
2,5
Coût
normalisé y
2
Division du travail E
1,5
s=1
Serveurs à file d'attente commune
1
Serveur unique A
s=2
0,5
s=6
0
0
7
0,5
1
1,5
2
Délai normalisé x 2,5
Bibliographie
[1]
Beckmann M. J., 1988, Tinbergen Lectures on Organization Theory, Springer Verlag,
Berlin, 252p.
[2]
Davenport T.E., Stoddard D.B., 1994, «Reengineering: business change of mythic
proportions?», MIS Quarterly, June, 121-127.
[3]
Davenport T.H., Beers M.C., 1995, «Managing information about processes», Journal of
Management Information Systems, Summer, Vol. 12, N˚ 1, 57-80.
[4]
Grover V., Jeong S.R., Kettinger W.J., Teng J.T.C., 1995, «The implementation of Business Process Reengineering», Journal of Management Information Systems, Summer,
Vol. 12, N˚ 1, 109-144.
[5]
Hall G., Rosenthal J., Wade J., 1993, «How to make reengineering really work», Harvard
Business Review, Vol. 71, N˚ 6, 119-131.
[6]
Hammer M., 1990, «Reengineering work: don’t automate, obliterate», Harvard Business
Review, July-August, 104-114.
[7]
Hammer M., Champy J., 1993, Reengineering the Corporation, Harper Business, NY.
[8]
Hammer M., Stanton S.A., 1995, The Reengineering Revolution, Harper Collins, NY.
[9]
Hammer M., 1996, Beyond Reengineering, Harper Collins, NY.
[10] Herzberg F., Mausner B., Snyderman B., 1959, The motivation to work, John Wiley.
[11] Kawalek J. P., 1994, «Interpreting business process re-engineering on organization
workflow», Journal of Information Technology, N˚ 9, 276-287.
[12] Kettinger W. J., Grover V., 1995, «Toward a Theory of Business Process Change
Management», Journal of management Information Systems, Summer, Vol. 12, N˚ 1, 930., June, 223-240.
IAE de Paris (Université Paris 1 • Panthéon - Sorbonne ) - GREGOR - 1999.06 -
21
[13] Kim H-W., Kim Y-G., 1997, «Dynamic process modeling for BPR: A computerized simulation approach», Information & Management, 32, 1-13.
[14] Kumar A., Ow P.S., Prietula M.J., 1993, «Organizational simulation and information
systems design : an operations level example », Management Science, Vol. 39, N˚ 2,
February, 218-240.
[15] Loebbecke C., Jelassi T., 1998, «Business process redesign at CompuNet, standardizing
top-quality service through IT», Journal of Strategic Information Systems, Vol. 6, 339359.
[16] Lucas H.C.Jr, Berndt D.J., Truman G., 1996, «A reengineering framework for evaluating
a financial imaging system», Communications of ACM, Vol. 39, N˚ 5, 86-96.
[17] Minztberg H., 1979, The structuring of organizations, Prentice Hall, traduction Française
“Structure et dynamique des organisations”, Editions d’organisation, 1982.
[18] Sillince JAA., Harindranath G., 1998, «Integration of requirements determination and
business process re-engineering : a case study of an ambulatory care and diagnostic
(ACAD) centre», European Journal of Information Systems, N˚ 7, 115-122.
[19] Wareham J., Neergaard P., 1998, «Still guilty of technical determinism? Reengineering in
the insurance sector», 6˚ European Conference on Information Systems, Aix, France, 4-6
June, 1291-1304.
1999.06
Les conditions d’efficacité du BPR
Jean-Louis Peaucelle
Professeur à l’IAE de Paris
Les papiers de recherche du GREGOR sont accessibles
sur INTERNET à l’adresse suivante :
http://www.univ-paris1.fr/GREGOR/
Secrétariat du GREGOR : Claudine DUCOURTIEUX ([email protected])