Les conditions d`efficacité du BPR 1 Succès et échecs - gregor-iae
Transcription
Les conditions d`efficacité du BPR 1 Succès et échecs - gregor-iae
1999.06 Les conditions d’efficacité du BPR Jean-Louis Peaucelle Professeur à l’IAE de Paris Résumé : Le BPR est un mouvement dont les principes paraissent qualitatifs, bien que les résultats de la réorganisation soient affichés sous forme quantitative, en amélioration des délais et des coûts Cet article justifie ces principes qualitatifs en comparant las différentes manières de traiter des flux aléatoires de travail. Cette comparaison est menée de manière discursive, en insistant sur les sources de différences entre ces organisations. En annexe, la comparaison est menée formellement avec les équations reliant les délais aux coûts. Les préceptes qualitatifs avancés par Hammer sont ainsi validés. Cette approche analytique ne traite pas la variété de toutes les situations. Elle montre l'intérêt des méthodologies où on simule le fonctionnement du processus avant que la nouvelle organisation ne soit décidée. Mots clés : BPR, Processus, Reengineering, reconfiguration, modèle, Hammer, simulation, délais, coûts. Abstract : Business Process Reengineering is a framework whose principles seem qualitative, although organization results are given in a quantitative form, as improvement of deadlines and costs. This article justifies these qualitative principles through a comparison of various methods dealing with random labor flows. This comparison is carried out in a discursive way by insisting on the origins of the differences between both of these archetypal organizations. In appendix, the comparison is carried out formally with the mathematical equations connecting the deadlines and the costs. The qualitative precepts advanced by Hammer are thus validated. This analytical approach does not deal with the variety of all situations. It shows the interest of the current methodologies of installation of the BPR, by simulation, before the new organization is actually applied. Keywords : BPR, Process, Reengineering, model, Hammer, simulation, deadlines, cost. 1 Succès et échecs du BPR (Business Process Reengineering) Depuis le début des années 1990, la réorganisation des activités de service selon les principes de Hammer et Champy (1993 [7]) est à la mode dans les entreprises occidentales. Ces auteurs, et d’autres organisateurs, se targuent de succès considérables et fournissent des références convaincantes. Beaucoup d’entreprises ont suivi le mouvement. Les résultats n’ont pas toujours été à la hauteur des espérances. Grover, Jeong, Kettinger et Teng (1995 [4]) ont enquêté auprès de 105 organisations pour découvrir les problèmes qu’elles avaient eu dans la mise en œuvre du BPR. Ils ont identifié 64 types de problèmes évoqués par les spécialistes. L’enquête montre que les difficultés les plus fortement perçues sont liées au pilotage du changement, à l’informatique, à l’identification des processus, à la planification du changement. L’analyse statistique montre que ces problèmes sont significativement liés aux échecs perçus (bas degré de succès) du BPR, globalement et en termes de réduction de coût, de réduction des délais, d’amélioration de la qualité. Les auteurs n’indiquent pas les fréquences brutes de succès perçus. Elles doivent être basses compte tenu de cette corrélation et des fréquences très fortes de problèmes signalés. Ils concluent sur le fait que le BPR n’a aucune action «automatique», comme tout changement, il doit se gérer. Ceci n'est pas nouveau. Hammer et Champy le disent dans leurs divers écrits. Tout ce qui a déjà été dit sur IAE de Paris (Université Paris 1 • Panthéon - Sorbonne ) - GREGOR - 1999.06 - 2 les changements organisationnels, impulsés dans les entreprises par Frédéric Taylor et ses successeurs, s'applique aussi au BPR. Ces conclusions se retrouvent dans une étude approfondie menée par Hall, Rosenthal et Wade (1993 [5]) qui montrent que l’amélioration de performance par le BPR est faible (moins de 5 %) dans 11 cas sur 20 firmes étudiées malgré des réductions de coûts considérables (15 % à 50 %) dans les processus eux-mêmes. Ils interprètent cet échec par une vision trop étroite des processus qui oublie de considérer l’ensemble de la mission des unités. Les six meilleurs cas où la performance croît de 18 % en moyenne ont utilisé une approche similaire: une vision large des processus et une action en profondeur sur les responsabilités, sur les mécanismes d’incitation, sur la structure, sur l’informatique, sur la culture et les compétences. De ces études retenons que le BPR est comme les autres démarches de changement. Au-delà de recettes, il exige d’être réfléchi autant sur le plan technique que sur le plan humain. La question qu’on va se poser ici concerne la technicité du BPR. Dans quelle mesure les améliorations considérables de performance peuvent-elles être obtenues? En effet, s’il y a des gains considérables, il sera possible de négocier le changement en redistribuant une partie de ce gain aux acteurs. Selon quels principes les gains peuvent-ils être aussi considérables qu’on l’annonce? Le mouvement du BPR a été lancé par Michael Hammer. Dans un article de 1990 [6], il critique les informatisations traditionnelles qui ont copié les procédures manuelles antérieures notamment pour ne pas remettre en cause la répartition des rôles entre les divers services. Il avance sept autres principes pour organiser les services en faisant «table rase» («obliterate») de l’organisation passée. Hammer ne les justifie pas. Il se contente de donner des exemples d'entreprises où ils sont mis en œuvre avec succès. Cet article a comme objectif de reconstituer le raisonnement qui justifie ces sept préceptes classiques du BPR. Dans ce but, commençons par examiner en détail les diverses solutions pour s'organiser face à une demande aléatoire qu'on veut servir vite. La comparaison entre ces solutions est un outil pour comprendre les principes de Hammer. Ces sept principes seront alors justifiés dans la troisième section de cet article. La méthode qu'on va utiliser est comparative. Une réorganisation tente d'améliorer les performances de l'entreprise. Elle n'a de sens qu'en termes de comparaison entre deux modes d'organisation, l'ancien et le nouveau. Dans chaque entreprise, dans chaque processus, les organisations anciennes sont spécifiques et les organisateurs du BPR mettent en place des solutions sur mesure. Cependant chaque organisation particulière est une combinaison de solutions archétypales. La comparaison de ces solutions archétypales indique dans quel sens il existe des améliorations. Les sept principes de Hammer s'interprètent comme l'évolution des organisations concrètes vers la solution archétypale qui surclasse toutes les autres. Décrivons d'abord quelles sont ces solutions archétypales et en quoi leurs performances diffèrent. Ensuite chacun des principes de Hammer sera rapproché des écarts entre les solutions archétypales. 2 Les solutions archétypales Les modes d'organisation qu'on appelle ici «solutions archétypales» répondent au même problème, caractéristique des activités de service : traiter des cas (dossiers) survenant de manière aléatoire. Pour les traiter, est mise en place une organisation, c’est-à-dire des personnes, une répartition du travail entre elles, une spécialisation éventuelle sur certaines tâches (ou une polyvalence), des règles sur le rythme. On suppose que le travail arrive de manière aléatoire selon une loi constante au cours du temps. Pour atteindre une situation stable face à cet aléa, toutes ces organisations doivent disposer de capacités de traitement supérieures au flux moyen d'arrivée des dossiers. Ces capacités excédentaires sont utilisées au moment où les arrivées sont nombreuses et sont inoccupées quand les arrivées sont rares. Plus il y a de capacités excédentaires, moins on fait attendre les dossiers au moment où ils arrivent en grand nombre. En conséquence le délai moyen est plus IAE de Paris (Université Paris 1 • Panthéon - Sorbonne ) - GREGOR - 1999.06 - 3 faible. Mais ces capacités excédentaires sont inoccupées quand il y a peu de cas qui se présentent. Elles sont présentes, prêtes à faire du travail, payées. Donc, pour aboutir à des délais faibles, il faut des ressources supplémentaires qui coûtent cher. On compare les solutions archétypales selon les deux critères de coût par dossier et de délai moyen d'achèvement du traitement des dossiers. Ces deux critères sont privilégiés par tous les auteurs de l'école du BPR. D'autres critères sont possibles, comme la qualité (l'absence d'erreurs) ou la flexibilité. Ils ne sont pas pris en compte ici. Figure 1 : Les six solutions archétypales pour réaliser un travail dont l'arrivée est aléatoire A) Poste de travail unique B) Hiérarchie au fil de l'eau C) Division du travail au fil de l’eau avec bureaux communs à plusieurs procédures D) Division du travail avec traitement par lots E) Division du travail au fil de l’eau avec bureaux dédiés F) Serveurs à file d'attente commune Les six solutions archétypales sont symbolisées dans la figure 1, voici leurs principes. - A - Poste de travail unique Pour faire face à une arrivée aléatoire de travail, la solution la plus simple consiste à installer une file d'attente devant un poste de travail unique (souvent appelé «serveur»). Dès que le serveur a fini de travailler sur un cas, il traite le suivant dans la file d'attente. Si la file d'attente est vide, il reste inoccupé. Les cas nouveaux se placent à la fin de la file d'attente. C'est la première solution, celle d'un poste de travail unique. Cette solution est traitée rigoureusement par la théorie mathématique des files d'attente, classique en recherche opérationnelle. Les résultats mathématiques (voir § 6-1, page 14) expriment que: IAE de Paris (Université Paris 1 • Panthéon - Sorbonne ) - GREGOR - 1999.06 - 4 Pour que la file d'attente se stabilise, il faut que la capacité de traitement soit supérieure au flux de cas arrivant, Le coût est d'autant plus élevé qu'on a mis en place des capacités excédentaires, Le coût est d'autant plus faible qu'on a mis en place des capacités excédant de peu les flux à traiter. Il tend vers un coût minimum correspondant à un traitement continu des dossiers, sans temps mort du serveur, Le délai est d'autant plus bref qu'il existe beaucoup de capacités excédentaires. Il tend vers un délai minimum qui est le temps de traitement lui-même, Le délai est proportionnel à la durée de la tâche du poste de travail, Le délai est d'autant plus bref que le coût est élevé. - B - Hiérarchie au fil de l'eau La deuxième solution archétypale se rapporte à un ensemble de postes de travail recevant indépendamment des dossiers aléatoires (par exemple provenant d’un territoire dont ils sont chargés). Chaque poste de travail est précédé d'une file d'attente qui lui est propre. Il la gère comme dans le cas (A) précédent. Un chef vérifie ensuite chaque dossier. Il stocke les dossiers dans une unique file d'attente. Chaque dossier attend successivement dans une file d'attente à chaque niveau hiérarchique. Ce modèle a été développé par Martin Beckmann (1988 [1]) dans le cadre de ses modélisations du fonctionnement de la hiérarchie dans les organisations. Il dépend de cinq paramètres, les salaires à chaque niveau, les rythmes de travail à chaque niveau et le nombre d'exécutants. Pour équilibrer le travail du chef et celui de ses subordonnés, il existe une condition reliant ces cinq paramètres. Le chef, mieux rémunéré, a une charge de travail supérieure. Du point de vue de l'arbitrage entre coûts et délais, cette solution à deux niveaux hiérarchiques est meilleure que celle du serveur unique (A), lorsque le salaire du chef est supérieur à celui de ses subordonnés. Si les salaires sont égaux, il y a une organisation avec serveur unique (A) qui est équivalente. Ce résultat est compliqué à expliquer. Chaque dossier attend dans deux files différentes. Mais le temps total de traitement est divisé en deux parts. Devant chaque poste de travail, l'attente est plus courte. Quand les salaires sont égaux, les charges de travail sont égales, les attentes sont proportionnelles au temps de traitement du poste de travail. Le total des temps d'attente et le cumul des temps de traitement sont les mêmes que dans une organisation avec un seul serveur (A). Le salaire unique y est une moyenne des salaires du chef et des subordonnés, le temps de travail égal à la somme des temps de travail. Quand le chef est mieux payé, il a une charge de travail plus forte, les dossiers attendent plus devant lui. Comme il est plus occupé, son salaire est réparti entre un plus grand nombre de dossiers. Seules les équations permettent de distinguer lequel de ces deux effets contradictoires l'emporte. Dans l'annexe de cet article, on montre que cette solution (B) est légèrement moins onéreuse que le poste de travail unique (solution A), quand le chef est plus payé que les subordonnés. - C - Division du travail au fil de l'eau avec bureaux communs à plusieurs procédures Il est aussi possible de créer une division du travail, comme le modèle de Beckmann commençait à le faire. Le traitement du dossier est partagé entre une séquence de bureaux. Chaque bureau effectue une partie spécialisée du travail global. Si ces bureaux successifs ne sont pas spécialisés sur la procédure considérée. Ils traitent d'autres dossiers, provenant d'autres procédures. Par exemple, l'étape de contrôle juridique est faite dans un service spécialisé. Mais ce service traite des aspects juridiques de tous les problèmes traités dans l'entreprise. Il intervient dans plusieurs procédures différentes. Spécialisé dans le droit, il a une polyvalence sur le genre de dossiers. Il existe alors une file d'attente devant chaque poste de travail. La division du travail a créé des files d'attente dans chaque bureau. Si chaque bureau est composé d'une seule personne et que tous les employés reçoivent le même salaire, ces procédures enchevêtrées sont équivalentes à un processus de serveur unique. La raison en est la même que pour la solution (B) de Martin Beckmann avec salaires égaux. Le temps de traitement à chaque bureau n'est qu'une partie du IAE de Paris (Université Paris 1 • Panthéon - Sorbonne ) - GREGOR - 1999.06 - 5 temps de traitement global. En conséquence la longueur de la file d'attente est plus petite. La somme des attentes moyennes est la même que celle devant un poste de travail unique polyvalent. La somme des temps de traitement aussi. - D - Division du travail par lots Supposons maintenant que les différents bureaux qui se partagent le travail en séquence soient spécialisés sur la procédure. Une solution consiste à lancer le traitement des dossiers selon une période régulière (tous les jours, tous les mois, tous les ans). Dans ce cas, la file d'attente devant le premier bureau est vidée avec cette périodicité. L'ensemble des dossiers (le lot) est traité par le premier bureau. Il est ensuite transmis au deuxième bureau qui commence à le traiter sans attente parce qu'il est dédié à cette procédure. Ce traitement par lots constitue la troisième solution qui est très mauvaise en coûts et délais. La raison est bien connue des organisateurs d'usine. La taille du lot de transfert influe fortement sur les délais. En effet les éléments d'un lot attendent à chaque poste de travail que les autres soient traités. Plus il y a de dossiers dans le lot, plus le délai est fort. La taille du lot dépend de la périodicité (à même flux d'arrivée). La périodicité est donc le facteur dominant de l'explication du délai. Cette solution s'améliore avec une accélération de la périodicité. Elle reste toujours moins bonne que le traitement au cas par cas sur un serveur unique. - E - Division du travail au fil de l'eau avec bureaux dédiés Le travail est réparti comme dans la solution précédente entre plusieurs bureaux dédiés à la procédure, mais les cas sont traités dès qu’ils arrivent (au fil de l’eau). Il existe une file d'attente devant le premier bureau. Si la capacité de travail des bureaux est équilibrée, ce travail peut être transmis sans attente au bureau suivant. Si on néglige les délais de transmission, cette solution (E) est meilleure que celle du serveur unique (A). Comme les capacités de travail des bureaux sont équilibrées, les dossiers n'attendent qu'une fois, devant le premier bureau. Cette attente est réduite parce que le temps de traitement par le premier bureau n'est qu'une fraction du temps de traitement global. Ce délai d'attente est d'autant plus petit qu'on a divisé le travail en un grand nombre d'étapes. La supériorité de ce modèle s'accroît avec la division du travail. C'est un effet d'économies d'échelle, car il faut avoir suffisamment de travail pour pouvoir le diviser entre beaucoup de personnes. - F - Serveurs à file d'attente commune La dernière solution archétypale considérée ici reprend le principe de personnes polyvalentes traitant la totalité des dossiers, de bout en bout. Mais plusieurs postes se partagent le travail. Ils peuvent traiter indifféremment tous les dossiers qui surviennent. Il existe une seule file d'attente pour tous les serveurs. C'est pourquoi on parle souvent de «serveurs en parallèle». Dès qu'une personne est libre, elle prend le premier dossier de la file d'attente. S'il n'y en a pas, elle reste inoccupée. Cette solution est encore meilleure que la précédente. Elle minimise les occasions pour une personne de rester inoccupée. En effet dans la procédure séquentielle (E), il existe des moments où la file d'attente est vide. Le premier bureau ne fait rien à ce moment. Cette inoccupation se propage ensuite vers les bureaux suivants. Quand plusieurs dossiers arrivent en même temps, on dépasse la capacité du premier bureau. Il y a une attente dans la file. Simultanément, il existe des personnes inoccupées dans les bureaux (autres que le premier). Au contraire, quand les serveurs polyvalents se partagent une même file d'attente (F), il n'y a aucun moment où des dossiers attendent alors que des personnes seraient inoccupées. Chaque personne traitant tout dossier indifféremment, elle a comme règle de se saisir du premier dossier en attente, s'il y en a, dès qu'elle est inoccupée. Cette caractéristique est la raison pour laquelle, en termes de délai et de coût, cette solution surclasse celle de la procédure séquentielle au fil de l'eau et donc toutes les autres. Cette dominance n'est pas fondée sur une réduction des délais de transmission puisque les dossiers sont traités par une seule personne. Plus le nombre de personnes est grand, plus cette dominance est forte. Ce raisonnement de comparaison repose sur le fait qu'on ne suppose aucun effet de productivité avec la division du travail. Le temps de travail global est seulement coupé en temps de travail de chaque bureau. Par ailleurs on ne suppose pas d'effet de salaire. Quand les salaires sont IAE de Paris (Université Paris 1 • Panthéon - Sorbonne ) - GREGOR - 1999.06 - 6 différents (cas traité pour la solution B), le salaire du poste unique auquel on peut se comparer (auquel la solution est identique) est un salaire moyen entre ceux des exécutants et celui du chef. Les solutions E et F sont les meilleures. Elles ne peuvent être mises en place sans un flux de travail suffisant pour le répartir entre plusieurs personnes. Plus ce flux est important, meilleures sont ces solutions. C'est un effet d'économies d'échelle. Ces arguments sont construits sur l'identification des attentes et leur concomitance avec une inoccupation de personnes. Ils sont précis et convaincants. Ils permettent un classement entre les solutions archétypales. Il est possible aussi de construire précisément les courbes «délai x coût» de chaque cas (voir figure 3, page 16, figure 4, page 18 et figure 5, page 20). On retrouve naturellement le même classement des solutions archétypales. Les formules mathématiques expriment quantitativement la même chose que le raisonnement qualitatif sur les attentes au même moment que des personnes sont inoccupées. En termes d'organisation, la conclusion serait de mettre en place uniquement des structures d'organisation avec serveurs polyvalents (E). Il existe des contraintes qui font que ce n'est pas toujours possible. Les préceptes du BPR, exposés par Hammer (1990 [6]), se ramènent très largement à cette conclusion si simple. Cela mérite d'être examiné en détail. 3 Les principes du BPR Les sept principes du BPR, tels que Hammer les a avancés en 1990 [6], peuvent s'interpréter au regard des solutions archétypales. Il est temps maintenant de les examiner soigneusement et de les justifier. On les passe en revue ci-dessous. 3-1 Principe 1 - Polyvalence des personnes de bout en bout dans le processus («to have one person perform all the steps in a process») La même personne réalise toutes les étapes du processus. Elle suit le dossier de bout en bout. Les tâches traditionnellement séparées sont «intégrées» dans un même poste. Ce principe va complètement à l’encontre de toutes les habitudes de division du travail. Dans la production industrielle, on a depuis très longtemps spécialisé les personnes comme Adam Smith l’avait remarqué. Les raisons de cette spécialisation étaient: - l’amélioration de l'habileté sur une tâche réduite (à condition qu’elle ne soit pas contrebalancée par l’ennui), - la faible compétence de la main d’œuvre (avec une division du travail très poussée, on peut former rapidement les personnes), - les aptitudes inégalement réparties chez les travailleurs (des personnes sans formation, donc moins payées, exercent les postes les plus simples), - l’adaptation aux machines qui sont les auxiliaires du travail industriel pour des étapes bien précises (les machines permettent une augmentation de productivité). Certaines de ces raisons continuaient d’être vraies dans les entreprises de services au cours du 20˚ Siècle. Les caractéristiques de la population des pays industrialisés et les technologies informatiques rendent ces raisons moins pressantes: - les employés ont une compétence de base assurée par le système éducatif et on sélectionne, au moment de l’embauche, en fonction de cette compétence, - la formation permanente permet d’accroître rapidement la compétence et l’adaptabilité à de nouveaux modes de travail, - les machines informatiques ont une polyvalence qui permet aujourd’hui d’accéder à toute la variété des programmes et des ressources depuis un poste de travail standard (alors que les dossiers et archives papier n’étaient accessibles que dans un service unique spécialisé sur une tâche), IAE de Paris (Université Paris 1 • Panthéon - Sorbonne ) - GREGOR - 1999.06 - 7 - la compétence est épaulée et contrôlée par les programmes informatiques (par exemple les systèmes d’assistance peuvent de manière experte apporter la connaissance d’une réglementation appliquée très rarement). La diversité des compétences reste un argument d’actualité qui peut justifier une place à part pour les personnes disposant d’une compétence particulière (en général avec des diplômes) afin de les utiliser au mieux compte tenu de leur salaire plus élevé. Elle reste un principe de différenciation des tâches. Par exemple, restent spécialisées les tâches de signature par le chef hiérarchique, seul habilité à engager juridiquement l’entreprise. Si les arguments de la division du travail cessent partiellement d’être vrais, il faut considérer les arguments inverses. Herzberg (1959 [10]) plaidait dès la fin des années cinquante pour élargir les tâches et les enrichir, c’est-à-dire regrouper les tâches divisées au long de la séquence des opérations et intégrer dans l’exécution quelques tâches de contrôle ou fonctionnelles (petite maintenance par exemple). Mais son objectif premier était la motivation et ce n’est qu’au travers de celle-ci qu’il visait la productivité. La division du travail a un inconvénient bien connu. Il faut assurer le déplacement des matières (ou des dossiers dans les services) d’un poste de travail à un autre. Avec la chaîne, Ford mécanise ce déplacement. Dans les services, on a mis en place des systèmes automatiques de transport des dossiers papiers, plus ou moins perfectionnés. En allant plus loin, le Workflow (Gestion Electronique de Documents) transforme tous les dossiers en image informatique et les réseaux assurent leur communication d’un poste de travail à un autre. Ces systèmes automatisent le passage d’un poste de travail à un autre, donc réduisent les délais et suppriment les postes des personnes (en général peu formées) chargées de faire circuler les dossiers. Pourtant le premier principe de Hammer ne fait pas allusion à ses systèmes qui conservent la division du travail en limitant seulement ses inconvénients. En concevant un poste qui assure toutes les tâches du processus, on change de modèle d’organisation et les coûts et délais associés sont radicalement meilleurs. Dans ces comparaisons, on a supposé que le temps total passé à traiter le dossier est le même quand c'est une personne qui le prend en charge ou quand c'est une succession de personnes spécialisées. Ces hypothèses ne sont pas toujours vraies si les compétences dans la procédure sont très diverses. On ne pourra pas trouver de personne polyvalente, sauf à prendre celle qui fait la tâche la plus difficile. Il faut alors lui conserver son salire élevé. La tâche polyvalente devient alors très chère. L'argument, que je crois fondamental pour la division du travail, de différenciation des salaires est une limite forte au regroupement des tâches. A l'inverse, une autre remarque vient en faveur de la solution de regroupement de tâches. Dans une procédure séquentielle, chaque bureau prend connaissance du dossier. Ce temps de lecture se répète. En supprimant la division du travail, on supprime cette duplication de lecture. Il est donc possible que le temps total passé par la personne polyvalente pour traiter le dossier de bout en bout, soit inférieur au total des temps éclatés. Dans tous les exemples donnés par les chercheurs ou les consultants, on note la diminution du nombre d’étapes dans les procédures. Par exemple Hammer (1993 [7]) montre que la compagnie de téléphone Bell Atlantic a raccourci le délai de raccordement des nouveaux abonnés de 15 jours à 5 heures en constituant des équipes de 5 à 6 personnes à compétence transfonctionnelle dans un seul lieu, pour toute la chaîne du travail effectuée auparavant par 13 personnes en séquence, installées dans des lieux différents. Ce principe consiste à conduire une organisation avec division du travail (solution E) vers une organisation (F) de personnes polyvalentes partageant la même file d'attente (figure 2, page 8). Faire traiter les cas de bout en bout par la même personne suppose des outils informatiques puissants pour qu’elle dispose, sur son poste de travail, de tous les éléments du dossier qui est traité à ce moment, quelque soit ce dossier. Ce ne serait pas possible avec des archives papier. IAE de Paris (Université Paris 1 • Panthéon - Sorbonne ) - GREGOR - 1999.06 - 8 F Serveurs à file d'attente commune 1 - Polyvalence des personnes dans le processus 4- Centralisation virtuelle E Division du travail au fil de l'eau avec bureaux dédiés 6- Décentralisation de la prise de décision et contrôle sur les résultats A poste de travail unique Division du travail avec actions réalisées en parallèle Figure 2 : Interprétation des principes du BPR selon Hammer (1990) 5- Mise en parallèle des activités 2 -Fournir les informations et des aides informatiques partout C Division du travail au fil de l'eau avec bureaux communs à plusieurs procédures B Hiérarchie au fil de l'eau D Division du travail avec traitement par lots 3- Intégration du système d'information au monde réel 7- saisie unique à la source 3-2 Automatisation du SI Automatisation du SI Principe 2 - Fournir les informations et des aides informatiques partout («computer-based data and expertise are more readily available») Le deuxième principe signalé par Hammer (1990 [6]) n’est qu’une condition pour que le premier soit réalisable. Il s’agit de fournir toute l’information à la personne qui traite le dossier. L’accès aux bases de données, la construction de systèmes experts spécialisés, la fourniture de documentation en ligne sont des moyens pour rendre compétentes des personnes, sans formation ni mémoire considérable sur chaque cas qui se présente. Ces aides informatiques au travail permettent aux opérationnels de faire tout seuls, sans attente, sans plus d'erreurs, ce qu'ils devaient demander aux services fonctionnels spécialisés (comptabilité, achats, maintenance). On passe de la solution (C) à la solution (F) (voir figure 2). IAE de Paris (Université Paris 1 • Panthéon - Sorbonne ) - GREGOR - 1999.06 - 9 Les procédures ne peuvent être abandonnées au profit de tâches globalisées que si ces traitements de l'information sont accessibles aux opérationnels. Si la mise en place de ces outils d’aide n’est que progressive, les transformations organisationnelles suivent ce rythme. Les services informatiques sont ainsi des partenaires obligés de toutes les actions de BPR. La perspective de l’informatisation associée au BPR n’est donc pas de remplacer les personnes dans leurs tâches mais de déplacer le lieu de traitement. Du service spécialisé, il migre vers les personnes polyvalentes qui traitent les cas de bout en bout. C'est en ce lieu, réparti dans la structure, que sont fournies les informations, au moment où les gens en ont besoin. L’informatique communique et suit le rythme de travail des personnes. Lucas, Berndt et Truman (1996 [16]) donnent un exemple de reconfiguration du processus de traitement des valeurs sur support papier déposées par les clients aux agences de Merrill Lynch. Ces valeurs sont envoyées par la poste au centre unique de traitement. Une part du temps était consommé en aller-retour entre le centre et les agences pour des anomalies (documents annexes non fournis, valeurs n’ayant pas cours légal…). Un système expert, accessible dans les agences, permet de consulter toutes les valeurs en circulation et de décrire tous les cas où des documents annexes sont nécessaires (certificat de décès en cas d’héritage par exemple). On réduit alors à la fois le temps passé par les agents (donc le coût) et le délai pour le client (à cause des aller-retour). Des solutions de workflow ont aussi été mises en œuvre. Les valeurs sont scannées (ou microfilmées si elles sont de format trop important). Une part du traitement est faite après reconnaissance optique du document s’appuyant sur une base de données des "valeurs papier" en circulation. Cette migration des tâches spécialisées vers les agents polyvalents correspond à un abandon du modèle (C) de bureaux spécialisés communs à plusieurs procédures. On a vu qu'effectivement il n'est pas le meilleur (s'il n'y a pas d'effet de productivité). Il faut cependant vérifier que les tâches spécialisées sont bien accomplies par la personne polyvalente aidée de son informatique. Ceci dépend sans doute de la complexité des cas. 3-3 Principe 3 - Intégration du système d'information au monde réel («subsume information-processing work into the real work that produces the information») Traditionnellement les activités administratives, d’« écriture », sont effectuées par des employés spécialisés. Il s’agit de la distinction bien connue des cols blancs et des cols bleus. Les personnels des ateliers ne sont pas amenés à tenir des crayons et des papiers. Quand ils le font, on sait que la qualité de leur écriture n’est pas fameuse. L’informatique renouvelle cette approche. On peut par des terminaux, spécialisés ou non, faire réaliser la saisie des informations par les personnes en contact le plus direct avec le «monde réel», celui sur lequel portent les informations. Avec cette intégration, quand elle est possible, on supprime les postes administratifs par informatisation. La saisie des données par les productifs, par les clients, par les demandeurs exige des systèmes informatiques spécialisés, sécurisés, conviviaux. Ici encore la réalisation informatique est une partie essentielle du BPR. En intégrant système d'information et monde réel, on supprime des étapes dans une procédure, par automatisation. Au bout de ce principe, on supprime tout traitement manuel de l'information. Après la saisie par le client, toutes les tâches sont prises en charge par la machine. Cette perspective de totale automatisation est loin d'être neuve. Dans le cas de Bell Atlantic, rapporté par Hammer (1993 [7]) et cité plus haut, on veut aller vers du zéro délai d'installation de service téléphonique. Le client saisira lui-même sa demande (par Internet) et ce sont des programmes qui déclencheront les actions sur les centraux téléphoniques pour que le système soit mis à disposition. C'est possible si l'infrastructure, lignes notamment, est déjà en place. La IAE de Paris (Université Paris 1 • Panthéon - Sorbonne ) - GREGOR - 1999.06 - 10 partie administrative, signature de contrat, acceptation du tarif, sera prise en charge après la mise à disposition du service; 3-4 Principe 4 - Centralisation virtuelle («treat geographically dispersed resources as though were centralized») Le quatrième principe concerne les grandes entreprises qui disposent de localisations géographiques sur un territoire: agences, bureaux, boutiques,… Si on les regroupe, on bénéficie des économies d'échelle qu'il y a entre le modèle de serveur unique répété (A) et la mise en commun de la file d'attente (F). On évite le gâchis d'un serveur inoccupé à un endroit alors qu'il existe des dossiers en attente dans un autre endroit. L'avantage supplémentaire de la centralisation vient de l'ajustement plus facile aux flux. Les bureaux répartis n'ont jamais une charge complètement égale. Même si à au moment de leur création, leurs charges sont similaires. Les évolutions créent des distorsions entre bureaux locaux. La mise en commun de la charge de travail évite ces surcharges locales, souvent compensées par des charges très faibles ailleurs. Ces économies d’échelle face aux aléas de l’arrivée des dossiers sont les mêmes que celles entraînées par la centralisation des stocks. Le stock centralisé évite les situations de rupture dans un dépôt local avec des marchandises dans d’autres dépôts. Bien sûr, il faut que ce regroupement soit possible, c’est-à-dire que le service soit offert localement malgré le regroupement géographique. Les technologies de la communication rendent l’accès à distance possible. Les exemples sont bien connus avec les «call centers» («centres d’appels») qu’on retrouve ici comme résultat du BPR. Mais la technologie va plus loin. Il n’est pas nécessaire de déplacer physiquement les personnes en un seul centre. Puisque leur travail est délocalisé par rapport à la demande, il peut l’être par rapport à l’équipe des personnes substituables. La délocalisation du travail rend possible la constitution d’un service unique sans déplacer les personnes. La centralisation géographique peut être virtuelle. La charge de travail est mutualisée entre tous les serveurs. Dès qu’un dossier attendrait sur son site local, il est proposé aux agences éloignées géographiquement qui sont libres à ce moment. Les centres locaux s’échangent la charge de travail. C’est le regroupement en équipes virtuelles préconisé par Hammer. Sur la figure 2, page 8, il est représenté par le passage de solutions A répétées, avec autant de files d'attente, à la solution (F) d'une file d'attente commune. Le regroupement permet aussi d’ajuster les effectifs à la saisonnalité de la charge de travail: variation dans la journée, dans la semaine, dans l’année. Quand les effectifs sont limités, voire une seule personne, il n’y a pas de modulation possible. Quand les effectifs sont importants, cet ajustement limite le surcoût découlant d’effectifs pléthoriques à certains moments et les délais d’attente des dossiers lors des périodes de pointes. Wareham et Neergaard (1998 [19]) rapportent le cas de la réorganisation de la compagnie d’assurance mutuelle Alka au Danemark. La réorganisation a eu comme principe directeur le «guichet unique». Chaque client doit avoir un seul point de contact avec Alka, directement par téléphone, pour gérer son contrat (ventes) et un autre pour gérer son sinistre (déclaration, remboursement…). Antérieurement il devait s’adresser successivement par courrier aux divers services spécialisés. À la place de 26 agences locales, ce sont 6 agences régionales puis trois qui assurent les contacts commerciaux. Les auteurs n’indiquent pas les effectifs consacrés à la vente. Ils disent que 56 postes de travail ont été supprimés (sur un effectif total de 375 personnes). Et la compétence (polyvalence) du personnel en place a été largement augmentée. Les procédures, derrière le guichet unique, continuent d’exister. Elles ont été simplifiées avec un maximum de 69 étapes réduit à 30 pour le commercial et, pour les sinistres, on passe de 193 étapes au maximum à 44. Le délai moyen passe de 32 jours à 6 jours pour régler un sinistre. IAE de Paris (Université Paris 1 • Panthéon - Sorbonne ) - GREGOR - 1999.06 - 3-5 11 Principe 5 - Mise en parallèle des activités («link parallel activities instead of integrating their results») La structure traditionnelle des procédures est la séquence, la succession d’étapes. On copie ainsi la succession des postes de travail de la chaîne. Mais même sur la chaîne des usines, il arrive que deux opérations soient simultanées, par exemple quand elles portent sur des sousensembles différents avant leur montage. Pour le traitement d’un dossier, certaines étapes peuvent se dérouler simultanément, d’autant plus aisément que le dossier est dématérialisé. Il est clair que les délais de chaque étape ne s’ajoutent plus. On gagne en délais. Ce principe de simultanéité des étapes est celui qu’on trouve en production pour le montage des outils et le réglage des machines en «temps caché» (pour réduire les temps d’arrêt entre deux séries de production). Pour gagner du temps, on commence une étape avant que la précédente soit terminée. Ce principe conduit à une solution qui n'a pas été examinée dans la section 2. Cette solution est meilleure que la succession des étapes (E). Elle peut être meilleure que (F), ou moins bonne, selon les cas. Sur la figure 2, page 8, on l'a représenté avec des performances variables par rapport à celles de la solution (F) de la file d'attente commune. 3-6 Principe 6 - Décentralisation de la prise de décision et contrôle sur les résultats («put the decision point where the works is performed and build control into process») Dans son sixième principe, Hammer parle de la division verticale du travail, entre les exécutants et la hiérarchie. Le traitement d'un cas par les opérationnels fait parfois intervenir des niveaux plus élevés, pour des décisions, des autorisations, des signatures officielles. Cet appel à la hiérarchie est tout à fait similaire à la division fonctionnelle du travail que Hammer veut éviter (deuxième principe § 3-2). C'est par des outils informatiques qu'on déplaçait le lieu de réalisation de ces tâches spécialisées. La même solution est proposée pour ces tâches de la hiérarchie. Le rôle de la hiérarchie est joué par les outils informatiques qui encadrent les actions et enregistrent ce qui a été fait. Les personnes sont alors responsables de leurs actes. La hiérarchie jouera son rôle de contrôle, en intervenant a posteriori au lieu d'intervenir a priori. Hammer préconise donc une décentralisation de la décision et du contrôle au point le plus bas, le plus proche du processus du monde réel. La hiérarchie peut ainsi presque complètement disparaître. Ce sont des coûts qui disparaissent, en même temps que les délais sont diminués. La hiérarchie apparaît dans la solution archétypale (B) de Beckmann. On a vu qu'elle est proche de la solution A d'un serveur unique. Elle est surclassée par la solution (F) de prise en charge globale d'un dossier par les mêmes personnes, mutualisant leur file d'attente. Le sixième principe de Hammer s'interprète comme un passage à la solution (F) (voir figure 2, page 8). 3-7 Principe 7 - Saisie unique à la source («capture information once and at the source») Le septième principe de Hammer concerne la saisie unique à la source. Il s'agit encore de la suppression d'étapes dans le processus de traitement informationnel. Ce principe a été énoncé depuis longtemps pour la conception des systèmes d’information. Il a pour but d'automatiser une partie du processus informationnel, donc de supprimer du traitement administratif manuel, comme le principe § 3-3 dont au fond il ne diffère pas. IAE de Paris (Université Paris 1 • Panthéon - Sorbonne ) - GREGOR - 1999.06 - 4 12 Cohérence des principes de Hammer Quatre des sept principes de Hammer s'interprètent précisément comme un changement vers la solution la meilleure en termes de coût et de délai, celle de serveurs suivant de bout en bout le traitement des dossiers et partageant une file d'attente commune (F). Le principe 5 (§ 3-5, page 11), préconisant une mise en parallèle des activités, est aussi un principe organisationnel. Au lieu de regrouper les tâches sur une seule personne, on gagne encore en délai si on fait exécuter plusieurs morceaux de la tâche globale simultanément. Les principes 3 (§ 3-3, page 9) et 7 (§ 3-7, page 11) , intégration du SI au monde réel et saisie unique à la source, sont au contraire animés d'un esprit très classique d'automatisation. Là où il y a un travail humain, parfois la machine peut l'accomplir. Dans ces conditions les délais et les coûts sont ceux de l'informatique. On en conclut qu'il y a deux aspects complémentaires dans la démarche du BPR. D'une part on réorganise vers une exécution des tâches globalement de bout en bout ou vers un parallélisme. D'autre part, on informatise. Cette informatisation possède son propre but de substituer la machine aux personnes dans le traitement des dossiers (automatisation), mais elle est aussi la condition pour rendre possible la réorganisation du travail humain. L'un et l'autre but vont de pair. La description des exemples n'est pas suffisamment précise pour qu'on puisse les distinguer. Cette analyse du BPR conduit à proposer des interprétations des succès comme des échecs. L'informatique est un passage obligé de la réorganisation. Mais l'essentiel réside sans doute dans la réorganisation. Comme disent Davenport et Stoddard (1994 [2]), considérer l’informatique comme le moteur du BPR est un mythe. En revanche, elle peut être un inhibiteur qui empêche le changement à cause de retards ou d’impossibilités à construire les nouveaux systèmes. Si les informaticiens gèrent le projet, ils risquent sans doute de ne pas saisir la complexité du changement organisationnel. L'échec potentiel est alors dû à un pilotage insuffisant. Il arrive aussi que les changements mis en œuvre ne génèrent pas de gain important. Ses pilotes n’ont pas de ressource à négocier avec personnes qui font le travail, sous forme de réduction d’horaires ou d’augmentation des salaires. Ceux-ci ressentent la réorganisation comme une intensification des cadences. Ce n’est probablement pas une implication plus grande des directions générales qui résoudra les conflits potentiels. La réorganisation doit identifier toutes les particularités du travail qui rendent empêchent d'évoluer vers la solution (F) ou vers la simultanéité des tâches. Parmi ces spécificités, notons la relation non formalisée construite par les agents sur leur territoire. Beaucoup d'éléments non connus du système d'information peuvent contribuer au succès de la tâche. Banaliser le traitement des dossiers locaux dans un centre unique peut alors dégrader la qualité du travail. Parfois aussi les procédures par lots ne peuvent pas être abandonnées. C’est le cas quand le traitement de chaque dossier interfère avec celui des autres dossiers (classement, répartition de ressource limitée, quotas, concours, budget, postes…) ou lorsqu’on veut traiter la totalité des éléments d’un ensemble (période comptable, territoire géographique). Les écarts de salaires continuent parfois d'être un bon argument de la division du travail. Les spécialistes bien payés sont plus productifs en étant assistés de personnes dont le salaire est moindre. L'intégration des tâches dans un poste de travail unique est alors peu rentable. Il est tout à fait étonnant que cet aspect ne soit pas abordé dans les textes concernant le BPR. En replaçant chaque principe du BPR dans le mécanisme qui fonde son intérêt, on facilite sans doute la compréhension des actions dans chaque processus. Compte tenu de la multiplicité des principes, il est bien possible qu'ils soient mal interprétés et appliqués hors de propos. Par exemple, privilégier les seuls principes 3 (§ 3-3, page 9) et 5 (§ 3-5, page 11), centrés sur l'automatisation, est une mauvaise interprétation. Souvent, les vagues d'informatisation précédentes ont déjà les limites du possible dans ce domaine. IAE de Paris (Université Paris 1 • Panthéon - Sorbonne ) - GREGOR - 1999.06 - 5 13 Simuler les résultats de la réorganisation Les gains de la réorganisation se mesurent au minimum en termes de réduction des délais et des coûts. Pour connaître ces gains avant de déclencher le changement, il faut étudier le fonctionnement de la nouvelle organisation. Une situation concrète correspond rarement aux solutions archétypales ici développées. Pour les cas réels, spécifiques à des organisations, il faut mettre en œuvre des outils de simulation. Avec ceux-ci, on teste diverses propositions. Avant qu’on entreprenne le changement, on peut connaître les impacts. Cette approche est déjà suivie par quelques praticiens. Kim et Kim (1997 [13]) modélisent le trajet des malades en consultation à l’hôpital adventiste de Séoul. Les étapes administratives (enregistrement et paiement) sont obligatoires. Puis les malades sont vus par le médecin. Ensuite ils peuvent répéter plusieurs fois des étapes d’examens ou analyses (prépayés) ou délivrance de médicaments (prépayés aussi). Les chercheurs ont observé les lois d’arrivée des patients, les temps de prestations des diverses étapes. La simulation, avec les mêmes chiffres de base, indique, comme les observations, 1,5 heures de temps passé par les patients en consultation à l’hôpital. La simulation permet alors de tester d’autres hypothèses organisationnelles: intégration de l’enregistrement et du paiement, automatisation des tâches administratives et réduction des personnels administratifs, augmentation du nombre de médecins. Le processus ainsi redéfini traite les patients en 20 minutes en moyenne, d’après la simulation. Gain considérable de temps avec des dépenses similaires dont l’article ne parle qu’au travers du taux d’utilisation des personnes. La simulation est un support fort de l’évaluation quantitative d’une réorganisation par le BPR. Kumar, Ow et Prietula [14] adoptent la même méthodologie pour traiter un autre cas d’organisation d’hôpital. Ils s’intéressent à la fixation des horaires des analyses médicales par les équipements spécialisés (radio, IRM, scanner…). C’est un problème d’ordonnancement avec des contraintes similaires à celles de la production industrielle. Ils considèrent une gestion centralisée ou non des services (où séjournent les patients) et une gestion centralisée ou non des laboratoires. Ils simulent les quatre situations avec différents flux de patients. Ils abordent ainsi par la simulation le problème classique des théories organisationnelles du lien entre structure et technologie (informationnelle dans ce cas). La modélisation de processus renforce sans doute les chances de succès d'une réorganisation. Elle facilite l'identification des gains potentiels de diverses solutions alternatives. Avec les principes de Hammer et par tâtonnement on découvre la manière de s'organiser pour avoir le moins possible d'attentes et de personnes inoccupées, malgré les aléas du travail à accomplir. Les logiciels spécialisés facilitent aujourd'hui cette approche. IAE de Paris (Université Paris 1 • Panthéon - Sorbonne ) - GREGOR - 1999.06 - 14 Annexe Solutions archétypales de traitement du travail de bureau à arrivée aléatoire 6 Notation et hypothèses générales - dossiers survenant de manière aléatoire selon un processus de Poisson (l’intervalle entre arrivées suit une loi exponentielle) - λ = taux d’arrivée des dossiers, nombre par unité de temps - µ = capacité de travail du poste de travail, nombre par unité de temps - 1/µ = temps passé à travailler sur chaque dossier - w = salaire par unité de temps des personnes au poste de travail - s0 et s1 effectifs de niveaux d'organisation notés 0 et 1 - µ0 et µ1 capacité de travail des personnes de niveau 0 et 1 - w0 et w1 salaires des personnes au niveau 0 et 1 - WT = temps d’attente moyen d’un dossier + temps de traitement - WT = temps d’achèvement du travail - C = coût par dossier, coût total divisé par le nombre de dossiers - x = délai normalisé = µ WT - 1 - y = coût normalisé = C µ/w - 1 x et y sont des nombres purs Le coût et le délai évoluent en sens inverse. Dans un plan "coût x délai", chaque solution archétypale est caractérisée par une courbe spécifique entre coût et délai. La performance est formée par la position de cette courbe. 6-1 Solution archétypale A - Poste de travail unique Pour atteindre un état stationnaire, il faut que µ > λ Classiquement la recherche opérationnelle donne les résultats suivants: WT = 1/(µ - λ) C = w/λ Avec les variables normalisées x et y: x + 1 = µ WT = µ/(µ - λ) y + 1 = C µ/w = µ/λ y = 1/x 6-2 Relation 1 Relation 2 Relation 3 Relation 4 Relation 5 Solution archétypale B - Hiérarchie au fil de l'eau (Beckmann) Le niveau des exécutants est noté par l’indice zéro. Le niveau du supérieur hiérarchique par l’indice 1. La capacité de travail des exécutants (supposée égale entre les personnes) est µ0 et celle du chef µ1. Le nombre d’exécutants est s0, le nombre de chefs s1 est égal à 1. On a évidemment la relation de capacité: s0µ0 > λ et s1µ1 > λ Relation 6 Chaque exécutant de niveau 0 a un flux de travail λ/s0. Le délai d’achèvement du travail successivement par les exécutants et par le chef est: WT = 1/(µ0 - λ/s0) + 1/(µ1 - λ/s1) Relation 7 Le salaire des exécutants est w0 et celui du chef w1. Le coût de cette organisation par dossier traité est: IAE de Paris (Université Paris 1 • Panthéon - Sorbonne ) - GREGOR - 1999.06 C = (s0w0 + s1w1)/λ 15 Relation 8 Ces deux équations permettent, pour une organisation donnée (µ0, µ1, s0, s1, w0, w1 fixés) de faire varier λ et d’étudier la variation concomitante de WT et C. Beckmann aborde un problème supplémentaire, celui de la fixation des effectifs. Avec s0 et s1 comme variables, l’organisation est optimale, sous les critères de coût (C) et de délai (WT), si les dérivées partielles sont dans le même rapport. ∂C/∂s0/∂WT/∂s0 = ∂C/∂s1/∂WT/∂s1 Relation 9 En calculant les dérivées partielles dans les relations 7 et 8 on obtient: w0 (s0µ0 - λ) 2 = w1 (s1µ1 - λ) 2 Relation 10 Cette relation 10 donne une valeur de λ pour laquelle une organisation caractérisée par µ0, µ1, s0, s1, w0, w1 est optimale en coût C et délai WT. Autrement dit si λ varie, pour garder une configuration optimale, un des paramètres µ0, µ1, s0, s1, w0, w1 varie simultanément. Si on suppose que ce sont les effectifs s0 du niveau 0 qui s'ajustent. Posons: x0 = délai normalisé du niveau 0 = µ0 WT0 - 1 = [s0 µ0/(s0 µ0 - λ)] - 1 y0 = coût normalisé du niveau 0 = C0 µ0/w0 - 1 = s0 µ0/λ - 1 x1 = délai normalisé du niveau 1 = µ1 WT1 - 1 = [s1 µ1/(s1 µ1 - λ)] - 1 y1 = coût normalisé du niveau 1 = C1 µ1/w1 - 1 = s1 µ1/λ - 1 C = C0 + C1 WT = WT0 + WT1 y0 = 1/x0 y1 = 1/x1 λ = µ0s0/(y0 + 1) = µ0s0x0/(x0 + 1) = µ1s1/(y1 + 1) = µ1s1x1/(x1 + 1) Relation 11 Les relations 10 et 11 permettent alors de calculer s0/s1 en fonction des variables du modèle. A chaque charge de travail λ, l'effectif optimal s0/s1 est différent: s0/s1 = (µ1/µ0) (1 + x0)/[(w0/w1) 1/2 + x0] Relation 12 On peut montrer alors que le coût et le délai peuvent s'écrire sous une forme similaire à celle du modèle A avec un seul poste de travail. Posons: 1/µ = 1/µ0 + 1/µ1 (1/µ = le temps total de travail est la somme des temps des deux niveaux) w/µ = w0/µ0 + w1/µ1 Relation 13 Relation 14 (le salaire w du serveur unique est un salaire moyen entre celui des deux niveaux, pondéré par les temps de travail) Il existe deux variables x et y telles que: WT = (x + 1)/µ et C = (y + 1) w/µ Avec x et y liés par la relation 17 Relation 15 Relation 16 x y = [µ02w1 + µ12w0 + 2 (w0w1) 1/2µ0µ1]/[µ02w1 + µ12w0 + (w0 + w1) µ0µ1] Relation 17 Le produit des variables x y est constant, comme dans le modèle A. Mais cette constante est faiblement inférieure à l'unité (parce que 2 (w0w1) 1/2 est inférieur à w0 + w1). Ceci signifie que le modèle hiérarchique à deux niveaux est légèrement meilleur que le modèle A équivalent avec un seul serveur, travaillant le même temps total et rémunéré à un salaire moyen, pondéré par les temps. La figure 3, page 16 montre la variation concomitante du délai normalisé x et du coût normalisé y. La courbe est tracée pour le modèle de Beckmann et le modèle équivalent à un seul serveur (A). Les écarts sont très faibles (10 % dans ce cas). On remarque que la solution opti- IAE de Paris (Université Paris 1 • Panthéon - Sorbonne ) - GREGOR - 1999.06 - 16 male de Beckmann suppose des effectifs de subordonnés (s0) variant de 5 à 7 dans la zone représentée. Figure 3 : Courbe d'évolution du coût normalisé y en fonction du délai normalisé x. Les calculs ont été faits avec les valeurs suivantes: m0 = 1/4, m1 = 1, w0 = 1, w1 = 4, s1 = 1. Les effectifs s0 sont variables de manière à rester au point optimal. En réalité s0 est un nombre entier. On n'est donc jamais complètement optimal. Pour s0 ayant des valeurs entières, les valeurs de x et y sont très proches. La différence ne serait pas discernable sur le graphique. 5 y coût normalisé par dossier 4 Solution équivalente A avec un serveur unique s0 = 7 3 2 s0 = 6 1 Solution hiérarchique B de Beckmann s0 = 5 0 0 1 2 3 x délai d'achèvement normalisé Quand les salaires w0 et w1 sont égaux, la relation 17 exprime que x y = 1, la solution organisationnelle est identique à celle du modèle A d'un serveur unique. Le temps de traitement est la somme des temps de traitement. 6-3 Solution archétypale C - Division du travail au fil de l’eau avec bureaux communs à plusieurs procédures Chaque dossier (d’un certain type) est traité successivement par plusieurs bureaux. Chacun de ces bureaux intervient dans différentes procédures. Les dossiers arrivant entrent dans une file d’attente propre à chaque bureau. Le délai d’achèvement du traitement du dossier est alors la somme des délais d’attente et des temps de traitement dans chaque bureau, plus les temps de transfert. Soit ai = temps d’achèvement du travail dans la file d’attente de l’agent i WT = Σi ai + Σi TTi Relation 18 La valeur de ai dépend de l’organisation du bureau i. Le cas le plus simple est celui de bureaux composés d’une personne. Si le bureau i traite une charge de travail λi, composée des diverses procédures qui y passent, la valeur du délai d’achèvement est celle qu’on a vue au cas A: ai = 1/( µi - λi) Relation 19 IAE de Paris (Université Paris 1 • Panthéon - Sorbonne ) - GREGOR - 1999.06 - 17 Pour connaître le coût associé à la procédure, il faut répartir le salaire wi des exécutants entre les différentes procédures qu’ils traitent. La répartition au nombre de dossiers traités donne un coût unitaire wi/λi : C = Σi wi/λi Relation 20 Si les salaires sont égaux (wi = w), si les charges de travail sont égales (λi = λ), si les capacités de travail sont identiques (µi = n µ) et si les temps de transferts sont nuls (TTi = 0), on a: WT = 1/(µ - λ/n) Relation 21 Relation 22 C = w/(λ/n) Le délai et le coût sont les mêmes que ceux du serveur unique (modèle A) avec une arrivée de dossiers de seulement λ/n. Introduisons les variables normalisées de coût et de délai: x = délai normalisé = µ WT - 1 y = coût normalisé = C µ/w - 1 Les relations 21 et 22 donnent l'équation 5 du modèle A: x = 1/y Avec des salaires inégaux, on retrouverait les mêmes résultats qu'avec le modèle de Beckmann (B). 6-4 Solution archétypale D - Division du travail avec traitement par lots Les personnes sont dédiées à la procédure. Elles se transmettent le travail par lots de dossiers, constitués par un rythme régulier du premier poste de travail. A chaque étape, on traite un ensemble de dossiers, regroupant tous ceux d’une période. Chaque poste de travail ou bureau traite la totalité des dossiers avant de transmettre le lot à l’étape suivante. On suppose que les bureaux sont affectés à temps plein à la procédure. On suppose qu'aucun travail n'attend plusieurs périodes. Notations: T périodicité (délai entre deux traitements) N = λ T nombre de dossiers à traiter par période de durée T n bureaux i installés en séquence si effectifs du bureau i (nombre d’agents) s = Σi si effectifs totaux des bureaux Pour que le processus soit stable, il faut que la capacité de travail de chaque étape, "siµi" soit supérieure au flux de dossiers λ. si µi > λ Relation 23 Le délai d’achèvement du travail est la somme du délai de constitution du lot, du temps de traitement dans chaque bureau et du temps de transfert entre bureaux. Le délai de constitution du lot vaut "T/2" si les dossiers arrivent régulièrement, indépendamment des arrêtés de période et si on traite à chaque période tous les dossiers en attente, sans report à la période suivante. Le temps de traitement dans chaque bureau dépend du nombre de cas que traite chaque personne. Les N dossiers de la période sont répartis entre les si personnes du bureau. Le temps de transfert entre bureaux est noté TTi. WT = T/2 + Σi Arrondi. sup (N/si)/µi + Σi TTi Relation 24 En notant «Arrondi. sup (N/si)» l’arrondi à l’unité supérieure de N/si. Si le nombre de dossiers par employé N/si est important, on peut prendre par approximation: WT ∼ T/2 + Σi [λ T/si µi] + Σi TTi Relation 25 IAE de Paris (Université Paris 1 • Panthéon - Sorbonne ) - GREGOR - 1999.06 Le coût de traitement d’un dossier est: C = Σi si wi/λ 18 Relation 26 Supposons que le travail ait été réparti également entre les bureaux, que chaque bureau emploie une seule personne ayant la même capacité de travail et que le temps de transfert entre bureaux soit nul. ∀ i µi = n µ, si = 1, TTi = 0: WT ∼ T/2 + λ T/µ Relation 27 La durée d’achèvement du travail est liée principalement à la périodicité (T). Le coût de traitement d’un dossier est: C = n w/λ Relation 28 Normalisons comme précédemment le coût et le délai. x = délai normalisé = µ WT - 1 y = coût normalisé = C µ/w - 1 Les relations 27] et 28 deviennent: x + 1 = µ T [1/2 + n/(y + 1)] Relation 29 Cette équation dépend encore de paramètres spécifiques de chaque organisation, "µ", "n" et "T". La figure 4, page 18 montre un exemple avec n = 10 bureaux d'une personne, une capacité de traitement µ = 1 de 1 cas par unité de temps, et une périodicité T = 1 d'une unité de temps. Pour un même délai, les coûts sont supérieurs à ceux d'un serveur unique (A). Le cas de délais très longs n'est pas significatif. On sature alors le premier poste. Les dossiers excédant la capacité sont reportés sur les périodes ultérieures. Le délai d'attente avant le premier poste est alors supérieur à T/2 qui a été pris ici comme approximation. Figure 4 : Délai et coût normalisés dans une division du travail avec traitement par lots (n = 10, m = 1, T = 1) 10 Coût normalisé y 9 8 7 Division du travail avec traitement par lots 6 5 4 3 2 Poste de travail unique A 1 Délai normalisé x 0 0 1 2 3 4 5 6 7 8 9 10 IAE de Paris (Université Paris 1 • Panthéon - Sorbonne ) - GREGOR - 1999.06 - 6-5 19 Solution archétypale E - Division du travail au fil de l’eau avec bureaux dédiés Les dossiers arrivent au hasard. Ils sont traités dès leur arrivée par une succession de s personnes affectées à temps plein à la procédure. Si les charges de travail sont équilibrées (µi = s µ), les dossiers forment une file d’attente devant le premier poste, puis ils sont traités par tous les autres postes, sans attente mais avec un temps de transfert TTi. Le délai d’achèvement du traitement des dossiers est donc: WT = λ/sµ (sµ-λ) + 1/µ + Σi TTi Relation 30 Pour traiter une charge de travail λ, avec un temps de travail total à accomplir 1/µ, il faut au moins λ/µ personnes, entre lesquelles on peut répartir les étapes du travail. s > λ/µ Relation 31 Supposons que le temps de transfert soit nul (TTi = 0) WT = λ/sµ (sµ-λ) + 1/µ Relation 32 Relation 33 C = s w/λ Introduisons les variables normalisées de coût et de délai: x = délai normalisé = µ WT - 1 y = coût normalisé = C µ/w - 1 Les relations 32 et 33 deviennent: x = 1/s y Relation 34 La courbe de coût en fonction du délai est toujours inférieure à la courbe y = 1/x du cas A. cette dominance est d'autant plus forte que s est grand. 6-6 Solution archétypale F - Serveurs à file d'attente commune Le travail arrivant est placé dans une file d'attente unique. Les «serveurs», au nombre de s, les traitent dès qu'ils sont libres. Les cas ne sont donc pas pré-affectés à un serveur. La capacité unitaire des serveurs est µ. Pour atteindre un état stationnaire, il faut que la capacité de travail sµ soit supérieur au flux d'arrivée des dossiers λ (sµ > λ). Le calcul du temps d’achèvement WT tient compte du cas où les serveurs ne sont pas tous occupés (un nouveau dossier passe un temps 1/µ dans le système) et du cas où ils sont tous occupés (le dossier attend alors dans une file). Les formules sont plus compliquées. Elles figurent dans les manuels de recherche opérationnelle. WT = 1/µ + λ (λ/µ) s-1/{(s-1)! (µs-λ) 2 [Σn = 0 n = s-1 [(λ/µ) n/n!]+(λ/µ) s/s! (1λ/sµ)]} Relation 35 Par ailleurs, si les salaires des personnes sont identiques, le coût par dossier est: C = s w/λ Relation 36 La figure 5, page 20 montre les courbes coût/délai de quatre solutions. La solution des serveurs avec file d'attente commune (F) est meilleure que celle de la division du travail avec bureaux spécialisés échangeant les dossiers au fil de l'eau (E), elle-même meilleure que la solution du serveur unique (A) (voir figure 5). Cette solution est celle préconisée par Hammer. IAE de Paris (Université Paris 1 • Panthéon - Sorbonne ) - GREGOR - 1999.06 - 20 Figure 5 : Relation entre le coût normalisé et le délai normalisé. Solution A (1 serveur, relation [5]), solution E (division du travail entre 2 et 6 personnes, relation [34]) et solution F (2 et 6 serveurs, relations [35] et [36]). 2,5 Coût normalisé y 2 Division du travail E 1,5 s=1 Serveurs à file d'attente commune 1 Serveur unique A s=2 0,5 s=6 0 0 7 0,5 1 1,5 2 Délai normalisé x 2,5 Bibliographie [1] Beckmann M. J., 1988, Tinbergen Lectures on Organization Theory, Springer Verlag, Berlin, 252p. [2] Davenport T.E., Stoddard D.B., 1994, «Reengineering: business change of mythic proportions?», MIS Quarterly, June, 121-127. [3] Davenport T.H., Beers M.C., 1995, «Managing information about processes», Journal of Management Information Systems, Summer, Vol. 12, N˚ 1, 57-80. [4] Grover V., Jeong S.R., Kettinger W.J., Teng J.T.C., 1995, «The implementation of Business Process Reengineering», Journal of Management Information Systems, Summer, Vol. 12, N˚ 1, 109-144. [5] Hall G., Rosenthal J., Wade J., 1993, «How to make reengineering really work», Harvard Business Review, Vol. 71, N˚ 6, 119-131. [6] Hammer M., 1990, «Reengineering work: don’t automate, obliterate», Harvard Business Review, July-August, 104-114. [7] Hammer M., Champy J., 1993, Reengineering the Corporation, Harper Business, NY. [8] Hammer M., Stanton S.A., 1995, The Reengineering Revolution, Harper Collins, NY. [9] Hammer M., 1996, Beyond Reengineering, Harper Collins, NY. [10] Herzberg F., Mausner B., Snyderman B., 1959, The motivation to work, John Wiley. [11] Kawalek J. P., 1994, «Interpreting business process re-engineering on organization workflow», Journal of Information Technology, N˚ 9, 276-287. [12] Kettinger W. J., Grover V., 1995, «Toward a Theory of Business Process Change Management», Journal of management Information Systems, Summer, Vol. 12, N˚ 1, 930., June, 223-240. IAE de Paris (Université Paris 1 • Panthéon - Sorbonne ) - GREGOR - 1999.06 - 21 [13] Kim H-W., Kim Y-G., 1997, «Dynamic process modeling for BPR: A computerized simulation approach», Information & Management, 32, 1-13. [14] Kumar A., Ow P.S., Prietula M.J., 1993, «Organizational simulation and information systems design : an operations level example », Management Science, Vol. 39, N˚ 2, February, 218-240. [15] Loebbecke C., Jelassi T., 1998, «Business process redesign at CompuNet, standardizing top-quality service through IT», Journal of Strategic Information Systems, Vol. 6, 339359. [16] Lucas H.C.Jr, Berndt D.J., Truman G., 1996, «A reengineering framework for evaluating a financial imaging system», Communications of ACM, Vol. 39, N˚ 5, 86-96. [17] Minztberg H., 1979, The structuring of organizations, Prentice Hall, traduction Française “Structure et dynamique des organisations”, Editions d’organisation, 1982. [18] Sillince JAA., Harindranath G., 1998, «Integration of requirements determination and business process re-engineering : a case study of an ambulatory care and diagnostic (ACAD) centre», European Journal of Information Systems, N˚ 7, 115-122. [19] Wareham J., Neergaard P., 1998, «Still guilty of technical determinism? Reengineering in the insurance sector», 6˚ European Conference on Information Systems, Aix, France, 4-6 June, 1291-1304. 1999.06 Les conditions d’efficacité du BPR Jean-Louis Peaucelle Professeur à l’IAE de Paris Les papiers de recherche du GREGOR sont accessibles sur INTERNET à l’adresse suivante : http://www.univ-paris1.fr/GREGOR/ Secrétariat du GREGOR : Claudine DUCOURTIEUX ([email protected])