Mesure de la performance, gestion de la performance et imputabilité
Transcription
Mesure de la performance, gestion de la performance et imputabilité
Nathalie Dubois Jim McDavid Etienne Charbonneau Jean-Louis Denis Special issue on performance measurement, performance management, and accountability — ro spe cial Editors’ introduction / nume sur la mesure de la performance, gestion de la performance, et — Introduction des imputabilite dacteurs re Performance measurement, performance management and public reporting have grown from New Public Management (NPM)-inspired beginnings in the 1990s1 to being a near universal requirement in both the public and non-profit sectors. In Western countries, the movement to tie public management to performance objectives, targets, measureable indicators, and regular assessments of performance for both internal (managerial) and external organizational stakeholders is now a key part of orthodox public administration. In developing countries, where international aid organizations and multilateral donors offer assistance, aid is typically tied to instituting performance management systems with many of the same measurement and reporting expectations as are required in jurisdictions at all levels of government in Western countries. In this special issue of Canadian Public Administration we canvass realizations of performance evaluation, offering both expository and critical perspectives that range from descriptions of function-specific frameworks to reviews of the whole field of performance management. The articles reflect the diversity of approaches to conceptualizing, measuring and analyzing program and organizational performance, as well as different epistemological assumptions about how to interpret performance information and assess its worth. Several of the articles can be linked, examining the same function across jurisdictions or the same jurisdictions from complementary perspectives. Other articles stand alone and bring forward the findings from decades of research that have tracked and assessed the movement to use performance results to improve accountability and performance. We briefly summarize each article and then highlight underlying themes that connect the papers to broader themes in the literature. The first three articles offer complementary perspectives on performance measurement in the health field, which reflect a long-standing emphasis on science-based research and practice along with the use of evidence in CANADIAN PUBLIC ADMINISTRATION / ADMINISTRATION PUBLIQUE DU CANADA VOLUME 58, NO. 1 (MARCH/MARS 2015), PP. 1–14 C The Institute of Public Administration of Canada/L’Institut d’administration publique du Canada 2015 V 2 NATHALIE DUBOIS, JIM MCDAVID, ETIENNE CHARBONNEAU, JEAN-LOUIS DENIS making program and policy-related decisions. Health-related programs are increasingly costly to deliver, and in Canada there is evidence that health care expenditures are a growing percentage of provincial budgets (Evans 2010). Because health is a provincial responsibility in Canada, funded in part by the federal government (Kirby 2001), efforts to set standards, control costs and improve the efficiency and effectiveness of services have involved two levels of government. In 1994, the Canadian Institute for Health Information (CIHI) was created by provincial and federal stakeholders as a source of comparative performance data for evidence-based policy and program decision-making across Canada. In “Health System Performance Reporting in Canada: Bridging Theory and Practice at a Pan-Canadian Level,” Jeremy Veillard, Brenda Tipper and Sara Allin describe how CIHI built an interactive health system performance framework for measuring, comparing and explaining variations in performance at the national, regional (provinces and health regions) and institutional levels. Building on ten years of public reporting (20002014), this will facilitate users building tailored comparisons of their own institutional performance to groups of matched peers. Veillard et al. offer examples of how “high performers” (institutions in the top decile) can be identified from the suite of performance indicators. They suggest that the system will be useful to improve both accountability and performance, with the latter influenced by peer pressure that comes from comparing one’s performance with a peer group. Veillard et al. also describe how in 2003, in response to the Romanow Commission on the Future of Health Care in Canada (Romanow 2002), the federal government and nine provinces agreed to create a national Health Council to support the dissemination of best practices and innovations by gathering performancerelated information and making it available to provincial and sub provincial jurisdictions. The Health Council operated as a repository and a forum for pan-Canadian discussions of health-related policy issues for ten years until it was disbanded by the Conservative government in 2013. Quebec has created its own institution. The Commissioner of Health and Well-Being (CEBS) is mandated to measure health system performance, examine health policy issues, issue reports and serve as a source of information and ideas to influence health system policy and performance in Quebec. The paper by Georges Thiebaut, François Champagne and AndrePierre Contandriopoulos, “Les enjeux de l’evaluation de la performance: Depasser les mythes” situates and describes the performance measurement framework (used by the Quebec Commission of Health and WellBeing: the Comprehensive and Integrated Framework for Health System Performance Assessment). Thiebaut et al. critique the system, observing SPECIAL ISSUE ON PERFORMANCE MEASUREMENT, MANAGEMENT AND ACCOUNTABILITY 3 that measuring performance of complex systems is intrinsically judgmental. They also point out that it is simplistic to assume as many proponents of performance measurement have done, that such systems can be used to simultaneously improve accountability and improve performance. We return to this point in our summary of cross-cutting themes below. In “L’appreciation de la performance du système de sante et des services sociaux du Quebec : L’approche du Commissaire a la sante et au bien-^etre,” Olivier Sossa and Isabelle Ganache focus more directly on how the CEBS Commissioner assesses existing health-related programs and policies as well as advocating for new policies. The Commissioner uses the EGIPSS framework to describe system and sub-system performance as well as analyzing the causal patterns among factors that comprise the complex health and well-being system in the province. Sossa and Ganache point out that for the CEBS, performance assessment includes ethical and stakeholder dimensions, the latter involving experts and citizens in the review of performance results and the performance framework itself. Periodic reporting is intended to influence the development and implementation of health-related public policies, such as the 2012 report focused on mental health issues in Quebec and included an ethical dimension in assessing mental health-related policies and programs. Etienne Charbonneau and François Bellavance, in “Performance Management in a Benchmarking Regime: Quebec’s Municipal Management Indicators,” offer an empirical analysis of the factors that might explain the extent to which municipal managers in Quebec perceive their local governments using the 14 provincially mandated (since 2004) performance indicators. Charbonneau and Bellavance surveyed the population of general managers, getting 321 responses. Their analysis includes four dependent variables: general purpose uses; management uses; budgeting uses; and external reporting uses. Predictors include measures of their local government’s comparative rankings in performance, perceived barriers to using performance information, indices of selected internal features of their local government, selected socio-demographic factors and a measure of political completion in the last mayoral election. Although very few of these factors are statistically significant, one factor that stands out is managerial willingness to use performance information: the less willing managers are, the less likely they are to report their local government using the 14 performance indicators. The paper by Etienne Charbonneau, Gerard Divay, and Damien Gardey, “Volatilite dans l’utilisation des indicateurs de performance municipal,” builds on the central finding of the previous paper: a manager’s willingness to use the information. It develops a model to explain uses of performance information in local governments by focusing on the interface between managers and elected officials, who each bring their own 4 NATHALIE DUBOIS, JIM MCDAVID, ETIENNE CHARBONNEAU, JEAN-LOUIS DENIS knowledge, values, interests and emotions to these relationships. These factors can change over time. Because local government work is cyclical, Charbonneau et al. hypothesize that different uses – passive (reporting results as required by law), purposeful (used to improve program performance), political (used to communicate with the public) and perverse (performance results are manipulated so that they are biased) – will vary over time. Indeed, the real payoff is to move beyond snapshots and support dynamic research that measures and correlates these patterns over time. Michael O’Neill and Eddy Nason’s “What Metrics? On the Utility of Measuring the Performance of Policy Research: An Illustrative Case and Alternative from Employment and Social Development Canada” offers a conceptual model which addresses several problems in measuring performance of policy research functions in governments. They focus on Employment and Social Development Canada and critique the default logic modelling approach suggested by Treasury Board as well as the conventional payback framework for measuring policy research performance. Instead, O’Neill and Nason outline a Spheres of Influence for Research Performance (SIRP) model that relies on an empirical understanding of how research products influence actors in a nested network ranging from the researchers to stakeholders outside of government. The paper by John Grundy, “Performance Measurement in Canadian Employment Service Delivery, 1996-2000,” marks a transition in our issue from pragmatic solutions to measuring and reporting performance to more critical looks at this field. Grundy takes a historical look at the Employment Insurance Commission transition from process and output measures to using high-stakes outcome indicators, and highlights the organizational impacts. Using a Foucaultian governmentality lens, he illuminates power relationships and the mechanisms of control (governing conduct at a distance) built into a New Public Management emphasis on the vertical alignment of performance measures and targets. His case shows us that when national headquarters mandated the use of two outcome performance measures (numbers of clients getting jobs and EI savings from clients returning to work), this generated a complex response from managers and front line workers that was far more nuanced than a Foucaultian analysis would have predicted. The special issue concludes with Burt Perrin’s “Bringing Accountability Up to Date with the Realities of Public Sector Management in the 21st Century.” He critically examines our current approach to accountability and the consequences of widespread efforts to fuse results-focused performance measurement systems with the traditional compliance-based approach to accountability central to parliamentary systems. These structures and processes, Perrin argues, do not strengthen accountability even when more and SPECIAL ISSUE ON PERFORMANCE MEASUREMENT, MANAGEMENT AND ACCOUNTABILITY 5 more accountability expectations are layered onto existing administrative systems. For Perrin, too much is expected from performance systems, particularly when a focus on measuring and reporting outcomes is mandated. Performance measurement is at best a work in progress, and it invites those involved to undermine the process of measuring and reporting results. Performance measurement can be useful, but realistically, performance results will rarely make it possible to pinpoint what (or who) was right or wrong in explaining why a pattern of results were observed. Perrin argues for a different approach to accountability: one that re-introduces trust into the relationship between public servants and their political masters and has the goal of stimulating an ongoing performance dialogue between administrators and policy-makers. Cross-cutting themes Performance measurement in the public and non-profit sectors is generally tied to the expectation that reporting performance results will improve accountability and hence, improve program and organizational performance. Several of our papers (Veillard et al., Thiebaut et al., and Perrin) mention this issue. Thiebaut et al. compare these two rationales for performance measurement (Table 3), indicating that trying to achieve both may not be possible (see Myth 6 about simultaneously pursuing two objectives: accountability and continuous improvement of performance). Perrin goes further by suggesting that tying performance measurement to accountability for results will not only weaken accountability, particularly in high-stakes political contexts, but vitiate the uses of performance results for performance improvement. We suggest this question for future research: under what conditions, if any, is it possible for performance measurement and reporting systems to both improve accountability and improve performance? A second theme, related to the first, is the challenge of demonstrating that performance measurement systems and their products are actually used. Charbonneau and his colleagues identified four categories of uses and suggest that accountability and performance improvement uses are possible in local government contexts, but the empirical challenge is discovering what mix of “interface” factors produces what kinds of uses over time. Of interest as well is Charbonneau, Divay and Gardey’s mention of perverse uses as one of the four types. Perrin elaborates this latter use by pointing to research which suggests that requiring managers to collect and then report performance results engenders gaming behaviours. Although gaming is often attributed to managers wanting to avoid reporting negative results, politicians can use performance measurement systems to ensure that only positive performance stories are 6 NATHALIE DUBOIS, JIM MCDAVID, ETIENNE CHARBONNEAU, JEAN-LOUIS DENIS communicated publically. Our contributors offer different perspectives on the challenges of using performance information. Veillard, Tipper and Allin outline a tailored “open data” approach to facilitate users constructing their own performance reports – presumably this will encourage health-related institutions to compare their performance and at least indirectly, use CIHI’s performance measurement system. Sossa and Ganache point to strategies that the Commissioner of Health and Well-Being in Quebec has used to engage stakeholders as to ensure the relevance of its performance-related products. But using performance measurement results continues to be a significant problem. Charbonneau and Bellavance’s empirical study of Quebec municipalities suggests that most local government managers report very little to no uses of the performance information mandated by the provincial government. Perrin and others have pointed out that even though many of the performance reports that are prepared and conveyed are intended to influence political decision-making, there is scant evidence this happens, particularly where government departments are mandated to produce reports. We see instead instances of performance reports tabled in a near-ritualistic manner. If they are intended to improve accountability they do so primarily in symbolic ways. In the evaluation field similar to the policy research function that O’Neill and Nason describe, program evaluators have developed frameworks for classifying uses. In addition to describing uses for evaluation products, evaluators have looked at process uses – doing an evaluation itself can engender uses (Kirkhart 2000; Mark and Henry 2004). For researchers and practitioners looking at performance measurement systems, there would be value both conceptually and empirically in applying what program evaluators have learned from several decades of looking at the usefulness of evaluations. Our final observation concerns the usefulness of performance results and the desire to (simultaneously) improve accountability and performance. Bouckaert (2005) refers to the “grand canyon” of public sector performance measurement – on one rim are program and organizational outputs and across the canyon are outcomes. Credibly connecting outputs to outcomes is perhaps the most challenging part of measuring and managing performance. Usually, our approaches to measuring performance provide us (at best) with partial pictures of what organizations are accomplishing. The linear logic models used to build performance measurement systems do not typically acknowledge the complexity embedded in programs and policies. Attribution is a key challenge (Bovaird 2014). Performance measurement and performance reporting can play a valuable role in public management, but perhaps that role is more SPECIAL ISSUE ON PERFORMANCE MEASUREMENT, MANAGEMENT AND ACCOUNTABILITY 7 formative, focused on improving performance, than summative, focused on accountability for results. Depuis leurs debuts inspires par le courant du Nouveau management public (NPM) dans les annees 19901, les mecanismes de mesure de la performance, de gestion de la performance et d’imputabilite se sont developpes jusqu’a devenir une exigence quasi universelle tant dans le secteur public que dans celui des organismes a but non lucratif. Dans les pays occidentaux, le mouvement visant a associer la gestion publique a des objectifs de performance, a des cibles, a des indicateurs mesurables et a des evaluations regulières de la performance destines aux differentes parties prenantes de l’organisation, tant a l’interne (gestion) qu’a l’externe, fait maintenant partie integrante de l’administration publique orthodoxe. Dans les pays en voie de developpement o u interviennent des organismes d’aide internationaux et des donateurs multilateraux, l’aide fournie est generalement subordonnee a la mise en place de systèmes d’evaluation de la performance. Les attentes en matière de mesure de la performance et de production de rapports sont très semblables a celles qui sont requises dans les juridictions et a tous les paliers de gouvernement des pays occidentaux. Dans ce numero special de la revue Administration publique du Canada, nous passons en revue plusieurs realisations en matière d’evaluation de la performance a travers une serie d’exposes et de comptes rendus critiques, allant de la description de cadres adaptes a une fonction specifique jusqu’a l’examen de tout le champ de la gestion de la performance. Les articles de ce numero reflètent la diversite des approches utilisees pour conceptualiser, mesurer et analyser la performance des programmes et des organisations, ainsi que les differents postulats epistemologiques qui les sous-tendent quant a la façon d’interpreter les donnees et d’evaluer leur valeur sous l’angle de la performance. Plusieurs de ces articles ont des liens communs, du fait qu’ils examinent soit la m^eme fonction dans des juridictions diverses, soit la m^eme juridiction a partir de points de vue complementaires. D’autres articles sont autonomes et font etat des resultats de plusieurs decennies de recherche consacree a suivre et a evaluer le mouvement dans le but d’utiliser ces resultats pour ameliorer l’imputabilite et la performance. Nous resumons brièvement chacun des articles constituant ce numero special, puis soulignons les thèmes sous-jacents qui les relient a des thèmes plus generaux de la litterature. 8 NATHALIE DUBOIS, JIM MCDAVID, ETIENNE CHARBONNEAU, JEAN-LOUIS DENIS Les trois premiers articles offrent des points de vue complementaires sur la mesure de la performance dans le domaine de la sante, qui reflètent la valorisation de la recherche scientifique et de l’apport de la pratique et, par consequent, l’importance accordee aux donnees probantes pour la prise de decisions. Il faut dire que les programmes lies a la sante sont de plus en plus co^ uteux, et il a ete demontre qu’au Canada, les depenses de sante representent un pourcentage de plus en plus important du budget des provinces (Evans 2010). Au Canada, la sante depend de la juridiction provinciale, tout en etant en partie financee par le gouvernement federal (Kirby 2001), les efforts entrepris pour fixer des normes, contr^ oler les co^ uts et ameliorer l’efficacite et la productivite des services ont implique les deux paliers de gouvernement. En 1994, l’Institut canadien d’information sur la sante (ICIS) a ete cree par differents acteurs engages aux niveaux provincial et federal pour fournir des donnees comparatives sur la performance permettant de prendre des decisions sur les programmes et les politiques en s’appuyant sur des donnees probantes provenant de partout au Canada. Dans leur article, « Health System Performance Reporting in Canada: Bridging Theory and Practice at a Pan-Canadian Level », Jeremy Veillard, Brenda Tipper et Sara Allin decrivent le processus mis en place par l’ICIS pour b^ atir un cadre de mesure de la performance du système de sante pour la mesure, la comparaison et l’explication des differences de performance observees aux niveaux national, regional (provinces et regions sociosanitaires), et institutionnel. S’appuyant sur dix annees de rapports publics (2000-2014), l’approche actuelle aidera les utilisateurs a etablir, en fonction de leurs besoins, des comparaisons entre les performances de leur propre institution et celles de groupes d’institutions comparables. S’appuyant sur des exemples, l’article de Veillard et coll. montre comment identifier les institutions « ultraperformantes » (institutions qui se situent dans le decile superieur) a partir d’une serie d’indicateurs de performance. Ils suggèrent que le système propose sera utile pour ameliorer aussi bien l’imputabilite que la performance des organisations. Selon les auteurs, le niveau de performance d’une institution devrait ^etre influence par la pression exercee par la comparaison des resultats de l’institution avec ceux d’institutions comparables. En 2003, a la suite de la Commission Romanow sur l’avenir du système de sante au Canada (Romanow 2002), le gouvernement federal et neuf provinces se sont mis d’accord sur la creation d’un Conseil national de la sante qui favoriserait la diffusion des exemples de pratique exemplaire et d’innovation en colligeant les donnees concernant la performance et en les mettant a la disposition des juridictions provinciales et infraprovinciales. Pendant dix ans, le Conseil national de la sante a servi a la fois de referentiel de donnees et de forum de discussion pancanadien avant d’^etre demantele par le gouvernement conservateur en 2013. SPECIAL ISSUE ON PERFORMANCE MEASUREMENT, MANAGEMENT AND ACCOUNTABILITY 9 Le Quebec a choisi de creer sa propre institution. Le Commissaire a la sante et au bien-^etre (CSBE) a le mandat de mesurer la performance du système de sante, d’examiner les problèmes concernant les politiques de sante, de produire des rapports et d’^etre une source d’information et de recommandations visant l’amelioration des politiques et de la performance du système de sante au Quebec. L’article de Georges-Charles Thiebaut, François Champagne et AndrePierre Contandriopoulos, « Les enjeux de l’evaluation de la performance : Depasser les mythes », situe et decrit le cadre de mesure de la perfor mance EGIPSS (Evaluation globale de la performance des systèmes de services de sante). Thiebaut et coll. examinent et critiquent les approches d’evaluation de la performance puis donnent un aperçu du cadre EGIPSS. Leur article demontre que mesurer la performance de systèmes complexes relève intrinsèquement du jugement. Ils soulignent aussi qu’il est simpliste d’assumer – comme l’ont fait de nombreux defenseurs de la mesure de la performance – que ces systèmes puissent ^etre utilises pour ameliorer a la fois la performance et l’imputabilite. Il s’agit d’une question sur laquelle nous reviendrons dans notre recapitulation des thèmes qui traversent les differents articles de ce numero special. Olivier Sossa et Isabelle Ganache se concentrent, eux, directement sur le travail du CSBE au Quebec. Leur article, « L’appreciation de la performance du système de sante et des services sociaux du Quebec : L’approche du Commissaire a la sante et au bien-^etre », se concentre directement sur le cadre EGIPSS dans le contexte du travail accompli par le commissaire pour evaluer les programmes et les politiques relies aux problèmes de sante, ainsi que pour defendre de nouvelles politiques. Le Commissaire utilise le cadre EGIPSS pour decrire la performance du système et des sous-systèmes et pour identifier les modèles causaux a travers les differents facteurs dont depend le système complexe de la sante et du bien-^etre dans la province. Sossa et Ganache soulignent que pour le CSBE, l’evaluation de la performance comprend des dimensions ethique et participative, cette dernière couvrant la participation tant d’experts que de citoyens a l’examen des mesures de performance et du cadre de mesure lui-m^eme. La publication de rapports periodiques a pour but d’influencer l’elaboration et la mise en œuvre des politiques publiques. Par exemple, dans un rapport de 2012 centre sur les questions de sante mentale au Quebec, il a fallu prendre en compte la dimension ethique pour l’evaluation des politiques et des programmes afferents. Dans « Performance Management in a Benchmarking Regime: Que bec’s Municipal Management Indicators », Etienne Charbonneau et François Bellavance font une analyse empirique des facteurs susceptibles d’expliquer l’adhesion des dirigeants municipaux du Quebec a un exercice de mesure de la performance auquel les a contraint le gouvernement 10 NATHALIE DUBOIS, JIM MCDAVID, ETIENNE CHARBONNEAU, JEAN-LOUIS DENIS provincial. L’exercice consiste a utiliser 14 indicateurs predetermines. Sur la base d’un questionnaire autoadministre, Charbonneau et Bellavance ont obtenu l’avis de 321 directeurs generaux. L’analyse des donnees inclut quatre variables dependantes : l’utilisation generale, l’utilisation pour la gestion, l’utilisation pour l’etablissement du budget et l’utilisation pour la redaction de rapports externes. Parmi les variables predictives, les auteurs retiennent les mesures du classement comparatif de la performance de l’administration locale, les limites perçues a l’utilisation des donnees sur la performance, les indices de certaines caracteristiques internes de l’administration locale, certains facteurs sociodemographiques et le degre de realisations des engagements politiques annonces lors de la dernière election municipale. Quoique très peu de ces facteurs soient significatifs du point de vue statistique, un des facteurs importants du modèle d’analyse est la volonte des dirigeants de se servir des resultats : moins ils sont desireux d’y avoir recours, moins il y a de chances qu’ils se servent de l’analyse des 14 indicateurs pour faire rapport de la performance de leur administration publique. L’article d’Etienne Charbonneau, Gerard Divay et Damien Gardey, « Volatilite dans l’utilisation des indicateurs de performance municipale », developpe le concept central de l’article precedent : la volonte des directeurs d’utiliser l’information. Il elabore un modèle permettant d’expliquer l’utilisation de ces renseignements au niveau des administrations locales en se concentrant sur l’interface entre les directeurs et les elus, qui investissent leurs propres connaissances, valeurs, inter^ets et emotions. Ces facteurs peuvent changer avec le temps. Et, comme le travail des administrations locales est cyclique, Charbonneau et coll. font l’hypothèse que les differentes utilisations – passive (transmission des resultats exiges par la loi), resolue (resultats utilises pour ameliorer la performance des programmes), politique (resultats utilises pour communiquer avec le public) et perverse (resultats manipules et donc biaises) – varient avec le temps. Toutefois, le principal enjeu est de mettre en place une recherche dynamique qui mesure ces cadres a travers le temps et les met en correlation. L’article de Michael O’Neill et Eddy Nason, « What Metrics? On the Utility of Measuring the Performance of Policy Research: An Illustrative Case and Alternative from Employment and Social Development Canada » presente un modèle conceptuel qui repond a plusieurs des problèmes qui se posent lorsqu’on mesure la performance des fonctions de recherche sur les politiques dans les gouvernements. Ils se concentrent sur Emploi et Developpement social Canada et critiquent l’approche de modelisation basee sur le raisonnement par defaut suggere par le Conseil du Tresor ainsi que le cadre conventionnel de la rentabilite pour mesurer la performance de la recherche sur les politiques. O’Neill et SPECIAL ISSUE ON PERFORMANCE MEASUREMENT, MANAGEMENT AND ACCOUNTABILITY 11 Nason proposent plut^ ot le modèle SIRP (Spheres of Influence for Research Performance) qui repose sur une comprehension empirique de la façon dont les resultats de recherche peuvent influencer des agents dans un reseau imbrique allant des chercheurs jusqu’aux parties prenantes exterieures au gouvernement. L’article de John Grundy, « Performance Measurement in Canadian Employment Service Delivery, 1996-2000 » marque une transition entre l’etude de solutions pragmatiques pour la mesure de la performance et la production des rapports et l’adoption d’un point de vue plus critique sur ce champ de recherche. Grundy adopte un point de vue historique sur la façon dont on est passe, a l’interieur de la Commission de l’assuranceemploi du Canada, de la mesure des processus et des resultats directs a l’utilisation d’indicateurs portant sur des effets de plus large portee, mettant en relief les impacts organisationnels. En utilisant la notion foucaldienne de gouvernementalite, il met en lumière les relations de pouvoir et les mecanismes de contr^ ole qui font partie integrante du Nouveau management public concernant l’alignement vertical des mesures et des cibles de performance. Le cas etudie montre que, quand l’administration centrale a exige l’utilisation de deux indicateurs de performance (nombre de clients obtenant un travail et economie sur l’assurance-emploi lorsque des clients retrouvent un travail), cela a suscite, de la part des dirigeants et des travailleurs de première ligne, une reponse complexe beaucoup plus nuancee qu’une analyse foucaldienne aurait pu le predire. Le dernier article de ce numero special, par Burt Perrin, « Bringing Accountability Up to Date with the Realities of Public Sector Management in the 21st Century », examine de façon critique notre approche actuelle de l’imputabilite et les consequences des efforts considerables employes a fusionner des systèmes de mesure de la performance axes sur les resultats et l’approche traditionnelle, basee sur l’observance de règles, qui est encore centrale dans les systèmes parlementaires. Selon Perrin, ces structures et processus ne renforcent pas l’imputabilite m^eme si l’on a introduit de plus en plus d’attentes quant a l’imputabilite a tous les niveaux des systèmes administratifs. L’on attend trop des systèmes de performance, surtout quand on demande de se concentrer sur la mesure et la transmission de donnees concernant les resultats. La mesure de la performance est au mieux un travail en cours, et il pousse les personnes concernees a miner le processus de mesure et de production de rapports. La mesure de la performance peut ^etre utile, mais il faut ^etre realiste : les resultats de ces mesures permettront rarement de mettre le doigt sur le facteur (ou la personne) dont l’action pourrait expliquer l’observation d’une configuration de resultats donnee. Perrin plaide pour une approche differente de l’imputabilite qui reintroduirait la confiance dans la relation entre les fonctionnaires et les chefs politiques. 12 NATHALIE DUBOIS, JIM MCDAVID, ETIENNE CHARBONNEAU, JEAN-LOUIS DENIS Thèmes transversaux L’etude de la performance dans le secteur public et dans les organismes a but non lucratif est generalement liee a la croyance qu’en collectant et rapportant les resultats de performance, on puisse accro^ıtre l’imputabilite et, donc, ameliorer la performance des programmes et des organisations. Plusieurs des articles ici publies (Veillard et coll., Thiebaut et coll., et Perrin) abordent cette question. En comparant ces deux justifications de la mesure de la performance (Tableau 3), Thiebaut et coll. indiquent que tenter de les atteindre conjointement pourrait bien ^etre impossible. En reference a l’article, il est enonce comme sixième mythe que l’on pourrait poursuivre simultanement les deux objectifs : imputabilite et amelioration continue de la performance. Perrin va plus loin en suggerant que lier la mesure de la performance a l’imputabilite quant aux resultats n’affaiblira pas seulement l’imputabilite, en particulier dans les contextes o u les enjeux politiques sont importants, mais risque aussi de vicier l’utilisation des resultats pour ameliorer la performance. Voici donc la question que nous posons pour une recherche ulterieure : dans quelles conditions est-il possible, le cas echeant, que les systèmes de mesure de la performance et de production de rapports ameliorent a la fois l’imputabilite et la performance? Un second thème, relie au premier, est la difficulte de demontrer que les systèmes de mesure de la performance et les resultats qu’ils produisent sont reellement utilises. Charbonneau et ses collègues ont identifie quatre categories d’utilisation et suggèrent que celles axees sur l’imputabilite et l’amelioration de la performance sont possibles dans des contextes locaux. Le defi au niveau empirique etant de decouvrir quelle combinaison de facteurs « d’interface » produit telle ou telle sorte signaler aussi, la mention par Charbonneau, d’usage au fil du temps. A Divay et Gardey d’usages pervers comme un des quatre types. Perrin elabore sur ce dernier type en soulignant des recherches permettant de penser que demander aux directeurs de recueillir puis de faire rapport des resultats de performance engendre des comportements visant a travestir les resultats. Bien que ce genre de comportement soit souvent attribue a des directeurs qui veulent eviter de faire etat de resultats negatifs, les politiciens aussi peuvent utiliser les systèmes de mesure de la performance pour s’assurer que seules les histoires de performances positives soient communiquees publiquement. Nos contributeurs presentent differents enjeux lies a l’utilisation des resultats de performance. Veillard, Tipper et Allin decrivent une approche ouverte et adaptee pour faciliter la construction par les utilisateurs de leurs propres rapports de performance – ce qui devrait supposement inciter les institutions liees a la sante a comparer leurs performances et, au moins indirectement, a utiliser le système de mesure de la performance de l’ICIS. Sossa et SPECIAL ISSUE ON PERFORMANCE MEASUREMENT, MANAGEMENT AND ACCOUNTABILITY 13 Ganache soulignent les strategies utilisees par le Commissaire a la sante et au bien-^etre pour collaborer avec les parties concernees et garantir la pertinence des resultats lies a la performance. Mais l’utilisation des resultats de la mesure de la performance continue d’^etre un enjeu important. L’etude empirique proposee par Charbonneau et Bellavance concernant les municipalites du Quebec permet de penser que la plupart des directeurs d’administrations locales n’utilisent que très peu – ou pas du tout – les informations collectees et analysees dans le cadre de l’exercice exige par le gouvernement provincial. Comme d’autres chercheurs, Perrin a souligne que m^eme si la plupart des rapports de performance qui sont prepares et envoyes ont pour but d’influencer la prise de decisions politiques, il y a peu de donnees permettant d’appuyer cette hypothèse, notamment quand les ministères sont obliges de produire ces rapports. On voit au contraire des cas de rapports sur la performance tablettes de façon quasi-rituelle. S’ils sont censes ameliorer l’imputabilite, ils le font donc surtout de façon symbolique. Dans le domaine de l’evaluation, similaire a la fonction de recherche sur les politiques que decrivent O’Neill et Nason, les evaluateurs de programme ont elabore des cadres pour classer les utilisations. En plus de decrire les utilisations des resultats d’evaluation, ils ont examine les utilisations de processus : le fait m^eme de produire une evaluation peut en effet engendrer des utilisations (Kirkhart 2000; Mark et Henry 2004). Pour les chercheurs et les praticiens qui s’interessent aux systèmes de mesure de la performance, il pourrait ^etre interessant, tant d’un point de vue conceptuel qu’empirique, d’appliquer ce que les evaluateurs de programme ont appris a conna^ıtre en verifiant l’utilite des evaluations pendant plusieurs decennies. Notre dernière observation concerne l’utilite des resultats de performance et le desir d’ameliorer simultanement l’imputabilite et la performance. Bouckaert (2005) parle du « grand canyon » de la mesure de la performance dans le secteur public : d’un c^ ote, se trouvent les resultats directs des programmes et des organismes (extrants), et de l’autre, les effets a court ou long terme (resultats). Relier les extrants aux resultats est peut-^etre la partie la plus difficile de la mesure de la performance. En general, nos approches de la mesure de la performance nous donnent (au mieux) un tableau partiel de ce que les organismes accomplissent. Les modèles de logique lineaire utilises pour b^atir les systèmes de mesure de la performance ne peuvent pas refleter la complexite intrinsèque des programmes et des politiques. L’attribution est l’un des principaux defis (Bovaird 2014). La mesure de la performance et la communication des donnees sur celle-ci peuvent jouer un r^ ole positif dans l’administration publique, mais il se pourrait que ce dernier soit plus formatif (centre sur l’amelioration de la performance) que sommatif (centre sur l’imputabilite). 14 NATHALIE DUBOIS, JIM MCDAVID, ETIENNE CHARBONNEAU, JEAN-LOUIS DENIS Note Performance measurement in local governments began in American cities in the early 1900s and was tied to the good-government Progressive Movement (Williams 2003). New Public Management advocates (Osborne and Gaebler 1993) made results-focused performance measurement a part of a broad movement to introduce business-like practices in the public sector. La mesure de la performance dans les administrations locales a vu le jour dans les villes americaines au debut des annees 1900, en liaison avec le Good-government Progressive Movement (Williams 2003). Les avocats du Nouveau Management Public (Osborne et Gaebler 1993) avaient fait de la mesure de la performance centree sur les resultats un des elements d’un large programme visant a introduire des pratiques entrepreneuriales dans le secteur public. References Bovaird, T. 2014. “Attributing outcomes to social policy interventions – ‘Gold standard’ or ‘fool’s gold’ in public policy and management?” Social Policy & Administration 48 (1): 1–23. Evans, R. 2010. The “unsustainability Myth” don’t believe claims that medicare is becoming unaffordable. Ottawa, ON: Canadian Centre for Policy Alternatives. Retrieved December [website]. Available at https://www.policyalternatives.ca/publications/monitor/unsustainabilitymyth. Kirby, M. 2001. The Health of Canadians – The Federal Role: Interim Report. The Standing Senate Committed on Social Affairs, Science and Technology. Ottawa, ON: The Parliament of Canada. Kirkhart, K. E. 2000. “Reconceptualizing evaluation use: An integrated theory of influence.” New Directions for Evaluation 88 (1): 5–23. Mark, M. M., and G. T. Henry. 2004. “The mechanisms and outcomes of evaluation influence.” Evaluation 10 (1): 35–57. Osborne, D., and T. Gaebler. 1993. Reinventing Government: How the Entrepreneurial Spirit is Transforming Government. New York, NY: Addison-Wesley Publishing Company. Romanow, R. 2002. Building on Values: The Future of Health Care in Canada: Final Report. Ottawa, ON: Commission on the Future of Health Care in Canada. Williams, D. 2003. “Measuring government in the early twentieth century.” Public Administration Review 63 (6): 643–59.