as a PDF
Transcription
as a PDF
EURO-MEDITERRANEAN ECONOMICS AND FINANCE REVIEW Vol. 1, N°5, December 2006 This review is a referred journal. It publishes quality papers dealing with key issues in Economics, Finance, Management and NTIC in the Euro-Mediterranean region. The journal bridges the gap between theory and practice by publishing both academic and professional papers with the objective of sharing ideas between scholars and practitioners. Since there is currently no specific review to publish those interesting studies, the journal fills the gap. The journal is co-published by University of Cergy and ISC Paris, members of the REMEREG Network (Réseau Euro-Mediterranéen d’Enseignement et de Recherche en Economie-Gestion, 14 academic institutions)1. Members of the Editorial board include Nobel Prize winners and well-known professors: Harry Markowich, Gordon Alexander, Jose Scheinkman, etc. They also include Editors from several referenced journals as K. Chen (Editor International Journal of Business), Dilip Gosch (Editor, International Journal of Business), Aman Agrawal (Editor, Quarterly Journal of Finance, India), Eric Briys (Cyberlibris) and many other talented personalities. We hope that the journal will match your expectations. The journal is available online at : http://emefir.france-paris.org For any information or subscription, contact : [email protected] ISC Paris University of Cergy Centre de Recherches Laboratoire Thema 22 Boul. du Fort de Vaux 33, boul. du Port F-75017 Paris F- 95011 Cergy Pontoise Cedex [email protected] [email protected] 1 Association Méditerranéenne de Finance, Assurance et de Management ( AMFAM) - Association Française de Finance (AFFI) - Université Bordeaux 4 Montesquieu, France - Université de Cergy, France - Institut Supérieur du Commerce (ISC Paris), France - Université Paris X Nanterre, France Université de Poitiers, France - Université de Minho, Portugal - Université de Sfax, Tunisie Université de Lugano, Suisse - Indian Institute of Finance, India - Université Méditerranéenne de Tunisie - Université Badji Mohktar d’Annaba, Algérie - Université Pierre Mendes-France Grenoble, France etc… 1 EDITORIAL BOARD Co-editors : Mondher BELLALAH President AMFAM, President REMEREG Georges PARIENTE ISC Paris, France Jean-Luc PRIGENT Univ of Cergy, France Editors : Ezzeddine ABAOUB FSEG Tunis, Tunisia Imed ABDELJAOUEB IHEC Tunis, Tunisia Mickaël ADLER U. Colombia, USA Rudy AERNOUDT Brussels Business School, Belgium Mohamed AYADI HEC Montréal, Canada Makram BELLALAH ESSEC, France Hatem BEN AMEUR HEC Montréal, Canada Jean-François BOULIER Crédit Agricole Asset Management, France A.BOURI FSEG, Sfax, Tunisie Michaël BRENNAN UCLA, USA Eric BRIYS Cyberlibris, Belgique Harvey CAMPBELL USA Ephraim CLARK Middlessex University , UK Georges CONSTANTINIDES U. Chicago, USA K.C. CHEN IJB, USA Manuel José DA ROCHA ARMADA Université of Minho, Portugal Gabriel DESGRANGES Univ. de Cergy, France Joao DUQUE ISEG, Portugal Robert ENGLE Nobel Prize, USA Alain FINET ULB, Belgique Patrice FONTAINE ESA Grenoble, France, Abdelfettah GHORBEL Technopole Sfax, Tunisia Moncef HERGLI Professor, Tunisia Harry MARKOVICH Harry Markovich Company , USA Nizar TOUZI CREST, France André de PALMA Univ.of Cergy, France François QUITTARD-PINON Univ. de Lyon 1, France Tahar RAJHI FSEG Tunis, Tunisia Richard ROLL UCLA, USA Jean-michel SAHUT ESC La Rochelle, France Olivier SCAILLET HEC, Genève, Switzerland Héracles VLADIMIROU Univ. Cyprus, Cyprus 2 Lecture comittee : Aman AGRAWAL Co-editor of Finance India Gordon ALEXANDER The Anderson School at UCLA, United States Giovanni BARONE-ADESI University of Lugano, Switzerland Dilip GOSCH Editor, International Journal of Finance, USA Campbell HARVEY Duke University, United States, USA Gérard HIRIGOYEN Univ. of Bordeaux IV, France Bertrand JACQUILLAT IEP, Paris, France Frank JANSEEN Université Catholique de Louvain, Belgium Michel LEVASSEUR University of Lille 2, France Jose SCHEINKMAN Princeton University, USA Paul WILLMOTT Editor Derivatives, U.K 3 TABLE OF CONTENTS Article 1 : « Testing World Equity Market Integration New Evidence from the ICAPM » Mohamed El hedi ABOURI Page 6 Article 2 : « Business angels: the smartest money for starters? » Rudy AERNOUDT Page 16 Article 3 : « Board structure, Ownership structure, and Firm performance: Evidence from Banking » by Mohamed BELKHIR Page 28 Article 4 : « IPO’s Initial Returns: Underpricing Versus Noisy Trading » Mounira BEN ARAB and Adel KARAA Page 48 Article 5 : « Effects and compatibilities of the economic integrations concluded by developing countries. Case of the free trade area established between Tunisia and Morocco » Karim CHAABOUNI Page 70 Article 6 : « Efficience, productivité et progrès technologique en fonction de la taille de la firme bancaire : Preuves empiriques sur les banques commerciales en Tunisie » Sameh Charfeddine KARRAY and Pr. Jamel Eddine CHICHTI Page 86 Article 7 : « Inflation Targeting monetary policies and real interest rates: a panel data unit root test robust to structural shifts for OECD countries » Imed DRINE and Nicolas MILLION Page 99 Article 8 : « Business Development Strategy in the Internet Age » Simona FIT, Dorin COSMA Page 113 Article 9 : « Risk and Portfolio management and Optimization » Slim GHORBEL Page 129 Article 10 : « L’impact des caractéristiques des dirigeants sur la croissance de l’emploi des P.M.E. : Etat de la question et étude empirique » Prof. Frank JANSSEN Page 139 Article 11 : « Coûts de transaction et dynamique non linéaire des prix des actifs financiers : une note théorique » Fredj JAWADI and Slim CHAOUACHI Page 161 Article 12 : « The Interaction between Economic Reforms and FDI in MENA Countries » Anis KHAYATI Page 177 Article 13 : « R&D Investment and the Financial Performance of Technological Firms » JeanSébastien LANTZ and Jean-Michel SAHUT Page 191 Article 14 : « Enjeux de la gestion du risque de crédit » Laurence LE PODER Page 208 Article 15 : « Les opérations à effet de levier sous-valorisent-elles les entreprises cibles? » Olivier LEVYNE Page 222 Article 16 : « Ratio Combinations » Slim MAHFOUD Page 234 Article 17 : « Concentration des Places Boursières Européennes et Stratégies de Diversification de Portefeuille » Anthony MILOUDI Page 241 Article 18 : « Architecture organisationnelle et performance des décisions des gérants de portefeuilles boursiers » Jean MOUSSAVOU Page 258 Article 19 : « The Challenges of Basel 2 implementation in the US Professor » Dr. John RYAN Page 272 Article 20 : « Influence du marché et de la clientèle desservies sur les facteurs de croissance des PME manufacturières » Josée ST-PIERRE, Frank JANSSEN, Pierre-André JULIEN, Catherine THERRIEN Page 291 4 FORTHCOMING PAPERS N°6 « A real options approach to invest in sustainable transport under population growth uncertainty » Linda SALAHALDIN and Thierry GRANGER « A new corporate growth metrics: a joint EVA-Real Options approach » Francesco BALDI « On Real Options and Information Costs » Mondher BELLALAH and Inass EL FARISSI « The Value of Software Cost Estimate Accuracy » Said BOUKENDOUR « Soft Binomial Model in Real Option Methodology Application (fuzzy - stochastic approach) » ZDENĚK ZMEŠKAL, DANA DLUHOŠOVÁ « Planning under uncertainty: assessing the robustness of location decision options » Tarik DRIOUCHI, Michel J. LESEURE « A Study on the Real Options Analysis and its Potential Application in Corporate and Investment Banking » Cedric FRANKLIN « Investments in an energy substation: a real options approach for a regulated distribution company » Joel Arthur GUIMARÃES Junior « Are Exit Decisions Capital Replacement Decisions? Evidence from the Tanker Industry » George N. DIKOS «Determination of Real Options Value by Monte Carlo Simulation and Fuzzy Numbers » Juan G. Lazo LAZO, Marley Maria B. R. VELLASCO, Marco Aurélio C. PACHECO, Marco Antonio DIAS « Acquisitions as a real options bidding game » Han T.J. Smit Ward A. van den Berg Wouter De Maeseneire « Optimal Investment in Duopoly with Random Investment Timings » Rui Barroso de MOURA «A Real Options Approach to the process of risk measurement, allocation and management, in Project Finance type funding structures » Jose Antonio de SOUSA NETO, Virginia Izabel de OLIVEIRA « Une Extension des Equations et du Rapport entre Bêtas de la Dette et de l’Actif de Merton , Applications à la Valorisation de la Dette et à l’Évaluation d’Entreprises » Didier VANOVERBERGHE « Evaluation des brevets et des licences avec les options réelles » Jean-Sébastien LANTZ « Inference by Genetic Programming of an analytical expression for the Optimal Exercise Threshold of an asset that follows a Mean Reversion Process » Dan POSTERNAK, Marco Aurélio C. PACHECO, Juan G. Lazo LAZO « REAL OPTIONS WITH UNKNOWN-DATE EVENTS » Óscar Gutiérrez Francisco RUIZ-ALISEDA « Real Options and the Adoption of Organic Farming - an Empirical Analysis » Oliver MUSSHOFF, Martin ODENING « Real Estate Investments in Rio de Janeiro: Risk Management and Real Options » Katia ROCHA, Luciana SALLES, Francisco ALCARAZ, José Alberto SARDINHA, José Paulo TEIXEIRA « Real Options in Partnership Deals: The Perspective of Cooperative Game Theory » Nicos SAVVA and Stefan SCHOLTES « Valuing a storage unit for handling random fluctuations in the supply of wind-generated electricity Sydney » Howell Helena PINTO 5 Testing World Equity Market Integration: New Evidence from the ICAPM Mohamed El Hedi ABOURI EconomiX, Université Paris X, 200, avenue de la République Nanterre 92001, France [email protected] Abstract In this paper, we develop and test a partially integrated international asset pricing model using an asymmetric multivariate GARCH specification for two developed markets (the U.S. and the U.K.) and two emerging markets (Hong Kong and Singapore) over the period 1970-2003. The evidence supports the equity market integration hypothesis and suggests that domestic risk is not a priced factor for the markets of Singapore, UK and US, whereas the Hong Kong stock market prices both domestic and world market risks. Key words : International Asset Pricing, Integration, Diversification. JEL Classification : F36; C32; G15 6 Introduction Studying equity market integration is an empirical question that has decisive impact on a number of issues affecting problems that are addressed by financial market theory. Recently, this question has become more relevant as national markets throughout the world become more open to foreign investors. Markets are said to be integrated if similar assets in different countries command the same expected return, while markets where the expected return on an asset depends on its location are said to be segmented. In other terms, in fully integrated markets investors face common and countryspecific risks but price only common risk factors because country-specific risk is fully diversified, while in completely segmented markets expected returns would be determined by domestic risk factors. When equity markets are partially segmented, investors face both common and country-specific risks and price them both. Empirical papers investigating equity market integration have been mainly limited to developed markets. These papers include, among others, De Santis and Gerard (1997), Carrieri et al. (2003), De Santis et al. (2003) and Arouri (2005, 2006). The findings of these studies support the financial integration hypothesis of developed equity markets. Recently, some papers have tented to focus on emerging markets, in particular Asian equity markets, partly as a result of their high rates of economic growth and the 1997 Asian crisis. The results of these studies are heterogeneous. Masih and Masih (1997,2001) show using cointegration methods that the Asian Newly Industrializing Countries of Hong Kong, Singapore, Taiwan and South Korea share long run relationship with developed markets (U.S., Japan, U.K. and Germany). Lim et al. (2003) examine the linkages between stock markets in the Asian region over the period 1988-2002 using nonparametric cointegration techniques and find that there is a common force which brings these markets together in the long run. In contrast, Roca and Selvanathan (2001) show using different recent econometric techniques that there is no short-term and long-term linkages among the stock markets of Australia, Hong Kong, Singapore and Taiwan. Phylaktis and Ravazzolo (2000) study the potential linkages between stock prices and exchange rate dynamics for a group of Pacific-Basin capital markets and show lack of comovment during the eighties for the free stock markets of Singapore and Hong Kong. More recently, Phylaktis and Ravazzolo (2004) apply multivariate cointegration methods to investigate stock market interactions amongst a group of Pacific-Basin countries and the industrialized countries of Japan and US over the period 1980-1998. They show that although the linkages have increased in recent years, there is room for long-term gains by investing in Pacific-Asian markets. In particular, their results show that the Asian crisis did not have a substantial effect on the degree of linkages of these markets. In the current paper, we study the potential integration of two Pacific-Basin countries (Hong Kong and Singapore), U.K. and U.S. with the world market. We estimate a partially segmented international capital asset pricing model (ICAPM) where both local and global sources of risk are priced. The emerging markets of Hong Kong and Singapore have enjoyed remarkably rapid economic growth in the past decades and are gaining increased influence in the world capital markets. Therefore, the integration of these markets with developed markets deserves closer attention. This study is primarily motivated by several reasons. Firstly, most studies that examine the interdependence between international stock markets use cointegration methods and then test indirectly the stock market 7 integration hypothesis. Moreover, a weakness of cointegration methods is that a focus on comparative statics does not take into account the time variation in equity risk premia (see for instance, Harvey (1991) and Bekaert and Harvey (1995)), which may yield confusing and partial results. To accommodate this feature of the data, we estimate a dynamic version of the model, in which both the prices and quantities of risk vary over time. Secondly, empirical papers investigating directly stock market integration have been mainly limited to developed markets and only some papers have tented to focus on emerging markets. As shown above, the results of these studies are heterogeneous. In this paper, the dynamic ICAPM is estimated using a multivariate GARCH process for 5 markets: the world market, 2 developed markets and 2 emerging markets. Finally, if, as is argued in univariate and bivariate cases by Glosten et al. (1993) and Kroner and Ng (1998), the conditional variances and covariances are higher during stock market downturns, the econometric specification should allow for asymmetric effects in variances and covariances. In the current paper, we propose an asymmetric extension of the multivariate GARCH-in-Mean process of De Santis and Gerard (1997). This approach, with sign and size asymmetric effects, allows to the prices of domestic and world market risks, betas and correlations to vary asymmetrically through time. The rest of the paper is organised as follows. Section 2 presents the model and introduces the econometric methodology. Section 3 describes the data and examines the empirical results. Concluding remarks are in section 4. systematic risk measured by its covariance with the market portfolio. Under the hypothesis of perfect stock market integration, an international conditional version of the CAPM can be written as: ( Methodology The capital asset pricing model (CAPM) predicts that the expected excess return on an asset is proportional to its ( ) where Ritl is the excess return on asset l in country i, RWt is the excess return on the world market portfolio and δ m ,t −1 is the price of world market risk. All expectations are taken with respect to the set of information variables Ω t −1 . Conversely, under the hypothesis of complete stock market segmentation, the returns will be generated by the following version of the conditional domestic CAPM: ( ) ( ) E Ritl / Ω t −1 = δ i ,t −1 Cov Ritl , Rit / Ω t −1 , ∀ l , i (2) where Rit is the excess return on market portfolio of country i and δ i ,t −1 is the price of domestic risk. At the national level, (2) can be written as: E (Rit / Ω t −1 ) = δ i ,t −1 Var (Rit / Ω t −1 ), ∀i (3) However, recent studies suggest that expected returns should be influenced by both global and local risk factors, i.e. markets should be partially integrated, see among others, Bekaert and Harvey (1995) and Gerard et al. (2003). In this partially segmented framework, the returns should be governed by E (R it / Wt - 1 ) = j + I. ) E Ritl / Ω t −1 = δ m,t −1Cov Ritl , RWt / Ω t −1 , ∀i (1) (1 - j i ,t - 1 i ,t - 1 dm ,t - 1Cov (R it , RW t / Wt - 1 ) ) di ,t - 1 V ar (R it / Wt - 1 ) " i (4) where ϕ i ,t −1 is interpreted as a measure of the degree of market integration. 8 In investigating stock market integration, we test for each country whether the integration degree ϕ i ,t −1 is significantly equal to zero and to 1. If ϕ i ,t −1 is zero, then only domestic variance is priced: the market i is completely segmented. If ϕ i ,t −1 is one, then only the covariance with the world market portfolio is priced and the hypothesis of market segmentation is rejected. Finally, if 0 < ϕ i ,t −1 < 1 , the market i is partially conditional variances and covariances are higher during stock market downturns, the econometric specification should allow for asymmetric effects in variances and covariances. To accommodate this feature of the data, we propose an asymmetric extension of the multivariate GARCH process proposed by De Santis and Gerard (1997). Formally, H t can be written as follows: Η t = C ′C + aa′ * ε t −1ε t′−1 + bb′ * Η t −1 + ss ′ * ξ t −1ξ t′−1 + zz ′ *η t −1η t′−1 (6) integrated in the world stock market. Next, consider the econometric methodology. Equation (4) has to hold for every asset including the market portfolio. A benchmark system of equations can be used to test the partially integrated conditional ICAPM. For an economy with N risky assets (the Nth asset the world stock market portfolio), the following system of pricing restrictions has to be satisfied at each point in time: R1t = ϕ1 δm,t−1h1Nt + (1−ϕ1)δd1,t−1 h11,t +ε1t M RN−1,t = ϕN−1 δm,t−1hN−1,Nt + (1−ϕN−1)δd,N−1,t−1 hN−1,N−1,t + εN−1,t RN,t =δm,t−1hN,Nt +εNt (5) where ε t = (ε 1t , K , ε N −1,t , ε Nt ) ′ / Ω t −1 ~ Ν (0, Η t ) , Η t is the (N × N ) conditional covariance matrix of asset returns, hiNt is the conditional covariance of domestic market i with the market portfolio and hiit the conditional variance of market i. The dynamics of conditional moments are left unspecified by the model. A common assumption made in literature is that the second moments of returns follow a GARCH(1,1) process. Moreover, if, as is argued in univariate and bivariate cases by Glosten et al. (1993) and Kroner and Ng (1998), the where ξ it = ε it Iξ it where Iξ it = 1 if I η it = 1 if ε it < 0 otherwise Iξ it = 0 , η it = ε it I η it where ε it > hiit otherwise 0, C is a (N × N ) lower triangular matrix and a, b, s and z are (N × 1) vectors of unknown parameters. This parameterisation implies that the variances in H t depend asymmetrically only on past squared residuals and an autoregressive component, while the covariances depend asymmetrically upon past cross-products of residuals and an autoregressive component. In particular, it guarantees that the conditional variance matrix is definite and positive. We find the symmetric GARCH process of De Santis and Gerard (1997) when s = z = 0 . The final step is completing a process for the evolution of conditional prices of risk. The evidence in Harvey (1991) and De Santis and Gerard (1997) suggests that the price of risk is time varying. Furthermore, Merton (1980) shows the price of world market risk to be equal to the world aggregate risk aversion coefficient. Since most investors are risk averse, the price of risk must be positive. In this paper, we follow De Santis and Gerard (1997) and Gerard et al. (2003) and model the dynamics of the risk prices as a positive function of information variables: 9 δ t −1 = exp(κ W′ Z t −1 ) and ) , where Z and Z are δ di ,t −1 = exp(κ respectively a set of global and local information variables included in Ωt −1 and κ is a set of weights that the investor uses to evaluate the conditionally expected returns. i i′ Z t −1 i Equations (5) and (6) constitute our benchmark model. Under the assumption of conditional normality, the loglikelihood function can be written as follows: ln L (θ ) = − TN 1 T 1 T ln( 2π ) − ∑ ln Η t (θ ) − ∑ ε t′ (θ )Η t−1 (θ )ε t (θ ) 2 2 t =1 2 t =1 (7) where θ is the vector of unknown parameters. To avoid incorrect inference due to the misspecification of the conditional density of asset returns the quasi-maximum likelihood (QML) approach of Bollerslev and Wooldridge (1992) is used. Simplex algorithm is used to initialize the process, then the estimation is performed using BHHH algorithm. II. Data and estimation results We use monthly returns on stock indexes for four countries plus a value weighted world market index over the period February 1970– December 2003. Given the aim of the paper, we select two large markets (the United States and the United Kingdom) and two small markets (Hong Kong and Singapore). All the indices are obtained from Morgan Stanley Capital International (MSCI) and include both capital gains and dividend yields. Returns are computed in excess of the 30-day Eurodollar deposit rate obtained from DataStream and expressed in American dollar. On the other hand, empirical research has found support for a time-varying price of risk. The price of risk is often modelled as a function of a certain number of instruments, which are designed to capture expectations about business cycle fluctuations. The logic which justifies the use of these instruments is that investors become more risk averse during economic troughs while the market price of risk decrease during expansionary phases of the business cycle. In order to preserve the comparability between this study and others studies, the choice of global and local information variables is mainly drawn from previous empirical literature in international asset pricing, see Harvey (1991), Ferson and Harvey (1993) and Bekaert and Harvey (1995). The set of global information includes a constant, the MSCI world dividend price ratio in excess of the 30-day Eurodollar deposit rate (WDY), the change in the US term premium spread measured by the yield on the ten-year US Treasury note in excess of the onemonth T-Bill rate (DUSTP), the US default premium measured by the difference between Moody’s Baa-rated and Aaa-rated corporate bonds (USDP) and the change on the one month Euro$ deposit rate (DWIR). The set of local information includes a constant, the local dividend price ratio in excess of the local short-term interest rate (LDY), the change in the local short-term interest rate (DLIR) and the change in industrial production (DIP). Information variables are from MSCI, the International Financial Statistics (IFS) and DataStream and are used with one-month lag relative to the excess returns. Descriptive statistics for the excess returns and conditioning information variables, not reported here in order to preserve space but available on request, support the GARCH parameterisation we use, and show in particular that our proxy of the information set contains no redundant variables. We estimate the model (5) for each of the local stock markets and the world market in two steps. In fact, under the full integration hypothesis the price of world market risk is the same of all countries. So, we first 10 estimate the world market equation and then impose these world estimates on the local countries in a set 4 bivariate regressions. Table 1 contains parameter estimates and a number of diagnostic tests for the partially segmented conditional ICAPM with asymmetric GARCH process. The ARCH coefficients and GARCH coefficients reported in panel C are significant for all assets. This is in line with previous results in the literature. The coefficients a are relatively small in size, which indicates that conditional volatility does not change very rapidly. However, the coefficients b are large, indicating gradual fluctuations over time. One of the advantages of our approach is to authorize for asymmetric variance and covariance effects. The significant coefficients in the vector s imply that the conditional variance is higher after negative shocks for all markets except Hong Kong. In the same way, the significant coefficients in vector z indicate that the conditional variance is higher after shocks large in absolute value for all markets. Panel A of Table 1 shows the mean equation parameter estimates, Panel D reports some specification tests and Panel E reports residual diagnostics. For the world price of risk, the constant and the coefficients of WDY, USDP and DWIR are significant. The average price of market risk is equal to 3.47 and is highly significant, which is consistent with the findings by earlier studies. On the other hand, the conditional version of the model implies that investors update their strategy using the new available information. Thus, there is no reason to believe that the equilibrium price of risk will stay constant. The robust Wald test for the significance of the time-varying parameters in the price of world market risk rejects the null hypothesis at any standard level. Concerning the prices of domestic residual risk, the results show that, except LDY and DLIR in the case of Hong Kong, none of the estimated coefficients of local information variables are significant. The sample means of the prices of domestic risk are 0.963 for the US, 2.369 for Singapore, 1.986 for the UK and 2.096 for Hong Kong. Except for Hong Kong, the prices of domestic risk are insignificant. The robust Wald tests confirm these results and suggest that domestic risk is not a priced factor for U.S., U.K. and Singapore. For Hong Kong, the domestic price of risk is significant and time-varying, i.e. the Hong Kong stock market is partially segmented and then investors in Hong Kong face both common and country-specific risks and price them both. The integration estimated weights reported in Panel B of Table 1 confirm these findings. The estimated integration degrees are 0.919 for Singapore, 0.912 for UK, 0.965 for US and only 0.613 for Hong Kong. Thus, except for Hong Kong, the markets appear to be extensively integrated into world stock markets. Next, we consider a number of robustness tests. To address this issue, we estimate an augmented version of the model that includes, in addition to market and domestic risks, a country specific constant and the local instrumental variables Z i : E (Rit / Wt - 1 ) = a i + j i,t - 1 dm ,t - 1Cov (Rit , RWt / Wt - 1 ) + (1 - j i,t - 1 ) di,t - 1 Var (Rit / Wt - 1 ) + f i Z ti- 1 " i (8) The inclusion of the country-specific constants can be interpreted as a measure of mild segmentation or as an average measure of other factors that cannot be captured by the model like differential tax treatment. The inclusion of local instrumental variables can be interpreted as a way to test whether any predictability is left in the local information variables after they have been used to model the dynamics of the domestic risk prices. 11 The results are reported in Table 2. Except for Hong Kong, the country intercepts are not different from zero. On the other hand, the null hypothesis that for each country the local information variable coefficients are jointly equal to zero cannot be rejected for all markets. Taken together, the findings of these tests support the estimated models. change est-il apprécié?, Revue Finance,Vol. 27, n°1, pp. 131-170. Finally, taking into account the fact that financial integration is an ongoing process, we re-estimate the model over two sub-periods 1970-1987 and 19872003. The results of the sub-period analysis, not reported here in order to preserve space but available on request, are similar to those obtained from the whole period analysis and show that there is no strong evidence of stock market segmentation for Singapore, UK and US, and that the Hong Kong stock market is partially segmented. BOLLERSLEV T. and J. M. WOODRIDGE (1992),Quasi-maximum likelihood estimation and inference in dynamic models with timevarying covariances, Econometric Review, 11, p. 143-172. Conclusion This paper develops and tests a partially segmented ICAPM using an asymmetric multivariate GARCH specification for two developed markets (the U.S. and the U.K.), two emerging markets (Hong Kong and Singapore) and World market over the period 1970-2003. This fully parametric empirical methodology, with sign and size asymmetric effects, allows to the prices and quantities of risks to vary asymmetrically through time. The evidence supports the estimated models and shows that the markets of Singapore, UK and US are reasonably well integrated into world stock markets whereas the Hong Kong market is partially segmented. References AROURI M. H. (2006),La prime de risque dans un cadre international: le risque de AROURI M.H. (2005), Intégration financière et diversification internationale des portefeuilles, Economie et prévision, n° 168/2 pp. 115-132. BEKAERT G. and C. HARVEY (1995),Time varying world market integration, Journal of Finance, 50 (2), p. 403-444. CARRIERI F., V. ERRUNZA and K. HOGAN (2003),Characterizing world market integration through time, Working Paper, McGill University. DE SANTIS G. and B. GERARD (1997),International asset pricing and portfolio diversification with time varying risk, Journal of Finance, 52, p. 1881-1912. DE SANTIS G., B. GERARD and P. HILLION (2003),The relevance of currency risk in the EMU, Journal of Economics and Business, 55, p. 427-462. FERSON W. and C. HARVEY (1993),The risk and predictability of international equity returns, Review of Financial Studies, 6, p. 527-566. GERARD B., K. THANYALAKPARK and J. BATTEN (2003),Are the East Asian markets integrated? Evidence from the ICAPM, Journal of Economics and Business, 55, p. 585-607. GLOSTEN L., R. JAGANNATHAN and D. RUNKLE (1993),Relationship between the expected value and the volatility of national excess return on stocks, Journal of Finance, 48, p. 1779-1801. HARVEY C. (1991),The world price of covariance risk, Journal of Finance, 46(1), p. 111-157. KRONER K. and V. NG (1998),Modelling asymmetric comovements of asset returns, Review of Financial Studies, 11, p. 817-844. 12 LIM, K., H. LEE and K. LIEW (2003),International diversification benefits in Asian stock markets: a revisit, Mimeo, Lebuan School of International Business and Finance, Universiti Malasya Sabbah y Faculty of Economics and Management, University Putera Malaysia. MASIH A. and R. MASIH (1997),A Comparative analysis of the propagation of stock market fluctuations in alternative models of dynamic causal linkages, Applied Financial Economics, 7, p. 59-74. MASIH A. and R. MASIH (2001),Long and short term dynamic causal transmission amongst international stock markets, Journal of International Money and Finance, 20, p. 563-587. MERTON R. (1980),On estimating the expected return on the market: an explonary investigation, Journal of Financial Economics, 8(4), p. 323-361. PHYLAKTIS K. and F. RAVAZZOLO (2000),Stock prices and exchange rate dynamics, Mimeo, City University Business School. PHYLAKTIS K. and F. RAVAZZOLO (2004),Stock market linkages in emerging markets: implication for international portfolio diversification, Forthcoming, Journal of International Markets and Institutions. ROCA E. and E. SELVANATHAN (2001),Australian and the three little dragons: are their equity markets interdependent?, Applied Economic Letters, 8, p. 203-207. 13 Table 1: Quasi-maximum likelihood estimates of the partially integrated conditional ICAPM Panel A: parameter estimates-mean equations (a) Price of world market risk Const. WDY DUSTP USDP DWIR 0.573* (0.006) 1.312* (0.227) -0.944 (2.732) 0.599** ( 0.237) -0.949*** (0.571) Price of market risk (b) Price of domestic risk Const LDY DLIR DIP Singapore U.K. Hong Kong U.S. -0.004 (0.003) 1.956 (1.252) -0.869 (0.592) 0.329 (1.440) -0.334 (0.237) 0.008 (0.009) 0.408 (1.337) 0.460 (0.932) 0.405 (0.277) -1.056** (0.481) -0.005*** (0.003) -1.066 (0.735) 0.560 (1.1555) 0.408 (1.337) -0.061 (1.092) 0.037 (0.170) U.K. 0.912* (0.179) Hong Kong 0.613* (0.030) U.S. 0.965* (0.032) Panel B : Integration Parameters ϕ Singapore 0.919* (0.241) Panel C: parameter estimates-GARCH process a Singapore 0.223* (0.027) U.K. 0.280* (0.020) Hong Kong 0.180* (0.107) U.S. 0.381* (0.052) World 0.168* (0.043) b 0.665* (0.332) 0.652* (0.073) 0.489* (0.033) 0.489* (0.125) 0.732* (0.041) s 0.096** (0.046) 0.015* (0.005) 0.033 (0.032) 0.014* (0.001) 0.011 * (0.002) z -0.036*** (0.020) -0.025* (0.009) 0.117* (0.044) -0.009* (0.020) 0.074** (0.033) Panel D: Specification tests χ2 df p-value Is the price of world market risk constant? H 0 : δ m, j = 0 ∀ j > 1 48.40 4 0.000 Is the price of American domestic risk equal to zero? H 0 : δ dUs, j = 0 0.36 4 0.985 Is the price of Singa domestic risk equal to zero? H 0 : δ dS , j = 0 7.148 4 0.128 Is the price of Hong K. domestic risk equal to zero? H 0 : δ dHK , j = 0 22.613 4 0.000 Is the price of Hong K. domestic risk constant? H 0 : δ dHK , j = 0 ∀ j > 1 7.845 3 0.049 Is the price of British domestic risk equal to zero? H 0 : δ dUK , j = 0 2.892 4 0.575 Null hypothesis 14 Panel E: Residual diagnostics Mean( × 100) Skewness Kurtosis(1) J.B. Q(12) Singapore -0.000 0.10 5.05* 425.18* 13.885 U.K. -0.002 1.102* 10.293* 1842.4* 18.417 Hong Kong 0.001 0.811* 9.934* 1684.5* 13.709 U.S. -0.001 -0.331* 1.592* 49.458* 8.946 World -0.001 -0.417* 1.164* 34.122* 12.628 *, ** and *** Denote statistical significance at the 1%, 5% and 10% levels. (1) centred on 3. QML robust standard errors are reported in parentheses. In order to preserve space, estimates of the intercepts matrix C is not reported. Table 2 : Robustness tests Panel A: Is the constant α i equal to zero? Singapore U.K. Hong Kong U.S. 0.001 (0.003) -0.005 (0.020) 0.019** (0.010) -0.001 (0.003) Panel B: Are the local information variable coefficients jointly equal to zero? Singapore χ 2 3.401 U.K. df pvalue 3 0.334 χ 2 2.003 Hong Kong df pvalue 3 0.572 χ 2 5.907 *, ** and *** Denote statistical significance at the 1%, 5% and 10% levels. U.S. df pvalue 3 0.116 χ 2 1.922 df pvalue 3 0.588 Business angels: the smartest money for starters? plead for a renewed policy focus on business angels Rudy AERNOUDT2 Abstract Government policy to stimulate growth, innovation and especially the creation of new enterprises is rather focused on access to finance mainly through increasing the supply of capital. As formal venture capitalists are moving towards larger deals and shifting their investments to a later stage of development, creating a “second” equity gap, business angels become more important in the financing of seed, early stage and second round phases. Government policy to stimulate financing should hence be considered as a priority. However, policies have to be focused both on the supply side and the demand side and combined with a cultural change. Government should look at innovative ways to stimulate business angel financing rather than coping with market failures by bureaucratic subsidy schemes. Inspired by the Fifty Ways To Leave Your Lover (Simon and Garfunkel), I developed seven ways to stimulate business angel investment. Coping with the second equity gap can mainly happen by stimulating syndication and by setting up co-investment schemes. Investor readiness, corporate orientation, business angel networks, business angel academies and the integrated finance concept can be considered as key concepts in coping with the information asymmetry problem. keywords agency theory, business angel, entrepreneurial orientation, hangover angels, investmentreadiness, perverse risk-return relationship, reverse pecking order, second equity gap, small equity gap. 2 The author is Head of Cabinet to the Flemish Minister of Economy, Enterprise, Research, Innovation and External TradeHe was previously responsible for venture capital and business angels’ actions at the European Commission. Address: Place des martyrs 7, 1000 Brussels, Belgium ([email protected]). Reverse pecking order The traditional pecking order theory suggests that the financing source of choice is earnings retention, followed by external debt. External equity is the last resort. This traditional approach can however be confronted by the excessive demand for external equity, especially for start-ups. This demand can be explained by the absence of interest costs on the one hand, and fixed payback obligations on the other. Indeed, even if, as is shown by a number of surveys, desired return on seed and early stage investments are excessive, varying from 25 to around 80 %, one should bear in mind that these rates depend on expected revenues and do not constitute actual interest payments. The business angel’s stake in the company will depend on the perceived worth of the company and the amount of capital he wants to disburse. The owners’ preference for business angel financing is hence comprehensible: no fixed financial expenses have to be foreseen in the business plan a smart partnership between the business angel and the entrepreneur might lead to higher future net value of the company as both parties are involved and committed the business angel financing might open doors to second round venture capital or to classical debt financing Therefore, and despite the non-existence of empirical evidence linked to business angel financing in the matter, we might assume that the traditional finance pecking order seems to be reversed for start-ups, especially for high-tech start-ups. Business angel financing can in this sense no longer be considered as last resort as literature tends to suggest. Real entrepreneurs consider indeed that not all money is the same. They take into account several criteria when they are considering different sources of finance for their ventures. To achieve a successful and profitable business development it is necessary to ensure that the right type of money is matched to the real risk involved. For a start-up, with no income until the product is fully developed and the first sales are made, debt finance is rarely the best source of external finance. Debt finance is usually secured on assets. The longer or the more uncertain the exit period, the higher the collateral required. Moreover, the riskier the project, the higher the anticipated reward that is needed to attract investors. We should respect lifestyle companies but, as venture capital-backed companies have faster growth rates, policy matters should be focused on fast growing companies or “gazelles” and on convincing potential“gazelles” to grow based on a partnership relation with their main investors. Besides the high level of expected return required, the real cost of venture capital is the control and induced information requirements a venture capitalist wants to have about the company. As business angels focuse more on the jockey than on the horse, we can assume that business angels can be the real entrepreneurs’ best choice. Perverse risk-return relationship While the pecking order focuses on the demand side the risk-return relationship rather concerns the supply side. On the formal risk capital scene, we see a persistent decline of the share of early investment. MBO financing still plays the most important role on the risk capital scene in Europe. This lower risk business is even not considered as risk capital in the USA and one might ask whether banks could not finance those MBOs through more creative credit schemes. MBOs are not particularly risky, but often the buyers are not able to offer sufficient collateral. The default rate on MBO operations is estimated at 3% against 50 % for seed and early stage (Ploix 2004). At first sight 17 venture capitalists, in their mainstream activity, differ from banks only in that they take (limited) risk without sufficient coverage in case of failure, rather than in the overall level of risk they assume. This means that banks and venture capitalists do not complement each other as they should, implying that few finance suppliers are interested in projects combining lack of collateral with high risk, such as start-ups. Even in the way venture capitalists evaluate projects, they do not differ from banks. The classical discounted cash-flow method, together with the use of comparables is by far the most used evaluation method (Babson college, 1999). More academic methods such as the option-based approach or the residual approach are hardly ever used. These conventional appraising methods do imply a bias towards projects characterised by a stable cash-flow projection in the short run. Start-up companies and projects with a long incubation period and a huge burn rate are therefore less attractive to the venture capitalist. The fact that most risk capitalists perceive and appraise projects through the bankers’ eyes is not surprising. Most of the fund managers are ex-bankers making a career move towards risk capital funds, often being part of the banking group. Moreover, bankers are in Europe, as opposed to the US, the most important source of finance of the risk capital sector. In North America, venture capital is raised from funds with longer investment terms, mainly from institutional investors such as public and private pension funds and insurance companies rather than banks, which tend to be the largest investors in Europe (OECD 2000). These factors explain of course why the risk capitalists’ view differs only slightly from a banking approach. This bankers’ view is confirmed when we have a closer look at the number of SMEs at start-up and seed stage that receive venture capital finance and the amounts involved. We obtain an unsettling reality. In Europe only one fifth of all risk capital within the EU goes to start-up and early stages. We can wonder why venture capitalists have such a noticeable preference for MBOs and mature companies. Investors should, conform with the portfolio theory, spread their assets over the different stages of the companies instead of concentrating on the big deals. The problem can be tackled by applying the agency theory to the venture capital sector. Investors, and especially institutional investors, are rarely involved in the daily management of the fund. The fund manager is rewarded on basis of the carried interest principle and therefore prefers big, not labour intensive, deals with short term exit opportunities. Consequently, the injection of - public or private - money into the market is not likely to solve the problem of shortage of risk capital for start-up and small amounts investments, on the contrary. The Netherlands is probably one of the countries with the most developed equity culture in Europe. If, in relative terms, each of the Member States had the same investments in private pension funds as the Netherlands, an extra five thousand billion EUR could be available in EU capital markets. Moreover for decades they have been the country in Europe with the biggest share of seed and start-up. Many years ago (in 1988), the Netherlands even exceeded, proportionally, the USA. Therefore it is worthwhile to have a closer look at this country. The main reason why the share of seed capital in the Netherlands decreased in the nineties was the concentration phenomenon in the venture capital market. While in the eighties, around a hundred funds were active, nowadays only one third remain. Moreover 5 funds account for 80 % of all deals (Brouwer and Hendrix, 1998). As management does not vary with the size of the fund, less productive activities receive lower priority. Therefore less attention is given to seed and start-up proposals. A similar phenomenon, although to a lesser extent, was seen in the US. Using the Venture Capital fund model, simulation showed the positive impact of the fund’s scale on the investment return for the managing partners. As the fund size increased, the attraction of investing small amounts of money in start-ups correspondingly diminished (Murray 2000). Indeed, the cost of due diligence, audit and monitoring is not related to the size of the investment. Therefore, small projects are less interesting for venture capital. Hence, it is not surprising that seed investments are not the privileged customers of venture capital funds. Thus the success of the overall risk capital market implies that seed capital becomes a less and less attractive option. This theoretical approach is confirmed when we look at the markets. Although the UK for instance still represents almost half of the EU market, studies concluded that British SMEs are faced with huge problems in their seed, start-up and fast growth phases. In the slow growth and MBO phase, there is no longer an equity gap problem (KPMG 1999). Correspondingly, the Bank of England states in its report that it becomes more and more difficult for SMEs to gain access to smaller amounts of financing (Bank of England 2000). Although we can agree that provision of equity finance should be sufficient to meet the needs of enterprises, there is a problem of financing for (small) starters and fast (technology) growers as the supply of risk capital is mainly oriented towards the lessrisky segment of the market. Perhaps business angels can partly fill the “small equity gap”, as they are more focused on small amounts. However, preliminary research seems to show a positive correlation between high performance and the size of the investment for both informal and formal capital (Mason 1999). This leads us to the ironic conclusion that the more the venture capital market is booming, the more difficult it is to obtain start-up risk capital. Early stage venture capital can only increase its share in total investments, if its revenues exceed those of other types of investment. As long as the higher risk involved in start-up financing is not rewarded by a higher return, as the EVCA figures yearly illustrates, any policy intended to promote start-up financing is doomed to fail. The last twenty years (average EVCA figures 1986 - 2003) for instance, the return on MBO operations was 9,6% against 2,3% for seed and early stage. The market does not function at the lower end : the small and second equity gap This demand and supply analysis allows us to explain why the market does not function, especially at the lower end, i.e. start-up and early financing. Ironically, in the market segment where suppliers are not interested because of high costs and low returns, entrepreneurs are more receptive to external finance. In the growth phase, where venture capitalists become more interested in investing in the company, companies’ enthusiasm for external finance diminishes. This real cost approach can help us in trying to understand the paradox. The different elements put together can graphically be illustrated as follows: Graph 1 Supply and demand for risk capital according to enterprise’s development stage a • SRC=f(risk) •c •d •b DRC=f(control) Enterprise’s development stage Seed Start-up Early Stage Expansion Mature The interest for risk capital is larger in the seed and start-up phase than for the later stage. Control is felt as less of an impediment to venture capital investment in the start-up than in a more advanced development stage and the benefits from management assistance are considered important. For the same reasons, demand for risk capital decreases with the evolution of the company. On the supply side of the market we see the opposite. Venture capitalists try to avoid the risks and prefer big, less labour intensive, deals rather than the riskier phases. Therefore, seed and start-up investments still encounter huge problems in finding venture capital. They are in a sellers’ market (a>b). The few venture capitalists operating in this segment of the market use their position as an oligopoly to request higher return premium and apply stringent rules. A survey indicates that the desired return on seed investments is estimated at 100% (Leleux 2000) and that they are very severe in the selection and due diligence (only one out of hundred proposals is retained). expansion phase. In the expansion phase (fourth round financing), only a few companies are interested in opening their capital to venture capital funds. Given that most of these companies do generate cash flow, and conform with the empirically confirmed pecking order theory, companies in their expanding phase prefer self-financing and credit financing to risk capital. Risk capitalists and fund managers, sellers of money, prefer these expansion investments and given the buyers’ market (c>d) they have to reduce their conditions. If venture capitalists want to find projects, they will have to accept a lower desired return and adopt an investment strategy that implies less control on the daily management. Therefore, not only the lower risks position, but also the bargaining position makes it easier for a company to obtain risk capital at appropriate conditions for expansion financing. In this sense, the internet bubble could lead to more realistic expectations both for venture capitalists (for their desired return) and for entrepreneurs (for their valuation expectations) and have a positive impact on the venture capital market for the years to come. On the other hand, as venture capital markets are booming and fundraising is easy, venture capitalists are “desperately” looking for projects to invest in in the 20 Nevertheless, it is still only in the (late) early stage that entrepreneurs and venture capitalists can conclude a deal at competitive market conditions. Risk capitalists should in this not try to exploit the information asymmetry problem and real entrepreneurs should seek to benefit from the opportunities offered by the venture capital market rather than citing loss of control as the reason for their unwillingness to open their capital to external investors. One could of course argue that the lower expected return only reflects the lower risk linked to the development stage of the company. However, the very high differences can not only be explained by the classical risk premium theory. The market structure and the accuracy of the information asymmetry are other elements to be taken into account. Desired return might correlate more with the bargaining position than with the risk position of the investor. Although as far as I know, empirical research on this field is lacking, the following table might clarify this position. Table 1 Enterprise’s development stage and investors’desired return Development Stage Desired return Market structure Risk level Seed Start-up Early stage Expansion Mature 80 – 100% mono/ oligopoly very high 40-70% oligopoly 30-40% competition 25-30% oligopsony rather high normal limited 20% mono/ oligopsony very limited Therefore, although entrepreneurs are equity minded in their start-up phase, they are faced with big difficulties in obtaining risk financing under acceptable conditions. Consequently, only one out of three thousand starters in Europe conclude a start-up deal with a venture capitalist, whilst one out of ten could be considered as a potential venture capital backed company (Bannock 2001). This confirms our ironic conclusion that a booming market can coïncide with huge difficulty of access to finance for starters. This approach allows us to understand why a big share of the risk capital is oriented towards MBO financing. Entrepreneurs have no choice as both collateral and selffinancing are missing. Suppliers have (almost) no risk as the track record is proven and try to realise a high return based on a good deal structure. And national and European venture capital associations can continue publishing healthy growth rates for the venture capital sector as a whole. And a lot of starters remain frustrated by not being able to attract funding. . The shift of the formal venture capitalist towards the third round and MBO financing implies that business angels, mainly focused on the seed phase, have to extend their financing to the second round, in order to bridge the gap. This so-called second equity gap involves a need for bigger amounts of money for the business angel and makes it more difficult to spread his risks over a significant number of projects. Plea for a coherent policy approach: seven measures to stimulate business angels It is clear that despite the capital abundance the market does not function at the lower end and that business angels might be best placed to fill the small and second equity gap. However, as business angels are very different in their perception 21 and functioning from formal investors, it doesn’t make sense to try to extrapolate policy measures used to stimulates formal venture capital, such as injecting money into the markets through fund of funds or through guarantee schemes to business angels (Aernoudt 1999). Stimulation of the use of informal capital in order to facilitate access to funds or money for enterprises needs a different approach. Indeed, from what precedes, it must be clear that business angels don’t need money. The fact that they have money makes them business angels. Their own capital, often the result of a successful sale, covers the availability of money. In order to limit their risk, the part of their capital that they make available for informal investments often amounts only a limited part of their assets. The amounts available to invest are sufficient to cover the seed phase of the company but may be insufficient if they are confronted with the withdrawal of the formal venture capitalists, who are obliged to deal with the second round financing. Government should focus on the tax and regulative aspects. All administrative, tax and other regulations impeding the development of informal risk capital should be removed. However, in order to secure both, sufficient availability of funds and maximum spread of risk for the investor, new ways should be examined such as stimulating syndication and, why not, public co-investment schemes. The main problem however remains lack of information and awareness, both from the side of the entrepreneur and the side of the business angel. Indeed, different economic studies show that markets, including financial markets, can never work efficiently as there is always an information gap. One might assume that this information gap is particularly noticeable in the field of business angel financing. Although the problem of information asymmetry as such can never be completely solved, different techniques can enhance a better mutual understanding between the different partners. Different ways of increasing knowledge and awareness amongst entrepreneurs, business angels and public authorities must be explored. In this context a number of measures can be taken such as increasing the investor readiness, stimulating potential through big companies, revealing the business angel vocation, setting up and increasing the efficiency of networks and encouraging financiers to work more closely together. Let us have a look at each of these approaches which of course should be set up simultaneously. I. Syndication Co-investment amongst business angels has not been extensively studied by academic research. Kelly and Hay (1996) look at risk reducing strategies of solo versus syndicated investors and establish a link between the characteristics of the investor, the referrals and performance of the investment. The same authors in a later paper (2000) found that syndication is higher between the most experienced angels. Osnabrugge presents similar results from a study on serial and non-serial business angels (1998). Syndication is considered as a vehicle to acquire riskreducing information, which is possible through consolidating the information possessed by informants, often coinvestors. Therefore angels look for other individuals who could be co-investors and hence share the risk among (Aram 1989). The pattern of co-investment is thus determined by the risk aversion character of the business angel. Syndication is an increasingly relevant phenomenon within business angel investment for several reasons. First of all, the financial capabilities of solo business angels are limited, - median investment size is estimated between 60000 and 100 000 euro - and the shift of venture capital 22 funds towards larger deals is creating a “second” equity gap. Secondly, it seems that syndicated groups invest more in early stage companies than solo investors (Kelly and Hay, 1996). Thirdly, syndicated investment with experienced investors is one of best instruments to learn the essentials of informal investing and hence to activate latent business angel’s capital (Aernoudt and San José, 2005). In this sense, the promotion and facilitation of business angels’ syndication should be high on the agenda of researchers and policy makers. angel’s decision to invest. Such a scheme was successfully implemented in Belgium at the end of 2002 and since then, most of the business angels deals appeal for the scheme. The scheme, called “business angel +”, consists of a subordinated loan of maximum 125 000 euro granted to businesses totally or partially financed by business angels. The capital provided by the business angel added to the capital provided by the entrepreneur should at least equal the amount provided by the public fund. Pre-selection of the project is undertaken by the business angel networks. II. III. Investor readiness Co-investment schemes One of the main reasons to stimulate syndication is to increase the financial capacities of the solo business angel in order to allow him or her to cope with the second equity gap. In addition to syndication one might examine whether the government could intervene by adding dumb public money to the smart business angels’ money. Both liberals and socialists might be shocked for different reasons by the idea of giving money to (rich) business angels. However one should not forget that not all business angels have deep pockets and that the best way to avoid business angels quitting the investment scene is to push them to spread risks. Indeed, a lot of business angels were obliged to continue to invest in projects where they had financed the first round as no other investor was ready to take over. This led to the concentration of many in only a few projects and reduced the spread of the risk. In case some of these projects went bankrupt, risk inherent in the business, business angels lost a lot of money and some ceased their investor activity. These investors, we could call them hangover angels, should however be kept active. One way of allowing business angels to spread the risk is by developing coinvestment schemes where public money is invested together with the business angel investment and conditioned by the business Entrepreneurs, especially those running enterprises with growth potential and who are willing to grow, need greater understanding of venture capital and specialist advice on how to structure business plans to secure external equity finance. There is evidence that some firms hold back from seeking external finance because they are unsure about the practicalities and worried about the complications (DTI 2001). An empirical study carried out in Australia confirmed that by making new ventures investorready the business-investor community avoids a substantial waste of money (Douglas 2002). We could speak of a gap in the market akin to the classic equity gap: there is an information gap between the demand for and supply of funding, due to the fact that entrepreneurs do not fully understand the range of financial options. There seems to be a certain amount of luck involved in the search for funding. Financial institutions should help in filling this information gap of what is available and under what terms and conditions. This investor-readiness gap does not only apply to equity capital but is relevant to all forms of finances. Going to a business angel with a story written as a pitch to a public sector development agency is the quickest way to be shown the exit door. Therefore part of what needs to 23 be done is to bring entrepreneurs to a point where they recognise how to tell the right story to the right investor at the right time. IV. characteristics of a business angel but only a few systematically invest in starting companies. Perhaps we should find better ways of converting these virgin angels into active informal investors. Corporate orientation Management skills and financing are abundant in most big companies. This is exactly what start-ups and SMEs are most missing. A precondition for considering big companies as the ideal partner for SMEs and as the stimulus for regional economies is entrepreneurial orientation (Lumpkin 2002). This embraces five dimensions, namely innovativeness, proactiveness, competitive aggressiveness, autonomy and a willingness to take risk. The “road to corporate entrepreneurship” is not, however, the same for all companies and more research is needed on the influence of contextual factors on the link between management instruments and entrepreneurial orientation. Fostering entrepreneurial orientation in large corporations might have a significant impact on the regional economy; directly by its impact on their own performance, and indirectly by its enhanced support for SMEs. While most of the research is based on the impact of the entrepreneurial orientation of big companies on their own performances, little research is being done on the link between entrepreneurial orientation and the role big companies could play in helping start-ups and SMEs. As hands-on management and financing are the biggest obstacles for the development of SMEs, let me give some examples of possible involvement of big companies in this area. Big companies should help to fill the small equity gap. We should look for innovative ways to involve big companies in this stage of financing by encouraging them to participate actively in seed funds and by involving their executives in business angel activity. Most of the executives could indeed be seen as fulfilling all the Beyond the direct impact of smart money, we should explore ways of bridging the gap between formal or informal seed financing and venture capital financing. As venture capital becomes more and more an expansion phase financing and MBO business in Europe, with only a few seed funds left we are faced with an exit problem for the first-round financiers. Seed funds are not capable of following the second round, and traditional venture capitalists consider the risk still too high at this stage. Corporate ventures could perhaps bridge this gap by setting up co-investment schemes with seed funds, especially in sectors which have a link with the corporate investor. Today already corporate investors represent around 6 % of the annual equity raised in the venture capital market, but there may be innovative ways of trying to stimulate big companies to invest in second-round financing, rather than investing in an MBO-dominated market. This can only be achieved by converting corporate investors into smart money investors, including hands-on management, rather than leaving them in their role as “followers” to the leading venture capitalist. Recent market evolutions might help this conversion. Making big companies more entrepreneurial and translating this into accurate financing for SMEs should be the real objective of corporate venturing. Making big companies more entrepreneurially oriented should at the same time be one of the best ways of involving them in the supply of premises, not as sponsors but as partners. The private sector tends to undersupply premises for SMEs given that rents are higher for retail and residential uses. Thus the public sector often gets involved in part-financing 24 business incubators, science parks, office parks or industrial estates. Incubators have indeed developed very quickly in Europe but have been largely integrated into a nonprofit culture. Their aim is to contribute to regional or local development (Aernoudt 2004). These first-generation incubators have still a role to play, but, in addition, real incubators should hatch primarily fastgrowing companies which ensure the most added value and jobs. Incubators focused on spin-offs are in this sense crucial. Big companies could easily be involved in the financing of both structures as the traditional incubators might offer a lowrisk low-return approach whilst spin-off incubators might fit into their new entrepreneurial orientation. In this context incubators should develop links with business angels and business angel networks. V. Business angel academy It is often noted that even with funds, time and experience, the three main ingredients to become a business angel, the majority of them are reluctant to make an initial investment. When you question new potential business angels, so-called “virgin angels”, they mention the lack of a structured framework. Giving them an adequate understanding of the investment process is therefore the perfect way to increase the number of active business angels. In this context the idea of a business angel academy aiming at realising this objective emerged. The basic idea is that the investment process is not straightforward. Business angels need skills providing them with the capabilities to assess the risk of investment opportunities and manage the process. Individuals who can not weigh the risk of an opportunity at an initial stage will not invest. In order to increase the investment activity of potential business angels, specific training mainly oriented towards virgin angels, can have a significant impact. This concept, marketed under the name business angel academy has been successfully tested in IASE Business School Barcelona (Aernoudt, Roure and San José 2005). VI. Business angel networks One of the best ways to bridge the information gap between business angels and entrepreneurs is by setting up business angel networks. The business angel networks form a platform where SMEs and business angels can make contact. This platform can function through the internet, magazines or organising fora. The networks give SMEs access to a new source of finance alongside bank financing and risk capital. The obstacle for the development of informal investment, apart from the crucial fiscal and regulative environment, is indeed the lack of good and well presented projects. If there is any market failure, beside the specific issue of the business angel academy, it is on the investees’ side and hence, on how to find (not to select) the potential projects. Investees have to be guided in the presentation, both written and oral, of their projects, and have to be brought into contact with business angels who might be interested in their projects. Experiences in the United Kingdom and in the Netherlands showed that this market failure could easily be remedied with very simple means and led to the establishments of networks all over Europe. Evaluation showed that the scale of the network, the regional scale of the operation, the quality of staff, the level of financial support, the location, the complementary activities and the long term support from the stakeholders are considered as the success factors for a sustainable business angel network (Mason 2004). VII. Integrated finance approach Integrated finance is a concept that aims to reduce the cost of finance for SMEs by 25 pro-actively analysing the likely finance needs in the performance of a business plan or project. It seeks to achieve conditional offers from different finance providers against performance milestones. A venture capitalist can therefore commit himself in principle to an investment at a given point in a company’s development. This, in turn, may offer comfort to a business angel who is asked to provide early stage capital. Further analysis of expenditure needs may identify requirements in principle for invoice discounting or asset finance at other points of development. This pro-active financial modelling concept has a number of advantages: it demonstrates a command of financial requirements; it secures all the elements of appropriate finance in one exercise; it should reduce cost by removing elements of uncertainty and it presents a strong image of the company, thus enhancing its prestige. Implementing such an intelligent and analytical approach to funding SMEs is extremely difficult to achieve. It has not happened so far. Banks and other finance providers want to protect their margins and their so-called “one-stop finance” is often a misuse of the term. A proper diagnosis of financial needs by product is beneficial but a key element of integrated finance thinking is competition between providers. Many banks and finance providers already offer a complete range of products but offer them as a basket of services to customers in which some components may not be competitively priced. Hidden tariffs such as these increase costs, undermine sustainability and adversely affect cash flow. Companies and entrepreneurs can only successfully exploit the potential of integrated finance if they are robustly prepared. A number of interventions have already been tried. One of the most successful has been the fit4finance assessment panels designed and delivered by Business Link Hertfordshire. Companies present their funding opportunity to a number of active finance providers including bankers, venture capitalists, grant providers and business angels. This panel-based “trial by expert” is extremely effective in helping businesses and entrepreneurs to assess internal barriers to their access to finance, but also very powerful in releasing competition between the financiers. This movement towards a more intelligent approach to SME financing is only just beginning to gather momentum but promises to unblock many barriers preventing SMEs from fully achieving their growth potential. Some concluding remarks It is clear that the market does not function at the lower end and that business angels become more and more the first investor for starting companies now that venture capitalists are moving towards the later stage, with an noticeable MBO preference, and towards bigger deals. Therefore renewed public attention is needed for the business angel phenomen. This should not sanction public initiatives to take over from the failing market by launching expensive subsidy schemes, but should encourage governments to look into innovative ways to make the market work. In this context coping with the information asymmetry problem has been considered crucial. Initiatives aiming at stimulating the syndication process, the investors’ readiness, the location (and revelation) of the potential business angel, the involvement of big companies, the setting up and making more efficient of the business angel networks and the integration of financing resources can be considered as the best value for public money approach. If co-investment schemes are needed, the due diligence should be done at business angel level without involvement of the public financiers. 26 References Aernoudt R., Roure J. and San José A., 2005, Business Angels Schools, Unleasing the potential for Business Angel investment, Venture Capital, An International Journal of Entrepreneurial Finance, Volume 7, number 2. Aernoudt R., 2004, Incubators: tool for entrepreneurship? in Small Business economics, issue 23. Aernoudt R.,1999a, European policy towards venture capital, Venture Capital, An International Journal of Entrepreneurial Finance, issue 1 Aernoudt R.,1999b, Business Angels, should they fly on their own wings?, Venture Capital, An International Journal of Entrepreneurial Finance, issue 2 Aram J, 1989, Attitudes and behaviours of informal investors towards early-stage investments, Journal of business venturing, 4. Bank of England, 2000, Finance for small firms, seventh report. Bannock, Innovative instruments for raising equity, European Commission, 2001. Brouwer M. and Hendrix B., 1998,Two worlds of Venture Capital: What happened to U.S. and Dutch Early Stage Investment? in Small Business Economics 10. Douglas E.J. and Shepherd D., 2002, Exploring investor readiness: assessments by entrepreneurs and investors in Australia, Venture Capital, An International Journal of Entrepreneurial Finance volume4 Entrepreneurial Finance, 5. and Small Business Kelly P. and Hay M., 2000, Deal makers: reputation attracts quality, Venture capital, 2. Leleux, 2000, Valuation concerns, IMD Lausanne of private Lumpkin GT, Dess GG, 2002, Linking two dimensions of entrepreneurial orientation to firm performance, Journal of business Venturing. Mason C., 2004, Efficiency of Business Angel Networks, Conference Halifax. Mason C., 1999 The rates of return from informal venture capital investments: some evidence for the UK, conference paper, the ESRC conference of Small firms Seminar group, University of Middlesex, Hendon Murray G, 2000, Seed capital Funds and the Tyranny of (small) scale; Venture Capital an international journal of entrepreneurial finance, vol. 2 OCDE, 2000, “Venture Capital: Supply vs. Demand issues” , Paris Ploix H., Bâle II et la Capitalinvestissement, in Bâle II : Genève et enjeux, Revue d’économie financière, Documentation française, 2004 Van Osnabrugge M.S., 1998, The financing of entrepreneurial firms in the UK: a comparison of business angel and venture capital investment procedures, Herford College, Oxford. DTI 2001, White paper on Enterprise, Skills and Innovation. Kelly. P. and Hay. M, 1996, Serial investors and early stage finance. 27 Board structure, Ownership structure, and Firm performance: evidence from banking* Mohamed BELKHIR+ Laboratoire d’Economie d’Orléans, University of Orléans - France This version April 15th, 2005 Abstract This paper examines the interrelations among five ownership and board characteristics in a sample of 260 bank and savings-and-loan holding companies. These governance characteristics, designed to reduce agency problems between shareholders and managers, are insider ownership, blockholder ownership, the proportion of outside directors, board leadership structure, and board size. Using two-stage least squares regressions, we present evidence of interdependencies between board and ownership structures. The results suggest that banks substitute between governance mechanisms that align the interests of managers and shareholders. Banks with higher insider ownership rely less on outside directors’ representation on their boards, are less likely to have a CEO who is also the chairman of the board, and have larger boards. In addition, banks with larger boards rely more on outside directors’ representation on their boards. These findings suggest that cross-sectional OLS regressions of bank performance on single governance mechanisms may be misleading. Indeed, we find statistically significant relationships between performance and insider ownership and blockholder ownership when using OLS regressions. However, these statistically significant relationships disappear when the simultaneous equations framework is used. Together, these findings are consistent with optimal use of each governance mechanism by banks. Key words: Corporate governance, board structure, ownership structure, performance, banking, simultaneous equations JEL classification: G21, G32, G34 * This paper was written while I was a Fulbright visiting scholar at the FIREL department of the University of North Texas. I am grateful to Christophe Hurlin and Mazhar Siddiqi for helpful comments and to Jean-Paul Pollin for his guidance and support. I would like also to thank Mickael Braswell, James Conover and other faculty and staff for their hospitality and helpfulness. Naturally, any remaining errors are my own. + Attaché Temporaire d’Enseignement et de Recherche. Laboratoire d'Économie d'Orléans. Faculté de Droit, d'Économie et de Gestion. Rue de Blois - B.P. 6739 45067 - Orléans Cedex 2 – France. Tél : +(33) (0) 2 38 41 70 37. Fax : +(33) (0) 2 38 41 73 80. 28 Introduction The separation of ownership and control in publicly held corporations induces conflicts of interest between managers and shareholders (Berle and Means, 1932). Shareholders are interested in maximizing the value of the firm, but managers’ objectives may also include the increase of perquisite consumption and job security. A number of governance mechanisms may help aligning the interests of managers with those of shareholders. This includes equity ownership by managers (Jensen and Meckling, 1976), by outside blockholders (Kaplan and Minton, 1994) and executive compensation (Mehran, 1995). In addition the board of directors may play a central role in monitoring managers (Fama, 1980). Board size, board composition and the leadership structure of the board are important characteristics that affect the effectiveness of the board in monitoring management (Jensen, 1993). The role of ownership structure (Morck et al., 1988, and McConnell and Servaes, 1990) and board structure (Baysinger and Butler, 1985; Rechner and Dalton, 1991; Yermack, 1996, and Eisenberg et al., 1998, and Bhagat and Black, 2002) in monitoring management and so improving firm performance has been largely investigated in empirical corporate governance literature. While the results are mixed the approach used in studying the relation between governance mechanisms and firm performance is mostly the same. Underlying these studies on the effect of ownership and board structure on performance is the assumption that there is an optimal ownership and board structure which is common to all firms, and that firms which diverge from the optimal level of these characteristics will experience lower performance. The alternative view is that several governance mechanisms, among which ownership structure and board structure, are available at the same time, and that they are endogenously determined according to the costs and benefits of each. The costs and benefits of each governance mechanism may vary across firms, making the use of one more attractive to one firm than to another. Each mechanism will be thus used by each firm up to a level where the marginal benefit equals the marginal cost. Consequently, optimal corporate governance structures vary across firms, and result in equally good performance. Under this view there will possibly be no empirical relationship between ownership and board structure and performance. Studies that have adopted this approach include Demsetz and Lehn’s (1985) investigation of the determinants of ownership concentration, Himmelberg et al.’s (1999) investigation of the determinants of managerial ownership, Hermalin and Weisbach’s (1991) investigation of the interaction between board composition and insider ownership and their effect on performance, and Cho’s (1998) study of the interactions between managerial ownership, investment and corporate value. Agrawal and Knoeber (1996) and Mak and Li (2001) adopt the same approach but work with a more complete set of governance mechanisms. In banking, this approach has been adopted by a number of authors, among whom Schranz (1993) and Booth et al. (2002) who look at the effect of the presence of regulation in the banking industry on the use of other corporate control mechanisms, designed to provide managers with incentives to maximize firm value. Schranz (1993) looks at the effect of the restriction of takeover activity in some states on the use of other corporate control mechanisms, such as the concentration of equity ownership and management ownership of stock , and on firm performance. Using a simultaneous equations framework she finds that when takeover activity is restricted, banks have higher levels of managerial ownership and equity concentration. However, higher levels of managerial ownership and equity concentration have a smaller effect on 29 profitability and do not completely compensate for the absence of an active takeover market. Booth et al. (2002) study the effect of regulation on the role of internal monitoring mechanisms such as the presence of independent outside directors, managerial stock ownership and the separation of the chairman and CEO titles. They find that in regulated industries such as banking the interrelations among internal governance mechanisms are not as strong as in industrial firms. They interpret this as evidence that regulation serves as a substitute for internal monitoring mechanisms. However, their analysis suffers from a simultaneity bias since they recognize the simultaneous determination of the different internal corporate control mechanisms but do not control for it in their empirical analysis. The present study continues the above line of research by investigating the interrelations among a number of corporate control mechanisms and with firm performance in a sample of U.S bank (BHC) and savings-and-loan holding companies (SLHC). It adds to studies such as Schranz and Booth et al. in two ways. First, contrary to both studies we work with a more complete set of governance variables, which relate to board and ownership structure. In this respect, our study compares more to Agrawal and Knoeber (1996) and Mak and Li (2001). Second, we use a data set from a recent period; the year 2002. This allows us to examine the trade offs between corporate control mechanisms and their effect on performance when banks face the same external disciplinary mechanisms nation wide. Recently the banking industry has undergone important changes that shifted the business environment of banking firms to a more competitive one. Deregulation that started in the 1980s, and continued in the middle of the 1990s with the RiegleNeal Interstate Banking and Branching, made banks less protected by expanding the market for corporate control. The Gramm-Leach-Bliley Act, which became effective in 2000, increased competition on the product market and expanded the banking opportunity set by broadening the range of activities banks can engage in. All these changes unified the market for corporate control and the market for financial services, and led banks to operate under the same “threats” nation wide. Consequently, governance mechanisms such as the board of directors and ownership structure are expected to play a more active role in aligning managers’ interests with those of shareholders. Working with data from a recent period allows to neutralize the effect of regulation, regarding the takeover market and the product market, on the choice of the other corporate control mechanisms by banks. Since the intensity of these external mechanisms became the same for all banks, we can get a better insight on how the latter design their ownership and board structures in order to reduce the manager/shareholder agency problem. In order to examine the interrelations of board and ownership variables and their possible effect on firm performance we work on a sample of 260 bank and savingsand-loan holding companies. We use a simultaneous equations framework and test for two hypotheses. The first hypothesis states that banks substitute between the different corporate control mechanisms designed to reduce the agency conflict between managers and shareholders (the substitution hypothesis). The second hypothesis states that banks use the different corporate control mechanisms in an optimal way, depending on the costs and benefits of each. If this is the case an empirical analysis that takes into account the endogeneity of corporate control mechanisms should reveal no relation between them and firm performance (the optimal use of governance mechanims hypothesis). The findings of this paper indicate that there are interrelations among board and ownership structures of banking firms. 30 Banks with higher equity ownership by managers and directors (insiders) have a lower proportion of outside directors sitting on their board. Since both outside directors and insider ownership are both considered as mechanisms designed to mitigate the manager/shareholder agency problem, we interpret this as evidence that banks substitute between corporate control mechanisms intended to accomplish the same role. The results indicate also that banks with higher insider ownership have a lower probability to have a CEO who is also the chairman of the board. Consistent with the “passing the baton” hypothesis suggested in earlier studies we find that CEOs with a longer tenure are more likely to hold the chairman title. The findings are also in favor of the optimal use of governance mechanisms hypothesis. An OLS regression of the set of governance mechanisms on firm performance, as measured by the Tobin’s Q, reveals a negative and statistically significant effect of insider and blockholder ownership on bank performance. However, when the Two stage Least Squares (2SLS) procedure is used these statistically significant effects disappear. Overall the results of this study show that corporate ownership and board structures of banking firms are inextricably linked and that banks use optimal levels of each governance mechanism. The remainder of this paper proceeds as follows. Section 2 discusses some possible directions for the interrelations among governance mechanisms and with firm performance. Section 3 introduces the empirical approach used to study the relationships among the governance mechanisms. Section 4 introduces the sample and provides descriptive statistics. Section 5 discusses the results, and section 6 summarizes and concludes the paper. I. Relationships among governance mechanisms and with firm performance Several governance mechanisms work together to provide incentives to managers and so alleviate the agency problems between shareholders and managers resulting from the separation between ownership and control. This includes what is called the internal control system, composed mainly by the board of directors, who has the task to hire, reward, potentially fire managers, and to design the system of incentives for them. It includes also the external governance mechanisms, such as the product market, the market for corporate control, the presence of concentrated shareholdings by persons or institutions, the labor market for managers, and the capital market, whenever the company relies partly on debt. An empirical analysis focused on companies belonging to the same industry, such as banking, has the advantage that most of the external control mechanisms have the same effect on all companies, at least of a certain size, in the industry. For instance the intensity of the market for corporate control and the competitiveness of the labor market for managers and of the product market are common to all banks. Thus focusing mainly on internal governance mechanisms, in a single industry, may give a better idea of the interrelations among internal governance mechanisms and their potential effect on performance. This study is mainly focused on the interrelations among internal governance mechanisms in banking firms. Nevertheless, blockholder ownership is included as a governance mechanism, since its extent varies from one bank to another even when the other external mechanisms are common to all banks. The internal governance mechanisms are the equity ownership by officers and directors (insider ownership), the proportion of outside directors, the duality of leadership structure3, and the number of directors sitting on the board (board size). 3 Throughout this paper “duality of leadership structure” refers to the situation where the CEO holds the title of the chairman of the board. 31 A. Manager and director ownership Managers and directors whose personal wealth is significantly linked to the value of the firm will have the incentive to act in the interests of outside shareholders. According to Jensen and Meckling (1976) if outside shareholders can costlessly assess the extent to which an ownermanager imposes agency costs on other shareholders, the market value of the firm’s stock will be reduced, decreasing therefore the owner’s wealth. The corporate governance literature argues that increasing stock ownership by managers and directors can be an effective control mechanism designed to reduce the moral hazard behavior of firm managers. If this is an effective control mechanism then an increase in the extent of its use would induce a reduction in the level of other monotoring mechanisms such as the presence of blockholders and outside directors. B. Blockholder ownership The presence of shareholders holding a high proportion of the firm’s capital constitutes another way to mitigate the effects of the separation of ownership and control on firm value. The manager of a firm in which each shareholder holds only a small fraction of the firm’s capital can engage in value reducing activities (Berle and Means, 1932). Indeed a shareholder with a little stake in the firm has weak incentives to engage in monitorong of managers since he or she supports all the costs of minitoring while getting only a small fraction of the benefits (the typical free rider problem). In contrast, an ownership structure in which one or more shareholders own a large block of stock has the potential for refuting the managers from engaging in moral hazard behavior. The presence of blockholders may represent a threat to the company’s management because of the power to launch a proxy fight, or in the extreme, a takeover bid. A blockholder may also nominate a person to represent him or her on the board of directors, in order to ensure that management is acting in the interests of shareholders. Consequently, firms with blockholder ownership are expected to have less agency problems, and the need for alternative control mechanisms is reduced. C. The proportion directors of outside Another mechanism designed to mitigate the moral hazard behavior of managers is monitoring by the board of directors. Most corporate charters require that shareholders elect a board of directors, whose mission is to monitor management and assist in strategic planning within the firm. Most importantly, for the board to be effective in carrying out its task of management monitoring it has to be independent of the management team. Therefore, it is argued by a number of academicians and professionals that the presence of directors who are not employees of the firm may enhance the effetiveness of the board of directors in monitoring managers, and improving firm value. The rationale behind this is that outside directors are more likely to defend the interests of outside sharehodlers. Fama and Jensen (1983) argue that outside directors have the incentive to act as monitors of management because they want to protect their reputations as effective, independent decision makers. Weisbach (1988) finds that outside-dominated baords are more likely than inside-dominated boards to replace the CEO in response to poor performance. In banking the results regarding the effectiveness of outside directors are mixed. Brewer III et al. (2000) find that bid premiums offered for target banks increase with the proportion of independent outside directors. However, Pi and Timme (1993) and Adams and Mehran (2002) find that the proportion of outside directors is not related to performance measures. Since the presence of outside directors entails costs to the 32 firm, that take the form of fees, travel expenses, stocks and stock-options, we would expect that banks will use higher numbers of outside directors only when the other corporate control mechanisms are weak. D. CEO-Chairman duality Many shareholder activits and corporate governence scholars consider that separating the titles of chairman and CEO will reduce agency costs and improve firm performance. The reason is that when the CEO is also the chairman of the board, the power within the firm is concentrated in one person’s hands. This allows the CEO to control information available to other board members. The board becomes under the control of managers, which prevents it from effectively accomplishing its tasks of hiring, eventually firing, and rewarding top executive officers, and to ratify and monitor important decisions. Given the decrease in the effectivenes of the board the potential agency costs resulting from the separation of ownership and decision making are exacerbated. Jensen (1993) recommends that companies separate the titles of CEO and board chairman. Pi and Timme (1993) study a sample of banks over the 1987 – 1990 period. Their results suggest that after controlling for bank size and other control variables, costs are lower and return on assets are higher in banks with two different persons holding the CEO and chairman titles. Control mechanisms designed to mitigate the agency problem are therefore expected to be used to a larger extent in companies operating with a dual leadership structure. E. Board of directors’ size The largely shared wisdom regarding the optimal board size is that the higher the number of directors sitting on the board the less is performance. This leans on the idea that communication, coordination of tasks, and decision making effectiveness among a large group of people is harder and costlier than it is in smaller groups. The costs overwhelm the advantages gained from having more people to draw on. Jensen (1993) states that “Keeping boards small can help improve their performance. When boards get beyond seven or eight people they are less likely to function effectively and are easier for the CEO to control.” (p. 865) Lipton and Lorsch (1992) also call for adoption of small boards, and recommend that board size be limited to seven or eight members. A number of empirical studies have documented a negative effect of board size on firm performance (Yeramck, 1996 and Eisenberg et al., 1998). Therefore corporate mechanisms such as insider and blockholder ownership, and the presence of high proportions of outside directors become more important in firms with large boards. F. The effect on firm performance The classical argument about the relationship between corporate governance variables and firm performance is that, for some variables the greater the level of the variable and the better is firm performance; the opposite holds for other variables. Consider for instance, stock ownership by insiders and blockholders. The largely shared wisdom, about these two control mechanisms, is that firms with more insider ownership and blokholder ownership achieve a better performance. The same argument holds for the presence of outside directors on the board, i.e., the more outside directors the firm has on its board the better is its performance. Regarding the size of the board, a number of academicians and professionals call for smaller boards of directors, based either on intuition or empirical findings. The rationale behind this is that the effectiveness of larger boards is lower, and firms will gain, in terms of performance, if they choose to operate with boards composed of a limited number of directors. However, another argument consists to say that each corporate control mechanism 33 generates benefits to the firm but also entails costs. Therefore, a corporate control mechanism will be used up to a level where the marginal benefits equal the marginal costs. Most importantly, the optimal levels of the different control mechanisms may vary across frims, yielding different levels of use of each mechanism but with equally good performance. In addition to the optimal use of each corporate control mechanism, a number of these mechanisms are designed to achieve the same objective, which is to reduce the extent of the moral hazard behavior by managers. Consequently, higher levels of the use of one mechanism may induce lower levels of the use of other mechanisms, without having a negative effect on firm performance. According to this argument a cross sectional analysis would not yield any significant relationship between corporate governance mechanisms and firm performance, all other things being equal. G. Hypotheses Since all of the governance mechanisms we described above are alternative ways to provide incentives to managers, each might plausibly be used instead of another. If so, we would expect the use of the different mechanisms to be related to each other. Depending on the mechanisms of interest, positive, as well as negative, relations might exist. For instance banks with higher levels of insider ownership would have less blockholders and less outsider directors. Likewise, banks with higher insider ownership, blockholders or higher proportions of outside directors would have less of a need for smaller boards or the separation of the CEO and chair titles. Accordingly, the first hypothesis to be tested in this paper is the substitution hypothesis: H0: Banks do not substitute between the alternative governance mechanisms. H1: Banks substitute between the alternative governance mechanisms. That is banks with heavy use of one mechanism will use lower levels of the other mechanisms. We also argued that firms choose the level of their corporate governance mechanisms in a way that maximizes performance. That is the different corporate governance mechanisms are used in an optimal way. Therefore, the second hypothesis to be tested in this paper is the optimal use of governance mechanisms hypothesis: H0: Banks do not use the governance mechanisms in an optimal way. H1: Banks use the governance mechanisms in an optimal way. That is any cross sectional variation in their use reflect differences in the costs and benefits of each mechanism between banks. These differences in costs and benefits are themselves due to external factors, such as the business environment of the bank. Consequently, if these differences are controlled for, or if mechanism use is unrelated to the environment, there should be no cross-sectional relation between the level of the use of corporate governance mechanisms and measures of firm performance. II. Empirical Analysis The choice of any of the five ownership and board variables may depend upon choices of other ownership and board variables, and other factors related to the bank’s underlying environment. These factors are related to bank size, bank age, and CEO characteristics and are treated as exogenous variables. To develop the system of equations, we draw on previous studies that have examined the determinants of ownership and board structure of firms (e.g., Demsetz and Lehn, 1985; Agrawal and Knoeber, 1996; Cho, 1998, Himmelberg et al., 1999, and Mak and Li, 2001). 34 There are five equations in the system of equations for ownership and board structure. The endogenous variables in the system of equations are insider ownership (INSOWN), blockholder ownership (BLOCK), the proportion of outside directors (OUTDIR), board leadership (LEADER), and board size (BSIZE)4. In estimating the system of equations, the following variables are used as instruments: RISK, TENURE, LNCSIZE5, RETURN, AGE, NINS, NYSE, and SLHC6, where RISK is the standard deviation of monthly stock returns over the last 60 months, TENURE is the tenure of the chief executive officer, LNCSIZE is the natural logarithm of the company’s size, RETURN is the average monthly stock retrun over the last twenty-four months, AGE is the number of years since the bank has been organized as a holding company, NINS is the number of top executive officers and directors in the bank, NYSE is a dummy variable that takes on 1 if the bank is listed on the New York Stock Exchange and 0 otherwise, and SHLC is a dummy variable that takes on 1 if the bank is a savings-and-loan holding company and 0 otherwise. Consider the first equation in the system which relates to insider ownership (INSOWN). We expect INSOWN to depend not only on the levels of the other corporate governance mechanisms but also on other factors, such as the riskiness of the bank, its size and the number of persons holding these stock shares. Bank risk may impact insider ownership in two 4 The definition of the variables used in the study is given in table 1 in the appendix. 5 In all the estimations the distribution of bank size (CSIZE) is normalized by using its natural logarithm, LNCSIZE. 6 To satisfy the order condition, ensuring that the equations in the system are identified, each equation must exclude at least four of the exogenous variables since each equation includes four endogenous variables as regressors (Kennedy, 1998). The specification of equations (1) – (5) is partly driven by the need to satisfy this order condition. different ways. On the one hand, higher insider ownership levels, all else being equal, imply less diversification for insiders. Consequently, for risk averse managers and directors, the greater is the riskiness of the bank’s stock return the lower is the optimal level of stock ownership. On the other hand, Demsetz and Lehn (1985) offer another explanation for the relation between firm risk and managerial ownership. They argue that a higher volatility of the stock returns may be considered as a signal for the higher noisiness of a firm’s activity and environment. For such firms managerial behavior is more difficult to monitor. Therefore, firms operating in noisier environments should have higher insider ownership in order to limit the moral hazard behavior by managers. Similar to risk, bank size has an ambiguous effect on the scope for moral hazard and therefore on insider ownership. One argument leads to expect a positive association between bank size and insider ownership. According to this argument larger banks hold more opaque assets, increasing the scope for managers to engage in value reducing activities. The cost of monitoring in larger banks is higher, which increases the optimal level of insider ownership. The other argument is that larger banks are the subject of more monitoring and control by regulators, reducing therefore the scope for moral hazard behavior by managers. This will, in turn, lead to a lower optimal level of insider ownership in larger banks. Besides, for a given fraction of ownership, investing in one firm’s capital requires more wealth the larger is the firm. Risk aversion implies that the larger the firm and the lower is the proportion of the firm’s capital held by insiders. INSOWN should be positively related to the number of officers and directors, denoted NINS. Indeed the cost of insider shareholdings, resulting from under-diversified portfolios, will be less when these shares are divided among a larger number of insiders (Agrawal and Knoeber, 1996). SLHC is included as an exogenous variable in all 35 the equations since the governance structure may be determined differently in Savings and Loan Holding Companies7. We therefore have the following model: (1) INSOWN = α 0 + α1 BLOCK + α 2 OUTDIR + α 3 LEADER + α 4 BSIZE + α 5 LNCSIZE + α 6 RISK + α 7 NINS + α 8SLHC + ε1 The second equation in the system relates to blockholder ownership (BLOCK). Similar to eq (1) we include the four other board and ownership variables as explanatory variables, and we add other exogenous variables which we think determine the extent of stock ownership by blockholders. We define BLOCK as the percentage of equity owned by persons and institutions holding 5% or more of the company’s equity. BLOCK may be affected by RISK and LNCSIZE in the same way as INSOWN. Indeed the same arguments discussed above are valid for the extent of ownership concentration within outside shareholders’ hands. Following Agrawal and Knoeber (1996) we also include NYSE to control for the possibility that BLOCK depends on whether the bank is listed on the New York Stock Exchange or not. In particular, institutional investors may be attracted by banks listed on the NYSE (see also Himmelberg et al., 1999 for a similar argument). So, NYSE should be positively related to BLOCK. Summarizing, we have: (2) BLOCK = β 0 + β1 INSOWN+ β 2 OUTDIR + β 3 LEADER+ β 4 BSIZE+ β 5 LNCSIZE+ β 6 RISK + β 7 NYSE + β8SLHC+ ε 2 . The proportion of outside directors is expected to be positively related to 7 Our results are qualitatively the same when we consider only the sample of bank holding companies (BHC). LNCSIZE. Larger banks have more opaque assets and operations which require higher monitoring of managers. One way to improve the monitoring of management is to have more outside directors sitting on the board. Furthermore, Agrawal and Knoeber (1996) argue that the greater visibility of large firms may induce more board seats devoted to representatives of the public, for example consumer or environmental interests. Based on results by Baghat and Black (2002), who find that in the aftermath of poor performance, companies tend to add more outside directors to their boards, OUTDIR is expected to be negatively related to past performance (RETURN). Therefore, we have: (3) OUTDIR = δ 0 + δ 1 INSOWN δ 3 LEADER + δ 2 BLOCK + + δ 4 BSIZE + δ 5 LNCSIZE + δ 6 RETURN + δ 7 SLHC + ε 3 . LEADER is a dummy variable that takes on 1 if the CEO is also the chairman of the board and 0 otherwise. Based on empirical work by Brickley et al. (1997), LEADER is expected to be positively related to both TENURE and RETURN. Brickley et al. report that a CEO who performs well, and who has served for a long time within the company is likely to be granted the title of chairman of the board. Therefore, we have: (4) LEADER = φ 0 + φ 1 INSOWN + φ 2 BLOCK φ 3 OUTDIR + φ 4 BSIZE + φ 5 RETURN + φ 6 TENURE + + φ 7 SLHC + ε 4 . The last endogenous variable related to corporate control is board size. Yermack (1996) and Eisenberg et al. (1998) report a positive correlation between board size and the total assets of the firm, implying that larger companies have larger boards. Indeed as the bank gets larger the number 36 and complexity of its operations increases, requiring therefore more directors to rely on. We also expect board size to be positively related to the number of years since the bank has been organized as a holding company (AGE). The reason is that as time goes on more managers are promoted to directors, and as a result boards become larger (Mak and Li, 2001). In addition, as the bank gets well established as a holding company the number of its subsidiaries may increase. This implies that more executive officers working within the subsidiaries join the board of directors of the holding company. BSIZE is therefore expected to be positively related to both LNCSIZE and AGE. (5) and Exchange Commission website. In Research Insight there were a total of 287 BHCs and S&LHCs with total assets of more than $1,000 millions. Complete data were available for 260 companies. Data for the final sample (260 companies) are obtained from four sources: 1) Accounting data for the fiscal year 2002 are from Research Insight. 2) Stock market data are from the CRSP database. 3) Ownership and board data are collected from the annual proxy statements filed with the SEC at the beginning of the 2002 fiscal year. 4) Data on capital structure are collected from annual reports 10-K, available on the SEC website. BSIZE = ϕ 0 + ϕ 1 INSOWN + ϕ 2 BLOCK + ϕ 3 OUTDIR + ϕ 4 LEADER + ϕ 5 LNCSIZE + ϕ 6 AGE + ϕ 7 SLHC + ε 5 . Fig. 1 summarizes the selection of the final sample B. Descriptive statistic III. Data A. Sample selection The sample consists of Bank Holding Companies (BHCs) and Savings-and-Loan Holding Companies (SLHCs) available in the Research Insight database of Standard & Poor’s, in 2002. The following criteria have been applied to select the final sample: 1) The company has total assets of at least $1,000 millions at fiscal year end 2002. 2) Market return on common stock of the company must be reported in the Center for Research in Security Prices (CRSP) database for at least twelve months as of year end 2001. Annual proxy statements for the fiscal year 2002 must be available on the Securities Table 2 reports descriptive statistics for the variables used in the study of the relation between ownership structure, board structure and performance. The average equity ownership by insiders (officers and directors) is 14.12% (median: 9.55%). Blockholder ownership has an average of 7.97%. The typical bank in the sample has 12 directors, among whom 83.33% are outsiders (not employed by the company), has 17 directors and top-executive officers, and has a CEO who is also chairman of the board. The typical bank has been operating as a holding company for the last 18 years, and its CEO has held his position for the last 7 years. The average bank in the sample has total assets of $21.24 billions (median: $3.12 billions). Average Tobin’s Q is 1.07 (median: 1.07). Average tier 1 leverage ratio is 8.33% (median: 7.92%), and average standard deviation of monthly stock returns in 2002 is 7.44% (median: 6.9%). The risk of the typical bank, as measured by the standard deviation of the 37 monthly stock return over the last 60 months, is equal to 8.75%, and the median monthly stock return over the last two years is equal to 1.87%. Savings-and-loan holding companies represent 25.7% of the total sample. Finally, banks listed on the New York Stock Exchange represent 23.4% of the total sample. IV. Empirical Findings A. The relationships among the governance mechanisms To examine the relationships among the governance mechanisms, we estimate Eqs. (1)-(5) as a system of linear equations using Two Stage Least Squares (2SLS). Each governance mechanism appears on the left-hand side of one equation and the right-hand side of each of the others. Results of the 2SLS estimation are presented in table 3. Table 3 shows that there is an interesting pattern of interdependence among several of the governance mechanisms, which is in favor of the substitution hypothesis8. For Eq. (1) relating to insider ownership, the signs on the other ownership and board variables is generally consistent with these mechanisms being substitutes. However, none of the coefficient estimates is statistically significant. The results for Eq. (2) relating to blockholder ownership are similar to those for insider ownership, with none of the variables being significant. The weak findings for insider and blockholder ownership are consistent with Agrawal and Knoeber (1996), Mak and Li (2001) but conflict with those of Demsetz and Lehn (1985) and Schranz (1993). The results for Eq. (3) suggest that the proportion of outside directors on the board decreases with the increase in insider 8 In table 3, the coefficients on the exogenous variables generally have the predicted sign but are often statistically insignificant. As a result, coefficient estimates for the endogenous governance variables may be imprecise. ownership (p<0.01), and the decrease in board size (p<0.01). The relationship between managerial ownership and outside directors is consistent with these governance mechanisms being substitutes. Banks with high levels of insider ownership have less agency problems between managers and shareholders, and therefore have less need for monitoring by outside directors. However, another interpretation is that an increase in insider ownership increases the ability to influence board appointments, thereby reducing the presence of outside directors. Since smaller boards are considered as better monitors for managers (Jensen, 1993), the presence of more outside directors on larger boards may be interpreted as evidence that when the board gets larger, there is more need for outside directors. If banks “believe” that outside directors are better for monitoring managers, they will compensate for the lack of monitoring by larger boards by increasing the proportion of outside directors. For the board leadership structure (Eq. (4)), the results suggest that the presence of a dual leadership structure is negatively associated with higher levels of insider ownership (p<0.01) and positively related to longer CEO tenure (p<0.1). The negative association between insider ownership and dual board leadership indicates that the probability of the CEO being also the chairman of the board decreases with increasing equity ownership by officers and directors. This may be seen as a sign of good governance in banks with high levels of insider equity ownership. In these banks insiders have more interest in good governance and they require the separation of the two positions (CEO and board chairmanship). The finding that CEOs with longer tenure are more likely to hold the title of chairman is consistent with Brickley et al. (1997) who argue that dual leadership is a consequence of the “passing the baton” process in managerial succession. Finally, the results for Eq. (5) indicate that banks with more insider 38 ownership (p<0.1) and more outside directors (p<0.01) have larger boards. Again, if larger boards are considered as ineffective in monitoring managers, this suggests that the lack of monitoring due to higher board size is compensated by the presence of insiders with larger equity interests in the bank and higher proportions of outside directors. B. Corporate governance and bank performance In this section we test the hypothesis of the optimal use of governance mechanisms by banks. In section 2 we argued that governance mechanisms are used by firms in a way that maximizes their performance. The optimal level of use of each mechanism varies from one firm to another depending on a number of factors related to the firm itself as well as to its business environment. Agrawal and Knoeber (1996) and Mak and Li (2001) find that once the empirical analysis takes into account the endogeneity of corporate governance mechanisms, there is no effect of individual corporate governance mechanisms on performance. In this section, we conduct a similar analysis to Agrawal and Knoeber (1996) and Mak and Li (2001), by estimating OLS and 2SLS regressions of bank performance, as measured by Tobin’s Q, on various corporate governance variables. This analysis is attempted to provide further evidence on whether corporate governance mechanisms in banking companies are endogenously determined, and therefore have no effect on performance. Before allowing for the endogeneity of governance mechanisms, we first estimate regressions where bank performance depends upon only a single governance mechanism. Table 4 presents results from OLS estimations where Tobin’s Q is regressed on individual governance mechanisms along with other control variables. These variables include the capital structure, as measured by the tier 1 leverage ratio (CAPITAL), the uncertainty of cash flows, as measured by the standard deviation of monthly stock returns (STDEV), and a control for company size, as measured by the natural logarithm of total assets (LNCSIZE). Table 5 presents OLS and 2SLS regression estimates of Tobin’s Q on the five governance mechanisms and control variables. The 2SLS regression is estimated by adding Eq. (6) to the system of Eqs. (1)-(5), including TOBINQ as an additional endogenous variable, and adding CAPITAL and STDEV to the set of instrumental variables. Therefore, the simultaneous equations system treats the five governance variables, as well as performance, as endogenous. The performance equation is the following: (6) TOBINQ= γ 0 + γ1 INSOWN+ γ 2 BLOCK+ γ 3OUTDIR+ γ 4 LEADER+ γ 5 BSIZE+ γ 6 CAPITAL+ γ 7STDEV + γ8 LNCSIZE+ γ 9SLHC+ ε 6 . Contrary to theory and expectations, the results of the OLS estimations, presented in tables 4 and 5, together show that greater insider and blockholder ownership lead to poor performance in banking companies. The results are consistent with less insider and blockholder ownership leading to better performance. But these results are also consistent with causality running the other way around. Poor firm performance may lead insiders and blockholders to reduce their equity ownership in the bank. The 2SLS estimation allows to address the issue of which way the relation runs in each case. The regression reported in the second column of table 5 not only considers the presence of alternative corporate governance mechanisms but also accounts 39 for their endogeneity. Comparing the 2SLS estimates with the OLS estimates in the first column, the coefficient estimates on insider ownership and blockholder ownership loose their statistical significance. Furthermore, the performance model becomes statistically insignificant (the p-value of the F test is equal to 0.73). We interpret this as evidence in favor of the hypothesis of optimal use of governance mechanisms by banks. When the regression analysis takes into account the endogeneity of the ownership and board structure in banks it reveals no statistically significant effect of these governance mechanisms on banking performance. Summary and conclusion This paper investigates the interrelations of corporate ownership and board structure characteristics, and their effect on firm performance in a sample of bank and loanand-savings holding companies. We argued that since banking companies face the same external disciplining factors, such as the market for corporate control and the product market, if banks internal control mechanisms are determined in an optimal way, a carefully specified empirical analysis should reveal significant links between the different corporate control mechanisms designed to mitigate the scope for moral hazard behavior by managers, but no effect on firm performance. We develop two hypotheses which are the substitution hypothesis and the optimal use of governance mechanisms hypothesis, and test them on a sample of 260 bank and loan-and-savings holding companies, in 2002. The substitution hypothesis states that banks substitute between the different governance mechanisms at their disposal, such as insider ownership, bolckholder ownership and the presence of outside directors. The optimal use of governance mechanisms hypothesis states that if the governance mechanisms are used in an optimal way, an empirical analysis should reveal no effect on performance. We use the Two Stage Least Squares approach and find evidence in favor of these two hypotheses. The results indicate that ownership and board structures are related to each other. In particular, we find that banks with higher equity ownership by managers and directors tend to have lower proportions of outside directors on their boards. Since outside directors and higher equity ownership by insiders are considered as mechanisms designed to reduce the agency conflict between managers and shareholders, this may be interpreted as evidence that a bank that relies heavily on one mechanism has lower need for the other one. Depending on the costs and benefits of each mechanism, a bank will choose either to have a higher representation of outside directors or to have an ownership structure in which managers and directors have high stakes. The results indicate also that banks with higher insider ownership have a lower probability to have a CEO who is also the chairman of the board. Consistent with the “passing the baton” hypothesis suggested in earlier studies we find that CEOs with a longer tenure are more likely to hold the chairman title. The findings are also in favor of the optimal use of governance mechanisms hypothesis. In fact, an OLS regression of governance mechanisms reveals a negative and statistically significant effect of insider and blockholder ownership on bank performance. However, when the 2SLS procedure is used these statistically significant effects disappear. Overall the results of this study show that corporate ownership and board structures of banking firms are inextricably linked and that banks use optimal levels of each governance mechanism. Models that consider single ownership or board characteristics, such as managerial ownership or the proportion of outside directors may therefore be misspecified. 40 One of the limitations of this study is the possible omission of governance variables that may be relevant in the performance equation or with strong relations to other governance mechanisms. For instance, the extent to which some banking firms rely on subordinated debt may help them reduce agency problems between managers and shareholders, and possibly rely less on other governance mechanisms. Therefore, the system of equations may be misspecified. Corporate governance theory is, unfortunately, incomplete to help taking into account all relevant mechanisms, when estimating a system of equations of governance mechanisms. The findings of this study suggest possible trails for future research. For instance, replicating this study on firms from other regulated industries, such as airline companies, media companies, or insurance companies, may enhance the understanding of the interrelations between governance mechanisms when companies are operating in the same business environment. References Adams, R., Mehran, H., 2002. Board structure and Banking Firm Performance. Working paper, Federal Reserve Bank of New York. Agrawal, A, and Knoeber, C.R., 1996. Firm Performance and Mechanisms to Control Agency Problems Between managers and shareholders. Journal of Financial and Quantitative Analysis 31, 377-90. Baysinger, B.D., Butler, H.D., 1985. Corporate governance and the board of directors: performance effects of changes in board composition. Journal of Law, Economics, and Organization 1, 101-124. Berle, A.A., Means, G.C., 1932. The Modern Corporation and Private Propoperty. Commerce Clearing House, New York. Bhagat, S., Black, B., 2002. The noncorrelation between board independence and long-term performance. Journal of Corporation Law, vol 27, Issue 2, 231-43. Booth, J.R., Cornett, M., M., Tehranian, H., 2002. Boards of directors, ownership, and regulation, Journal of Banking and Finance 26, 1973-96. Brewer III, E., Jackson III, W., Jagtiani, J., 2000. Impact of Independent directors and the regulatory environment on bank merger prices: evidence from takeover activity in the 1990s. working paper 2000-31, Federal Reserve Bank of Chicago. Brickley, J.A., James, C., 1987. The takeover market, corporate board composition and ownership structure. Journal of Law and Economics, 30, 161181. Cho, M. H., 1998. Ownership structure, investment, and the corporate value: an empirical analysis. Journal of Financial Economics 47, 103-121. Demsetz, H., Lehn, K., 1985. The structure of corporate ownership: causes and consequences. Journal of Political Economy 93, 1155-1177. Eisenberg, T., Sundgren, S., Wells, M.T., 1998. Larger board size and decreasing firm value in small firms. Journal of Financial Economics 48, 35-54. Fama, E.F., 1980. Agency problems and the theory of the firm. Journal of Political Economy 88, 288-307. Fama, E.F., Jensen, M., 1983, Separation of ownership and control. Journal of Law and Economics 26, 301-325. Hermalin, B., Weisbach, M., 1991. The effects of board composition and direct 41 Himmelberg, C., Hubbard, R., Palia, D., 1999. Understanding the determinants of managerial ownership and the link between ownership and performance, Journal of Financial Economics 53, 353-384. Pi, L., Timme, S., 1993. Corporate Control and bank efficiency. Journal of Banking and Finance 17, 515-30. Rechner, P.L., Dalton, D.R., 1991. CEO duality and organizational performance: a longitudinal study. Strategic Management Journal 12, 155-160. Jensen, M.C., 1993. The modern industrial revolution, Exit, and the failure of internal control systems. The Journal of Finance Vol. 48, No3, 831-880. Rosenstein, S., Wyatt, J.G., 1990. Outside directors, board independence, and shareholder wealth. Journal of Financial Economics 26, 175-191. Jensen, Theory agency Journal 360. Yermack, D., 1996. Higher market valuation of companies with small board of directors. Journal of Financial Economics 40, 185-211. incentives in firm performance. Financial Management 20, 101-112. M.C., Meckling., W.H., 1976. of the firm: managerial behavior, costs and ownership structure. of Financial Economics 3, 305- Kaplan, S.N., Minton, B., 1994. Appointments of outsiders to Japanese boards: determinants and implications for managers. Journal of Financial Economics 36, 225-257. Kennedy, P., 1998. A Guide to Econometrics. 4th Edition. MIT Press, Massachusetts. Mak, Y.T., Li, Y., 2001. Determinants of corporate ownership and board structure: evidence from Singapore. Journal of Corporate Finance 7, 235-256. McConnell, J., Servaes, H., 1990. Additional evidence on equity ownership and corporate value. Journal of Financial Economics 27, 595-612. Mehran, H., 1995. Executive compensation structure, ownership, and firm performance. Journal of Financial Economics 38, 163184. Morck, R., Shleifer, A., Vishny, R., 1988. Management ownership and Market Valuation: An Empirical Analysis. Journal of Financial Economics 20, 293-315. 42 Fig. 1. Sample selection. Companies in Research Insight with at least $1,000 millions of total assets in 2002. less Companies with less than one year of stock returns in CRSP. less Companies with no annual proxy statements on the SEC website. 287 companies Final sample 260 companies 12 companies 15 companies Table 1: variable description INSOWN Percentage of equity owned by the company directors and top executive officers, including the CEO. BLOCK Percentage of equity owned by persons and institutions that hold 5% or more of the company’s equity. OUTDIR The proportion of directors not currently employed by the company. It is calculated as the number of outside directors divided by the total number of directors. LEADER A dummy variable that takes on 1 if the CEO is also the chairman of the board and 0 otherwise. BSIZE (board size) The number of directors sitting on the board at the shareholders’ annual meeting. TOBINQ Tobin’s Q = (total assets book value – book value of common equity + market value of common equity)/ total assets book value. RISK The standard deviation of monthly stock returns over a maximum of 60 months and a minimum of 12 months, depending on data availability on CRSP. TENURE The number of years the CEO has held his position within the company. CSIZE Book value of total assets. LNCSIZE Log (Book value of total assets). RETURN The average monthly market return over the last 24 months. AGE The age of the company measured as the number of years since the company’s organization as a holding company. 43 NINS Number of insiders reported in the annual proxy statements as owning equity of the company. CAPITAL A measure of capital structure: the tier 1 leverage ratio collected from annual reports 10-K. STDEV Standard deviation of monthly stock returns in 2002. SLHC A dummy variable that takes on 1 for Savings and Loan Holding Companies and 0 for Bank Holding Companies. NYSE A dummy variable that takes on 1 for banks listed on the New York Stock Exchange and 0 otherwise. Table 2: Descriptive statistics (sample size = 260). Variables Min Median Mean Max Std. Dev Insider Ownership (INSOWN %) 0 9.55 14.127 79.38 13.712 Blockholder ownership (BLOCK %) 0 0 7.973 80.44 13.623 Proportion of outside directors (OUTDIR %) Leadership structure (LEADER)a 50.000 83.333 80.825 95.833 10.057 0.55 1 Board size (BSIZE) 4 12 12.32 31 4.428 Company risk (RISK %) 4.908 8.754 9.314 35.622 2.783 Average past return (RETURN %) -5.003 1.869 1.818 6.609 1.295 Company size (CSIZE) in millions of U.S $ Log of Company size (LNCSIZE) 1,005.32 3,125.21 21,243.92 758,800 75,036 6.913 8.047 8.475 13.539 1.384 Tobin’s Q (TOBINQ) 0.9 1.069 1.073 1.313 0.053 CEO tenure (TENURE) 1 7 9.15 42 7.164 Company Age (AGE) 2 18 18.511 53 10.562 Capital structure (CAPITAL %) 5.1 7.92 8.33 34.4 2.403 Volatility of monthly stock returns in 2002 (STDEV %) 2.660 6.961 7.446 31.743 3.202 Number of insiders (NINS) 5 17 18.234 41 6.34 NYSE a 0 - 0.234 1 - SHLC a 0 - 0.257 1 - a 0 - - For the binary variables, the mean indicates the proportion of banks for which the variable equals 1. 44 Table 3: Results of 2SLS regression of ownership and board structure (sample size = 260). t-statistics are in parentheses. Asterisks indicate significance at the (1%)***, (5%)**, and (10%)* levels. Dependent variable Independent variables Intercept INSOWN BLOCK OUTDIR LEADER BSIZE 207.618 (1.07) 457.361 (0.62) -2.170 (-0.65) 87.373*** (9.48) -0.449*** (-2.62) -0.180 (-0.50) 5.691 (1.53) -0.038*** (-3.19) 0.0007 (0.77) -0.068 (-1.40) -91.080*** (-3.15) 0.449* (1.91) 0.055 (0.09) 1.063*** (3.75) INSOWN BLOCK OUTDIR LEADER BSIZE LNCSIZE RISK -0.351 (-0.56) -2.307 (-0.90) -5.244 (-0.58) -8.319 (-0.29) 0.348 (0.06) -2.093 (-0.45) -0.210 (-0.11) -21.635 (-0.33) 4.628 (0.59) -4.719 (-0.33) -0.333 (-0.08) -3.107 (-0.79) 0.914*** (3.79) -1.037 (-1.11) TENURE NINS 2.560 (0.50) 0.054 (1.28) 1.198 (1.32) 0.028* (1.85) 0.852 (0.30) RETURN 0.027 (0.05) -0.002 (-0.05) AGE -0.034 (-0.25) NYSE SLHC Adjusted R2 F-statistic (p-value) 0.879 (0.08) 0.065 3.26 (0.001) 3.400 (0.31) 8.915 (0.95) -0.021 0.32 (0.959) 1.675 (0.51) 0.125 6.29 (0.000) -0.047 (-0.17) 0.073 3.95 (0.000) -0.958 (-0.22) 0.080 4.24 (0.000) 45 Table 4: Coefficient estimates from OLS regressions of Tobin’s Q on individual governance mechanisms (sample size = 260). t-statistics are in parentheses. Asterisks indicate significance at the (1%)***, (5%)**, and (10%)* levels. Independent (1) (2) (3) (4) (5) variables Intercept 1.048*** 1.0225*** 1.0201*** 1.0254*** 1.027*** (39.51) (40.76) (28.85) (40.87) (40.18) INSOWN -0.0006** (-2.54) BLOCK -0.0002 (-1.19) OUTDIR 0.00005 (0.18) LEADER 0.0042 (0.66) BSIZE -0.0003 (-0.47) CAPITAL 0.0028** 0.0034*** 0.0031** 0.0031** 0.0031** (2.19) (2.60) (2.41) (2.41) (2.41) STDEV -0.003*** -0.0034** -0.0034*** -0.0034*** -0.0035*** (-3.03) (-3.48) (-3.53) (-3.50) (-3.61) LNCSIZE 0.0046* 0.0066*** 0.0065*** 0.0061*** 0.0069*** (1.93) (2.93) (2.86) (2.60) (2.91) SLHC -0.0283*** -0.0259*** -0.0282*** -0.0285*** -0.0294*** (-4.01) (-3.49) (-3.92) (-3.99) (-3.94) Adjusted R2 0.169 0.152 0.148 0.149 0.148 F-statistic 11.53 10.33 10.00 10.09 10.04 (p-value) (0.000) (0.000) (0.000) (0.000) (0.000) 46 Table 5: Coefficient Estimates from OLS and 2SLS Regressions of Tobin’s Q on governance mechanisms (sample size = 260). t-statistics are in parentheses. Asterisks indicate significance at the (1%)***, (5%)**, and (10%)* levels. Dependent variable: Tobin’s Q Independent variables Intercept INSOWN BLOCK OUTDIR LEADER BSIZE CAPITAL STDEV LNCSIZE SLHC Adjusted R2 F-statistic (p-value) OLS Estimates 2SLS Estimates 1.0681*** (26.88) -0.0007*** (-2.77) -0.0004* (-1.64) -0.0002 (-0.60) 0.0036 (0.55) -0.0001 (-0.16) 0.0031** (2.41) -0.0028*** (-2.79) 0.0042* (1.63) -0.0258*** (-3.37) 0.167 6.78 (0.000) -0.1398 (-0.06) 0.0079 (0.60) 0.007 (1.04) 0.0125 (0.50) 0.0432 (0.50) -0.0128 (-0.52) 0.0025 (0.26) -0.0092 (-1.04) 0.0275 (0.65) -0.0926 (-1.39) -0.011 0.67 (0.738) 47 IPO’s Initial Returns: Underpricing Versus Noisy Trading Mounira BEN ARAB♦ Adel KARAA This version : January 2005 Institut Supérieur de Gestion de Tunis 41, Rue de la Liberté, cité Bouchoucha, 2000 Bardo (Tunisie) Tel : (216) 71561854- 71560 313 ; Fax : (216) 71756-874 E-mail: [email protected], [email protected] Abstract Numerous studies gave evidence to the presence of positive abnormal return generated by the initial public equity offerings (IPO’s). Some explain the gap between the offer and the aftermarket price by the underpricing phenomenon, some explain it by noisy trading, and other studies justify it by both phenomena. Our paper, which takes into accounts the latter category, tends to analyze the abnormal performance of the newly issued stocks in the new market of Paris, over the period 2000-2002, within an appropriate approach. To detect the presence of underpricing and to assess its magnitude, a stochastic frontier model is proposed. For the noisy trading effect, the evidence was driven from a second approach based on Markov switching model. Two distinct regimes have been found respectively: “underprice state” and “market benchmark state”. Results from the control chart representing the average probabilities of being in the first regime, point out the underprice effect on the first trading day. Results from the control chart representing the average underpricing adjusted abnormal return, show evidence of noisy trading effect over the two first trading days. However, contrary to the underpricing, the effect here is more pronounced on the second trading day. Keywords: IPO, event study, underpricing, noisy trading, Markov switching model, stochastic frontier. ♦ We would like to thank Habiba Mrissa for her generous help in providing the data base. 48 49 Introduction Abnormal performance generated by the initial public equity offerings (IPO’s) has puzzled financial researchers. Various studies [Ibbotson (1975), Ibbotson & Jaffree (1975) and Ritter (1984)] have found an international phenomenon of significant positive initial return of new issues, attributed to the underpricing of the offer price. Numerous studies such as those conducted by Baron (1982), Rock (1986), Allen & Faulhaber (1989) and Welch (1989) supported the underpricing hypothesis accordingly explained by the asymmetric information hypothesis. Others presented by Tinic (1988), Aggarwal & Rivoli (1990) and Ritter (1991) stressed the market misevaluation due to speculative bubbles, and others namely that of Ruud (1993) considered that the IPOs are fairly priced, but the underwriter stabilization activity on the offering (truncating significantly the distribution of IPO’s initial returns) which explains the positive mean initial return. As a consequence, the positive initial returns noted during the early aftermarket stage present an abnormality that could result from three joint phenomena: underpricing, market misevaluation and underwriter stabilization activity. Generally, previous researches attributed the abnormality to a unique rather than to an association of various possible causes. This approach is the way we intend to analyze the IPO’s abnormal return on the new Paris market between 2000 and 2002. To assess the short run abnormal performance, we notice that the previous studies applied the event study [Ball and Brown (1968) and Fama, Fisher, Jensen and Roll (1969)] or the stochastic frontier approach [Chen, C.T.Hong and Wu (1999)]. The event study approach consists of estimating the impact of a particular event on the patterns of the financial returns during a specific period called "event window ". This impact is appreciated through the abnormal return measured by the difference between the observed return of the asset and its expected return. The stochastic frontier represents the efficient performance, while the stochastic error terms capture the deviation of the observed initial return from the stochastic frontier. In the IPO context, this inefficiency is supposed to be the magnitude of deliberate underpricing. In this paper, we use both approaches. Through a stochastic frontier approach, we try to detect the presence of deliberate underpricing of new issues and measure its magnitude. Then, to assess the abnormal return we apply a modified event study based on Markov switching model. Compared to the traditional event study, it allows for time varying parameters, cross sectional heterogeneity and distinguishes between two regimes. Finally, multivariate regression model is used to focus on the noisy trading effects on IPO returns. This paper is organized as follows: Section 2 reviews the theoretical explanation of the short term abnormal performance, the proposed methodology is described in section 3, data and sample are reported in section 4, and section 5 and 6 respectively display the empirical results of the extent of deliberate underpricing and the extent of noisy trading. Finally section 7 concludes. I. Theoretical Explanation of the Short Term Abnormal Performance A real disagreement has been noted within the IPO’s abnormal returns. The first studies, on the French market [Mc Donald and Jacquillat (1974), Jacquillat and al. (1978)] or on the American market [Ibbotson (1975), Muscarella and Vetsuypens (1989)] support the underpricing hypothesis. The sizable early returns generated by a market overreaction in the early aftermarket is explained by some authors through the lower IPO's offer prices relative to the aftermarket prices. 50 Other researches [Aggarwal and Rivoli (1991), Welch (1992)], however, suggest that these newly issued stocks are fairly priced but this market overreaction reflect only an irrational behavior of some noisy traders. So, the IPO abnormal performance can be attributed to the underpricing or the noisy trading phenomenon. IPO underpricing has been identified by a number of studies as an international phenomenon with varying degrees on each country. Most of these studies attribute this phenomenon to asymmetric information between the different partners in the IPO process (investors, underwriters and issuing firm). For Rock (1986), IPO underpricing is attributed to asymmetric information between informed and uninformed investors. His model supposes that the latters would receive a full allocation of overpriced IPOs but only a partial allocation of underpriced IPOs, whereas, the former would withdraw from the market if the IPO is overpriced and are more likely to receive an allocation where an IPO is underpriced. Therefore, according to this framework, IPO underpricing would compensate the disadvantages of uninformed investors. For Benveniste and Spindt (1989), the underpricing is a way to incite the informed investors to reveal their private information as regards to the demand of stocks during the preselling period. This information is used by an underwriter to establish the IPO offer price. For Baron (1982) and Tinic (1988), however, underpricing is explained by the asymmetric information between the underwriter and the issuing firms. According to the first study, the offer price is a function of the uncertainty; the more this is the case, the more the issue is underpriced. Yet, Tinic (1988) argued that issuers underprice the IPO to reduce their legal liability. Then for both, the underwriter’s behavior can be explained by the insurance hypothesis. Besides, other authors, such as, Allen and Faulhaber (1989) and Welch (1989) analyze the IPO underpricing through signaling hypothesis9. Others, like Loughran and Ritter (2001), assimilate the underpricing to an agency cost which reflected a conflict interest between underwriters and issuers. Allen and Faulhaber (1989) and Welch (1989) considered that underpricing is a signal of the good quality of the firm. So, these issuers can recoup their upfront sacrifice post-IPO, either from favorable market responses to future dividend announcements according to the first study or from future issuing activity according to Welch. For Loughran and Ritter (2001), underwriters might intentionally leave more money on the table then necessary, and then allocate these shares to favored buy-side customers. This situation may increase the underwriters’ discretion in share allocations which runs against the interests of the issuing firms which do not often know their real value. A long with theoretical investigation, a number of empirical researches10 have been carried out and are worth noting. Using respectively U.S and U.K. data, Aggarwal, Prabhala and Puri (2002) and Cornelli & Goldreich (2001) found contrary to Lee, Taylor and Walter (1999), using data from Singapore that underpricing facilitates preferential allocation to the institutional investors against the individual investors. Ljungqvist and Wilhelm (2002) showed 9 Using a simultaneous equations model, Michaely and Shaw (1994) rejected the signaling hypothesis. They did not find a significant relation between underpricing and the increases of seasoned offering nor a relation with the payment of dividend. 10 Ritter Jay and Welch Ivo (2002), " A review of IPO activity, pricing and allocation ", Yale ICF working paper No.02-01 February 2002 51 that underpricing is less important when institutions are favored. market does not dispose of historic returns before the issue. Moreover, according to Welch and Ritter (2002), underwriters do not only have a price discretion. They also have quantity discretion. The IPO's contain an overallocation option for almost up to 15 % of the shares offered. Zhang (2001) argued that the allocation of these extra shares boosts the aftermarket demand for the stock. Because the investors can be classified as rational investors and speculators, the aftermarket transaction price could be a combination of rational and speculative operations. So, the transaction price may deviate from the fair price due to the market misevaluation. Obviously, most of previous studies tend to attribute IPO’s initial returns patterns to underpricing. Nevertheless, underpricing is not the only reason for positive initial returns. Ritter and Welch (2002) established that the field of the current research now stresses rather behavioral explanations. In fact, only under the market efficiency hypothesis, the gap between the IPO offer price and the aftermarket price is considered as deliberate underpricing. In most cases, the market price does not incorporate all the available information. In other words, the market efficiency hypothesis is not often validated. As a consequence, the initial return observed during the early aftermarket can not be attributed exclusively to underpricing. Under inefficient market context and with noisy trading, a fraction of this IPO’s excess return can be explained by the market misevaluation on the offering. IPO can not be underpriced, but the market overestimates the new issues and some overoptimistic investors are willing to purchase the offerings at prices higher than the offer prices. Aggarwal and Rivoli (1991) showed that IPOs are fairly priced but the irrational behavior of some investors, motivated by speculative bubbles, can explain the excess of returns in the early aftermarket stage. Speculative activities affect the IPO's prices during the first trading days more than the ordinary equities because the Indeed, Welch (1992) pointed out that a potential investor, even possessing favorable information concerning a new issue, since he makes his decision on behalf of the other investors' decision, he can give up the purchase of the newly issued stocks. To avoid this kind of irrational behavior, the issuers tempt to underprice their new offerings to incite every first potential investor to buy the newly issued stocks. In so doing, these companies create informational cascades; all the other investors (followers) would buy newly issued stocks by aligning their decisions according to the purchase of the initiated investors without taking into account their private information. Chin, Hong and Wu (1999) applied the stochastic frontier model to decompose initial return into deliberate underpricing and noise effect. They concluded that the IPO’s initial returns mostly result from the noisy trading activities instead of the deliberated underpricing. Moreover, the IPO long term underperformance noted by some authors such as Ritter (1991), may constitute a solid argument to support the noisy trading hypothesis. Various studies show the existence of a negative correlation between short-term and long term IPO’s returns such as Leleux (1993) who supported the fads hypothesis; the overoptimistic investors overestimate the newly issued stocks during the early aftermarket stage. Meanwhile, the market can correct the error of appreciation and the stocks overestimated during the offering period 52 converge to their intrinsic value in the long run. At this point, one can notice that most of the previous researchers analyzed the IPO abnormal performance according to one aspect, rather than a combination of attributes. This is precisely the way we intend to examine the problem. In fact, the gap between the offer price and the aftermarket price may be attributed to the underpricing deliberated by new issues, to the noisy trading activities in the early aftermarket or a combination of both underpricing and noisy trading activities. II. Methodology The proposed methodology is based on two steps. The first step is designed to detect the existence of underpricing deliberated by new issues and assess its magnitude through a stochastic frontier approach. The second step is designed to appreciate the process generating the aftermarket prices during the offering period of newly issued stocks. To extract the Underpricing Adjusted Abnormal Returns (UAAR), we use a modified event study based on Markov switching model which consider the underpricing process. A. The Underpricing Test If the IPO excess returns are attributed only to the underpricing phenomenon, the IPO aftermarket price reflects the real value of the issuing firm. So the fact that the issuers deliberately priced their offerings below the intrinsic value of the firm, confirms the asymmetric information hypothesis. However, if we observe IPO excess returns in spite of the fact that IPOs are fairly priced, we assume that this abnormal performance is attributed to the noisy trading activities. So, the market overestimates the value of the issuing firm. Some noisy traders buy the IPO shares at a price higher than the proposed offer price. This irrational behavior of the market operators invalidates the market efficiency hypothesis. As a consequence, if we note the presence of deliberate underpricing as well as the market misevaluation of the newly issued stocks, we assume that the IPO short run abnormal performance is attributed to a combination of both underpricing and noisy trading effects. In this case, we confirm the asymmetric information as well as the inefficient market hypotheses. In order to estimate the noisy trading and the underpricing effects, we apply a stochastic frontier approach for the latter and a modified event study for the former. As we have noticed before, the misvaluation of the firm’s equity, during issuance period, may be attributed to the deliberate underpricing and the noise effect. In order to detect the existence of deliberate underpricing, we use a stochastic frontier model developed initially by Aigner, Lovell and Schindt (1977). Based on the efficient market hypothesis, if the issuers do not deliberately underprice the new offerings, the offer prices should be equal to the stock market value. Investors establish the latter by looking at various factors relating to the future profitability of the firme which can be interpreted as elements used for producing the stock market value. Hunt-McCool, Koh and Francis (1996) argue that the intrinsic price of an IPO should be a function of the firm’s profitability, level of operations, IPO risk characteristics, underwriter spread, proceed size, percentage of the offering held by insiders, market Price/Earning ratio, and the industry. Basically, these factors are related to the firm characteristics and market factors. If the issuers underprice the new offerings, the offer prices should be systematically lower than the aftermarket prices. Under the stochastic frontier model, the difference between the offer prices and the 53 stock market value is detected by a composite error term which itself is a component of two parts: asymmetric error and symmetric error. The significance of positive asymmetric component indicates the presence of deliberated underpricing by new issues. Within the IPO’s contex, the stochastic frontier model starts with establishing a stock market pricing function. y* = f(x, β) Where x is a pricing factors’ vector (relating to the future profitability of the firm). For any firm, the anticipated stock market value (i.e. the frontier) is stochastic. Thus, for any IPO i; i = 1, 2, … , n, yai = f(xi, β) + ei; ei, is the systematic error component, which is assumed to be distributed as N(0, σe). Deliberate underpricing enters the valuation model through a positive disturbance (u), which is independent of (e). For the ith IPO, ( ) a Ln Pio = yi - - ( ) - ui = f xi, β + ei - ui = β' xi + εi Pio, is the offer price of IPO i, ui, is the asymmetric error component which is the absolute value of a variable disutributed as N(0, σu). εi, is the composite error. It is common to refer to ui as misevaluation of the firm’s equity since higher values of this variable are associated with higher degree of underpricing. The stochastic frontier, called the “valuation frontier”, captures the maximum stock price that investors are willing to pay for a firm with given characteristics. The log-likelihood for a sample of n IPOs is : ( )[ ] 2 n ⎡ ⎛ ⎡ −λε ⎤ ⎞ ⎛ε ⎞ ⎤ 2 i ⎟ − 1⎜ i ⎟ ⎥ Ln(L) = - n Ln(2π) + ln(σ ) + ∑⎢Ln⎜ Φ⎢ ⎥ ⎟ 2⎜ σ ⎟ ⎥ ⎜ 2 i =1⎢ ⎝ ⎣ σ ⎦ ⎠ ⎝ ⎠ ⎦ ⎣ Where Φ[.] and φ[.] (used below) are the CDF and PDF of the standard normal distribution, respectively, σ 2 = σ 2u + σe2 and λ= σe σv . If the asymmetric error component (ui) is not significant in the model, λ is close to zero, and the IPO is not deliberately underpriced. However, if λ is larger than zero, then the IPO is deliberately underpriced. Based on Jondrow, Lovell, Materov, and Schmidt (1982), the extent of deliberate underpricing of an IPO can be measured as follows : ⎡ ⎡ε i λ ⎤ ⎤ φ σλ ⎢ ⎢⎣ σ ⎥⎦ − εi λ ⎥ ⎢ σ ⎥ 1+ λ 2 ⎢1−Φ⎡ε i λ ⎤ ⎥ σ E u i / εi ⎢⎣ ⎥⎦ ⎣ ⎦ = UNDER i = Ln Pi0 Ln Pi0 [ ] ( ) ( ) ( ) (4) B. The Assessment of the IPO’s Adjusted Abnormal Return In this section, we develop an appropriate methodology to analyze the effect of noisy trading on the aftermarket stock prices of the new issues. Such effect is evaluated through the Underpricing Adjusted Abnormal Return (UAAR). The proposed model is an extension of the classic market model in the sense we introduce the extent of underpricing (UNDER) as the market return, to explain the after market stock return of the new issues. Unlike Chen and al. (1999), this approach avoids the bias when they compute the Adjusted Abnormal initial Return (AAR) as the difference between the abnormal return and the deliberate underpricing. Indeed, their definition of the AAR assumes that the underpricing evaluated by the equation (4) is the effective measure of the deliberate 54 underpricing. However, this measure may be different according to the estimation method (DEA, SFA,…), the specification of the density function (Gamma, Truncated Normal,…) and the selected pricing factors. In our methodology, the abnormal return is assessed conditionally to the underpricing measured previously. Thus, at the opposite to Chen and al. (1999) who considered the underpricing as an intrinsic component of aftermarket return of IPO, we adjust the abnormal returns from the underpricing effect unless the coefficient associated to the variable UNDER is significant. Besides, most of the previous studies define the market-adjusted return as the IPO abnormal return [Ritter (1984), Tinic (1988), Chalk and Peavy (1989), Aggarwal and Rivoli (1990), Welch (1996)]. This specification supposes that the event involves changes only in means and the Beta is equal to one for all the firms. To overcome this misspecification, we allow in our model a Beta varying across firms. On another hand, numerous event studies [Collins, Ledolter and Rayburn (1987), Broocks, Faff and Lee (1995), B Arab & al.(2004)] show that the pricing valuation process characteristics (i.e. return, systematic risk, variance, error pricing) are affected by the event. Using a switching regime model seems to be more suitable to capture any perturbations caused by these firm-specific events. According to Nihat Aktas, Eric de Bodt and Jean-Gabriel Cousin (2003), who are concerned with mergers and acquisition events, the application of a Markov Switching Model due to Hamilton (1988, 1989), is based on the idea of the existence, throughout the period of the study, of two distinct regimes: a "normal" regime which describes the price valuation process during normal periods (without events) and an "event" regime which describes the price valuation process during event periods. Recently, Ang and al (2004) applied the two States Markov Switching Model within the IPO context, to distinguish between “outperformance’stocks state” and “underperformance’stocks state”. As far as we are concerned, we specify for each IPO’S return, Rit11, two pricing evaluation processes that depend on state Sit prevailing at time t. ( ) (1) R i, t = α (1) + η (1) + η µ(1) v UNDER α v + µ (β ) + η v R m, t + ε (1) (1) β (1) i, t i + S it = 1 if (5a) ( ) (2) R i, t = α (2) + η (2) + η µ(2) v UNDER α v + µ (β (2) ) + η β(2) v R m, t + ε i,(2)t i + S it = 2 if (5b) ( ) v~ N 0,σ v h i,(1)t/ψ h i,(2)t/ψ - - 11 /ψ(t −1) ( ~ N 0, h i,(1)t ) ( ; εi,(2)t/ψ (t -1) ~ N 0, h i,(2)t ( ) ( ) 2 2 ⎡ = ⎢ γ (1) + γ1(1)ε i,(1)t −1 0 ⎣ 2 2⎤ ⎡ = ⎢ γ (2) + γ1(2)ε i,(2)t −1 ⎥ exp ηv(2) v ⎣ 0 ⎦ t -1 t -1 ; εi,(1)t ⎤ (1) ⎥ exp η v v ⎦ ) Rm,t: the daily market return in t, ⎛ I ⎞ such that Rm,t = Ln⎜⎜ it ⎟⎟ , It and It⎝ Iit −1 ⎠ 1are the value of the "New market" index during trading day t and t-1 ; v : unobservable cross sectional heterogeneity factors ; εji,,t (j = 1, 2) : error terms supposed to be normally distributed conditional on all informations ⎛ Pit ⎞ ⎟ ; Pit and Pit-1 are the closing prices ⎟ ⎝ Pit −1 ⎠ Rit = Ln⎜⎜ of the IPO i during trading day t and t-1; 55 available in t-1(Ψt-1), with null mean and variance h ji,t. For the variance equations, we use as Hamilton and Susmel12 (1994) switching ARCH specification with two states and one autoregressive coefficient (i.e. SWARCH(2,1)). The transition dynamic between the regimes is described by an endogenous unobservable first order process. At any time t, the conditional probability (unobservable) of being in regime j, knowing that we are in the same regime in t-1, appears as follows : ( ) p jj(v ) = P St = j / St −1 = j ; v = ( exp a (j) + η(j) v a ( 1+exp a (j) ) (j) + ηa v ) ratio test which consists of testing the null hypothesis H0: single regime model, against the alternative hypothesis H1: twostate model. But, given the problem of not identification of the transition probabilities (under the null hypothesis) Garcia (1992) shows that they can be treated as nuisance parameters15. He finds that the 5% and 1% critical value for the likelihood ratio statistic are respectively 13.52 and 17.67 (for the case of switching in both means and variances). Finally, the Underpricing Adjusted Abnormal Return (UAAR) is generated from the following expression : (7) We have retained the variable v in all the previous equations in order to be able to estimate the model simultaneously for all the stocks according to the logic of panel data model13. This variable which corresponds to the unobservable cross sectional heterogeneity factors, allows us to control the heterogeneity of observations in there individual dimensions and so, it is likely to affect the price valuation process. These factors correspond to the intrinsic characteristics of each firm such as the size, the growth perspectives, the property structure... The model described above is estimate through the maximum likelihood method following Hamilton (1983) and Schaller and Van Norden (1997)14. The application of a two-state model to appreciate the dynamic of price valuation process is justified by using the likelihood UAAR ( +∞ it −∞ (10) III. Data statistics source and descriptive This study covers 60 book-built offerings on the "New Market" of Paris16 between 2000 and 2002. Since 2000, most of the offerings in the "New Market" were introduced according to the book-building procedure. Only a fraction of almost 10% of shares was offered to the public according to one of the procedures called "offre à prix ouvert (OPO)" and " offre à prix ferme (OPF)". Originally used in the USA, the specificity of the book-building mechanism consists of the flexibility offered to the underwriter who collects information from institutional investors, establishes the IPO price and allocates shares in a discretionary manner. 12 Hamilton and Susmel modified the ARCH specification (Autoregressive Conditional Heteroskedasticity) in order to consider some structural changes in data. These authors assume that volatility does not depend only on past news but also on state (St). 13 The return series of different stocks were piled according to the logic of Panel data in order to constitute one series composed of 3600 14 See Appendix I. 2 = R i, t − ∫ E[R it / Rm t , UNDER i, Sit , v] dF v ; 0, σ v 15 Hansen (1992, 1993) suggested a method for calculating the non standard asymptotic distribution. But, Garcia extended his work to Markov Switching test. 16 Created in 1996, this market was designed to attract young and high-technology companies and to offer more flexibility to entering, compared to the other components of the French market 56 ) We collected the list of IPO firms from the list of newly issued securities in the "New Market" of Paris from the Euronext.com web site. This site supplies any information related to the new issues such as the name of the firm, subscription date, offering date, the offer price as well as the IPO aftermarket trading prices and the values of "New Market" index. As shown in the following table I, 87 % of the firms went public in 2000, 55 % among the hole offering belonged to the computer sector characterized by raised growth opportunities, and 95 % of the offerings used the book-building procedure. The IPO characteristics can be classified according to the period of the offering operation which begins from the subscription day to the first trading days of the IPO. The Table A2 in appendix II reports for each IPO in the sample, the subscription date, the first trading day date, the offer price and the first after market price. Columns IV and V of this table show that the first aftermarket price tends to be greater than the IPO offer price. This tendency is confirmed with the Wilcoxon signed ranks test17. Indeed, the significance level of the test statistic which is equal to 0.002 (less than 0.5) shows a significance difference between the IPO offer price and first aftermarket price in distribution (cf. table II below). The result is consistent with the classic IPO abnormal performance hypothesis, 17 The Wilcoxon signed ranks test is a nonparametric procedure used with two related variables to test the hypothesis that two variables have the same distribution. It makes no assumptions about the shapes of the distributions of the two variables. This test takes into account information about the magnitude of differences within pairs and gives more weight to pairs that show large differences than to pairs that show small differences. The test statistic is based on the ranks of the absolute values of the differences between the two variables. but, at this stage we can not distinguish between the extent of underpricing and noisy trading effects. IV. The determination of the extent of deliberate underpricing In the stochastic frontier model, some information prior to issuance is required to determine the fair offer price. HuntMcCool, Koh and Francis argue (1996) that firm value, risk characteristics and market condition are the major factors for the IPO offer price. Based on Myers and Majluf, (1984) work, we know that investors use information about issuing firms to condition their assessment of firm value. Many proxy variables of accounting information are shown to be related to firm value. Cash flow, net income and sales revenue are used as proxies for the profitability of the firm [Teoh and al. (1998), Koop and Li (2000)], the earning per share (EPS) as the ability to generate income to shareholder [kim, krinsky and Lee (1995)] and total asset is used as a proxy of the firm size [Barclay and Smith (1995)]. For the risk characteristics, the age of IPO firm at issuance used as a proxy is shown to be negatively related to the offer price [Beatty and Ritter (1986)]. Same result is expected with the debt since it captures the default risk of the firm. Other factors have been proposed by different studies which have determinant effect in the firm valuation: the proportion of stock owned by the insiders [Chen, Hong and Wu (1999)]; the underwriters’ compensation [Hughes (1986)]; and the industry effect [Chen (1996) and Ritter (1991)]. A. The pricing factors selected In this paper we also argue that firm value, risk characteristics and market condition are sufficient for the determination of IPO offer price using related proxy variables. 57 Following previous studies, we use the EPS as the measure of the firm’s profitability; the floating as the measure to control the insiders’ ownership; the percentage of the public right to vote as the measure to control the asymmetry information, the debt ratio and the standard deviation of stock return as risk characterizing variables; and the number of new issues as the measure to control the market condition effect. Table III here after reports the descriptive statistics for the sample. We can note that the weak average debt ratio of 17 % characterizes the companies belonging to the high-technology sectors. For the floating, we can note an average of almost 80% of the shares owned by officers and directors. As for the possibility of the public to get the right to vote, the table shows that some firms have deployed high entrance barrier. The average number of new issues (6.433) recorded three months before the offering date required is relatively important; it seems to indicate that the chosen period of study corresponds to a "Hot Issue Market”. B. The Stochastic Frontier Model Estimates The empirical results of the parameter estimates of the stochastic frontier model by the maximum likelihood approach are presented in table IV. As explained in section 3.1, since λ, the measure pointing out the existence of asymmetric error is significantly larger than zero, this emphasizes the presence of the deliberated underpricing by new issues on the new market, which would partially explain the gap between the offer and the aftermarket prices. To compute the underpricing magnitude, we are therefore able to use the conditional expectation of the asymmetric error defined by equation (4). For each IPO, the extent of underpricing is reported in table AII in appendix (colon 6). Various summary statistics related to the underpricing extent distribution are reported as well in table AIII. For the 60 IPOs, this effect computed an average and a standard deviation of 23.33% and 18.65% respectively, which implies that the underpricing extent vary widely within the retained initial public equity offerings. The results show indeed, extreme values of 2,5 and 86%. V. The determination of the extent of noisy trading The results of the maximum likelihood estimates of the two-state model are reported in table V. As we can see from this table, the likelihood ratio statistic has a sufficiently important value that justifies the deployment of the two states model to describe the pricing evaluation process. Reading of the registered values of the parameters, found at the level of each regime, drives us to think that according to the proposed model, the pricing valuation process is based on two components reflecting respectively the underprice and the market effect on the observed return. Indeed, whereas the variable UNDER appears with significant positive values (µ(1) and ηµ(1)) in the first regime, the coefficients (µ(2) and ηµ(2)) associated with this variable in the second regime, are not significant. This result may only exclude the underprice effect on the return process in the second regime where the market component seems to have the dominant effect since the coefficients associated (β(2)and ηβ(2)) is significant. However, this latter effect is not totally excluded from the first regime even if the registered values are very low (0.0218 and -0.0405) for the coefficients (β(1) and ηβ(1) respectively) since they are significantly different from zero at a significance level of 1%. 58 This tendency is reinforced by the important level of volatility recorded in the second regime compared to the first one. Indeed, we associate this result with a systematic overestimate of the observed return in the second regime. The overestimate attributed to the component underprice affects positively the returns and consequently reduces the extent of their variation and then their volatility. Even if we look to the parameters retained to specify the conditional transition probabilities, these latter tend to show a different level of persistence according to the regimes. The positive and significant value registered for parameter a(1) as well as the positive value of ηa(1), show indeed that P11 is lower than P22 and indicate that the first regime is less persistent. Our comments are completed with the instantaneous unconditional probabilities of being in the first regime (πi1t) 18 . Even if they tend to take values between 0 and 1, they show high frequency of being in the second regime. The event periods are assumed to be those during which unconditional probabilities of being in the first regime (π1it) are significantly higher than 0.5. The determination of the event window related to the common event (IPO) is based on a control chart graph in which every point corresponds to the average unconditional probability registered for the set of firms at a given moment t {t =1,...60}. Every date relative to the correspondent point which is situated above the critical threshold of being in the market benchmark state is considered as a date belonging to the first regime. The critical threshold is indicated by the lower dashed line in figure 1 here after (LCL: Lower Control Limit). This graph shows that, in general, the first regime takes place only on the first trading day since it is the only day where the 18 see equation 6 in appendix III. average probability of being in this regime is greater than 0.5 (and even close to one). However, for all the other periods this probability have never gone beyond 0.311 (the upper control limit), indicating a tendency to be located in the second regime. Therefore, it is obvious that all these results contribute to retain two different regimes describing the price valuation process of the stocks retained in the sample. These results allow us to retain respectively regime 1 as underpricing regime and regime 2 as market benchmark regime. Besides, the significant values of the coefficients associated to the unobservable cross-sectional heterogeneity factors (υ) justify the control of the heterogeneity of observations in their individual dimensions. In light of all the previous results, the UAAR for the IPO i, at time t can be expressed as follow : +∞ UAAR it = R i, t − ∫[π1it(v ) E[R it / Rm t,UNDER i, Sit = 1, v] −∞ + (1-π1it(v)) E[R it / Rm t, Sit = 2, v] ] dF(v ; 0, σ2v ) Our two states model allows us to define the expected return of IPO i at time t, as a mixture of two expected returns, related to both regimes, weighed by their respective probabilities of occurrence. The control chart applied to the Average Underpriced Adjusted Abnormal Return registered for all stocks at a given moment t {t =1,...60} (figure 2) supports the assumption of the existence of a significant and positive abnormal noisy trading return during the two first trading days with a pronounced effect the second day. This drives us to appreciate the extent of the noisy trading effect through the two days’ CUAAR where we reported its standardized values in the table AII (colon 59 7). From the descriptive statistics of the CUAAR in table AIII, we can see that for the 60 IPOs, the noisy trading effect computed an average and a standard deviation over the two first trading days of 8.08% and 15.25% respectively, which implies that the extent of this effect varies widely across the firms in the sample. The results show, indeed, extreme values of 24.30% and 51.88%. This disparity of the noisy trading extent recorded between the different IPO makes us focus, in the next step, on the role of some variables that do explain this state of fact. Based on a multivariate regression model, we regressed the Standardized 2-day CUAAR on some market and some firms attributes. For the latter, we retained the debt ratio, the right to vote, the earning per share EPS and the sector; and for the former, we retained in the model the exchange volume, the number of new issues and the market return as market attributes19. Results of the regression are presented in table 6. Results of the Fisher test (F=6.277, p-value = 0) show the global significance of the model. The 0.574 relative to the determination coefficient R2, confers for the whole variables in the model, enough satisfactory and explanatory power, and testifies its relevance. Except the EPS and the sector, all the other attributes (debt ratio, the right to vote, the exchange volume, the number of new issues and the market return) seem to associate a significant effect on the extent of the noisy trading return. 19 The debt ratio (total of debts divided by total of assets) is a risk proxy variable, The right vote offered to the public by the issuers is a control proxy variable, and the transaction volume is a liquidity proxy variable The two first attributes are subscription attributes and the three remaining attributes are however initial offering period attributes. Therefore, the abnormalities related to the noisy trading, noted in the early aftermarket are attributed to a combination of an ex-ante information known ahead of time provided by the firm's initial public offering prospectus and an ex-post information provided by the market in the initial offering period20. The negative effect does support Koop and Li’s hypothesis which supposes a negative relationship between debt and firm value. For the right to vote offered to the public, the result reported in table 6 show a positive effect of this attribute on the CUAAR. This result is not incompatible with the existence of entrance barrier where, the issuer will tend to generate excess in demand in order to create atomistic investors. This explanation is thus justified through the positive effect of the exchange volume over the noisy trading abnormal return. For the number of new issues, the negative effect of this attribute can easily be explained. The increase in the number of new issues characterizes the "Hot Issue Market", and as Ritter's study shows, the availability of abundant information reduces the asymmetric information and thus the information cost. As a consequence, the behaviors of the issuer and the investor are affected: the latter will be optimistic and ready to overestimate the newly issued stocks and the former will be willing to propose an offering price close to the fair value21. 20 Weng , Liu and Chen (1994) show that noisy trading depends on some firm attributes: the size, the trading volume and the concentration of the ownership of the firm. 21 Lowry and Shwert in (2002) showed, from the VAR model, that there are pronounced cycles in the number of new issues and in the average initial return per month. According to these authors, more firms tend to go public following periods of high initial return when the capital demand is raised, the information cost is low and the investors are specifically optimistic. 60 Finally, concerning the market return attribute effect on the CUAAR which is positive, it is due to the market state during the registration period. We notice that noisy trading return is more raised in case of bull market (positive market return) than in bear market. In the light of these results, the abnormalities noted in the early aftermarket can be attributed to both underpricing and the market misevaluation. The findings seem to confirm the inefficiency market hypothesis through the second effect which is mainly due to irrational behavior of some noisy traders. Conclusion Previous studies attribute initial returns to IPO underpricing. Recently, we started to look for further effects such as the market misevaluation. In this paper we develop an appropriate methodology to analyze the effect of noisy trading on the aftermarket stock prices of the new issues. Such effect is evaluated through the Underpricing Adjusted Abnormal Return (UAAR). In our methodology, the abnormal return is assessed conditionally to the underpricing measured using a stochastic frontier model. We argue that the deliberate underpricing so derived is not an intrinsic component. A modified event study based on Markov switching modeling is proposed in order to compute the UAAR. This approach allows for time varying parameters, variance heteroskedasticity and also cross sectional heterogeneity. Moreover, Markov switching modeling allows for neutralizing any disturbances caused by the event from the estimation interval. This specification allows us to find two different regimes describing the price valuation process of the stocks retained in the sample: underpricing regime and market benchmark regime. Our empirical results seem to confirm the noisy trading and the inefficient market hypotheses. The abnormalities noted in the early aftermarket are attributed to a combination of underpricing and noisy trading effects. The first is reflected by the high average probabilities of being in the first regime, the first trading day. The second effect is appreciated through the significance of Average Underprice Adjusted Abnormal Return the two first trading days. Our findings show that abnormal return depends not only on ex-ant information “subscription attributes” (information known before provided from issuing firm's prospectus) but also on expost information (information provided by the market during initial offering period). For example, big firms which offer to the public high percentage of vote right and firms belonging to the communication/diffusion/publicity sectors are found to be the most underpriced, whereas, firms which have an increased debt ratio are the less underpriced firms. Also, in hot issue market underpricing is reduced, while in bull market (positive market return) underpricing is more raised. For the noisy trading, we notice the same effect as to the market state (bull/beat, hot/cold) and opposite effect for the other attributes. As a consequence, even if the result highlights the noisy component of the abnormal performance due to irrational behavior of some market operators, the underpricing constitutes an important effect observed the first trading day. References Anlin Chen, C. T. Hong and Chin-shun Wu (1999), '' The Underpricing and Excess Returns of Initial Public Offerings Based one the Noisy Trading: To Stochastic Frontier Model ''. Working paper. 61 Andre Gygax and Sawyer. Kim. R (2001), "Learning and Predictability Across Events " Working paper, University of Melbourne. Ball C.A, Torous N.W, “Investigating Security Price Pperformance in the Presence of Event Date Uncertainty ", Journal of financial economics 22, 1988, p123-154. Binder J, «The Event Study Methodology since 1969 ", Review of quantitative finance and accounting 11 (1998), 111137. Boehmer, E, J, Musumeci and A.Poulsen (1991), "Event Study Methodology under Conditions of Event-induced Variance ", Journal of financial economics,30,253, 272. Cai, j., (1994), «A Markov model of unconditionnal variance in ARCH ". J. Bus. Econ. Stat. 12, 309-316. Chris J.Muscarelle & Michael R.Vetsuypens, "A simple test of Baron's model of IPO underpricing ", Journal of finance economics 24 (1989) 125—135. Christie A, " On Information Arrival and Hypothesis Testing in Event Studies ", Working paper, University of rochester NY 1983. Diebold, F.X.(1986), " Modelling the Persistence of Conditional Variances: a Comment ". Economet. Rev. 5, 51-56. Fama E.F, Ficher.L, Jensen M.C and Roll.R, "The Adjustment of Stock Prices to New Information ", International Economic Review, vol 10 (February, 1969). Frinklin Allen & Gerard R. Faulhaber, " Signaling by Underpricing in the IPO Market ", Journal of finance economics 23 (1989) 303-323. François Degeorge & François Derrien, '' Les déterminants de la performance à long terme des introductions en bourse: le cas français '', Banque & Marchés n° 55novembre-decembre 2001. Garcia, R.(1992), '' Asymptotic Null Distribution of the Likelihood Ratio Test in Markov Switching Models '', Manuscript, University of Montreal. George Woodward & Vijaya B. Marisetty (2003), '' Introducing Non Linear Dynamics to the Two Regime Market Model: Theory and Evidence '', Working paper. James S. Ang and Shaojun Zhang (2002), "Choosing Benchmarks and Test Statistics for Long horizon even study ", Working paper. Hamilton. J.D (1989), "A New Approach to the Economic Analysis of Nonstationary Time Series and the Business Cycle ", Econometrica, 57, 357-384. Hamilton. J.D & Susmel. R (1994), "Autoregressive conditional heteroskedasticity and changes in regime ", Journal of econometrics, 64 (1-2), 307333. Huntley Schaller & Simon Van Norden (1997), "Regime switching in stock market returns ", Applied Financial Economics, 7, 177-191. Latha Ramchand and Raul Susmel (1998), "Volatility and cross correlation across major stock markets ", Journal of empirical finance 5, 397-416. Lawrence M.Benvenist & Paul A.Spindt (1989), "How investment bankers determine the offer price and allocation of new issues.", Journal of finance economics 24, 343-361. Lisa A. Kramer (2000), '' Alternative methods for robust analysis in event study applications '', Department of Economics, Simon Fraser University, Burnaby BC, Canada V5A 1S6. 62 Michelle Lowry & G. William Schwert (2002), " IPO Market cycles: Bubbles or sequential learning? ", the journal of finance, June. Nihat Aktas, Eric Bodt, Jean Gabriel Cousin (2003), " Event study under noisy estimation period ", Working paper. Sushil Bikhchandani, David Hirshleifer, Ivo welch (1998), '' Learning from the behavior of others, conformity, fads and informational cascades '', Journal of economic perspectives 12.3, 151-170. Welch, Ivo (1992), '' Sequential Sales, learning and cascades '', Journal of finance 47, 695-732. Nicolas Wagner (2003), " A market model with time varying moments and results on Neuer market stock returns ", Center for entrepreneurial and financial studies (CEFS). Peterson P.P, 1989, '' Event studies: a review of issues and methodologies '', Quarterly journal of business and economies, 28, pp 36-66. Philip Hans Franses & Dick Van Dijk (1999), "Nonlinear time series models in empirical finance ", Cambridge University Press. Raul Susmel (2000), " Switching volatility in private international equity markets ", International journal of finance & economics 5: 265-283. Ritter (1991), '' The long run performance of initial public offerings '', the journal of finance. March 1991. Ritter Jay & Welch Ivo (2002), ''A review of IPO activity, pricing and allocation '', Yale ICF working paper No.02-01. Sawyer. Kim. R and Gygax (2001), "How eventful are event studies?" Working paper, University of Melbourne. Simon Van Norden & Robert Vigfusson, '' Regime switching models, a guide to the bank of Canada: Gauss procedures '', Working paper 96-3. Stephane Morris (1996), "Speculative investor behaviour and learning ", Quarterly journal of economics 111, 11111133. 63 APPENDIX I Estimation method of the Assessment of the IPO’s Adjusted Abnormal Return Model All the parameters of the model described in the section 3.2 are jointly estimated through the maximum likelihood method. The likelihood fonction itself is evaluated recursively using formula analogous to that in Hamilton (1993) and Schaller et Van Norden (1997). Specifically, we define, for j = 1, 2, φit(j)(v )= and ( ( φ εit(j) ; v (j) h it (v) ) (4) πit(j) ( θ ; v )=P Si,t = j / R it, R it −1,..., R i1 ; R Mt, R Mt −1,..., R M1 ; θ ; v ) ; j = 1, 2 (5) ) and φ(.) is the πit(1)(θ, v ) , may be calculated ( θ = α (1), α (2), β(1), β(2), γ (1) , γ1(1), γ (2) , γ1(2), a (1), a (2), η(1) , η(2) , ηβ(1), ηβ(2),η(1) , η(2) ,η(1) , η(2) '' , 0 0 α α γ γ a a where standard Gaussian probability density function. The unconditionnal probability of state 1 at each point in time, using the recursive formula πit(1)(θ, v )= where λit (θ, v ) φit(1)(v ) [ (6) ] (2) λit (θ, v )φit (v )+ 1−λit (θ, v ) φit (v ) (1) [ ]( ) (1) (θ, v) p11(v)+ 1−πi(t(1)−1)(θ, v) 1−p22(v) λit (θ, v ) = πi(t −1) (7) Conditional on θ and v, the contribution of any firm i at each period t is therefore [ ] w it (θ, v )= πit (θ, v )φit (v )+ 1− πit (θ, v )φit (v ) (j) (1) (j) (2) (8) and the likelihood function of the hole sample is n Ti +∞ ( L(θ )=∏∏ ∫ w it (θ, v ) dF v ; 0, σ v where ( F v ; 0, σ v i =1 t =1− ∞ ) (9) ) is the Cumulative Distribution Function (CDF) of N[0, σ v ], n is the number of firms in the sample and Ti, is the number of sequences associated to the firme i. Based on Hamilton (1993), the model is estimated by setting πi1(1)(θ, v) to equal the 1− p 22 (ϑ ) unconditional probability of being in state 1 (i.e. π ( 1 ) (φ ,ϑ )= ). i1 2 − p (ϑ )− p (ϑ ) 11 22 The maximization is performed using gradients and the maxlik procedure in GAUSS, which is a variety of algorithms. The integrals in (9) are evaluated at a grid of 100 points equally spaced on truncated portion of the domain. The left and the right truncations are chosen to lie ten standard deviations of v (i.e. σv) below and above zero, respectively. 64 APPENDIX II Table AII : IPO’s characteristics Firm Subscription date First trading day date IPO offer price First after market price Extend of under pricing Standardized two day CUAAR 1 MILLIMAGES 28-MAY-2001 07-JUN-2001 10,50 10,91 ,178237 1,224760 2 CARRERE GROUP 29-MAY-2001 13-JUN-2001 18,60 17,95 ,111730 ,284273 3 UNIVERSAL MULTIMEDIA 18-FEB-2002 20-MAR-2002 14,45 14,84 ,167137 ,878251 4 ESI GROUP 26-JUN-2000 06-JUL-2000 26,72 30,00 ,253184 2,870085 5 CONSORS FRANCE 31-MAR-2000 05-APR-2000 23,50 23,85 ,325906 6,410423 6 UBIQUS 20-SEP-2000 28-SEP-2000 14,00 14,10 ,112316 -1,057161 7 TRACING SERVER 07-DEC-2000 14-DEC-2000 58,20 51,00 ,071864 -1,387849 8 SAGE COALA 08-MAY-2000 19-MAY-2000 52,90 52,90 ,142403 ,882382 9 ARTPRICE,COM 17-JAN-2000 21-JAN-2000 19,06 55,00 0,770531 20,668672 10 NETVALUE 19-JAN-2000 26-JAN-2000 22,00 75,00 0,832537 31,803443 11 SOLUCOM 20-FEB-2001 14-MAR-2001 42,00 42,00 ,142403 ,779182 12 SELF TRADE 06-MAR-2000 16-MAR-2000 12,50 14,51 ,285565 2,067551 13 LYCOS FRANCE 02-MAR-2000 08-MAR-2000 36,00 103,00 0,862240 19,989692 14 BOURSORAMA 09-MAR-2000 21-MAR-2000 15,70 17,30 ,234984 2,963977 15 EMME 20-MAR-2000 07-APR-2000 17,80 16,02 ,065564 -2,284932 16 HIMALAYA 17-MAR-2000 27-MAR-2000 28,00 32,00 ,270427 2,542990 17 ABEL 30-MAR-2000 06-APR-2000 34,00 35,20 ,174784 -,487574 18 TELECOM CITY 21-MAR-2000 07-APR-2000 19,73 18,00 ,072853 -1,915463 19 NETGEM 29-MAR-2000 06-APR-2000 17,50 17,50 ,142403 1,251264 20 SQLI 13-JUL-2000 21-JUL-2000 6,75 9,00 ,420232 6,007408 21 SOFT COMPUTING 06-APR-2000 26-APR-2000 22,50 27,75 ,344468 5,135294 22 GAUDRIOT SA 27-APR-2000 12-MAY-2000 19,95 21,00 ,190695 1,384116 23 LINEDATA SERVICES 09-MAY-2000 17-MAY-2000 17,00 17,20 ,153138 ,877812 24 NET2S SA 11-MAY-2000 18-MAY-2000 14,00 14,30 ,162017 2,335142 25 RIBER 12-MAY-2000 24-MAY-2000 10,00 12,00 ,317841 4,469961 26 NEURONES 12-MAY-2000 23-MAY-2000 9,00 8,65 ,108453 ,455345 27 HI MEDIA 19-MAY-2000 07-JUN-2000 10,75 10,45 ,099495 -,589710 28 BUSINESS INTERACTIF 21-JUN-2000 27-JUN-2000 9,00 9,00 ,142403 ,741064 29 KEYRUS 10-JUL-2000 19-JUL-2000 7,50 7,50 ,142403 ,669818 30 MEDCOST 06-JUN-2000 09-JUN-2000 8,00 7,84 ,135548 ,461128 31 DALET 13-JUN-2000 23-JUN-2000 16,70 15,75 ,123024 ,444636 32 BCI NAVIGATION 24-MAY-2000 06-JUN-2000 14,75 16,20 ,325066 5,242822 33 CYBERSEARCH 05-JUL-2000 21-JUL-2000 6,20 6,40 ,149576 ,509019 05-JUN-2000 21-JUN-2000 33,00 76,00 ,065531 -,473301 35 ORCHESTRA-KAZIBAO 07-JUN-2000 28-JUN-2000 6,10 6,30 ,172476 1,030845 36 OPTIMS 05-JUN-2000 20-JUN-2000 8,00 10,18 ,142403 ,303891 37 CYBERDECK 20-JUN-2000 27-JUN-2000 9,00 7,00 ,025129 -4,439494 38 SITICOM GROUP 20-JUN-2000 28-JUN-2000 14,30 21,19 ,522844 8,835827 39 DATASQUARE 22-JUN-2000 05-JUL-2000 13,00 12,70 ,121860 -,158906 40 INFOVISTA 22-JUN-2000 06-JUL-2000 12,80 18,01 ,472515 7,244283 41 IB GROUP 16-JUN-2000 27-JUN-2000 22,00 21,95 ,140345 ,673193 42 AUFEMININ,COM 30-JUN-2000 19-JUL-2000 7,60 8,70 ,272024 2,837920 34 HIGHWAVE OPTICAL TECHNOLOGIES 65 43 ACTEOS 29-JUN-2000 05-JUL-2000 14,60 21,01 ,494376 7,740983 44 BAC MAJESTIC 28-JUN-2000 07-JUL-2000 11,50 11,50 ,142403 1,206546 45 SYSTRAN 01-SEP-2000 15-SEP-2000 6,90 8,50 ,133998 ,128469 46 COM 6 07-SEP-2000 21-SEP-2000 13,50 13,00 ,109986 -1,351289 47 MICROPOLE-UNIVERS 12-SEP-2000 20-SEP-2000 9,10 13,06 ,491755 7,811474 48 CRYONETWORKS 11-SEP-2000 21-SEP-2000 19,50 19,90 ,161174 -,187930 49 HUBWOO,COM 18-SEP-2000 28-SEP-2000 10,25 18,30 ,241290 1,569766 PHARMAGEST 50 INTERACTIVE 09-OCT-2000 20-OCT-2000 21,50 21,30 ,134018 -,176740 51 QUALIFLOW 28-SEP-2000 10-OCT-2000 19,50 20,00 ,165895 2,214112 RISC TECHNOLOGY EUROPE 26-OCT-2000 09-NOV-2000 9,49 15,25 ,601630 9,849072 53 SODITECH INGENIERIE 13-NOV-2000 29-NOV-2000 13,65 11,50 ,040466 -2,505310 07-NOV-2000 15-NOV-2000 14,53 16,86 ,285195 3,941133 52 54 CALL CENTER ALLIANCE 55 ITESOFT 29-JAN-2001 09-FEB-2001 8,90 7,45 ,064222 -1,577362 56 IXO 15-DEC-2000 19-DEC-2000 5,48 5,61 ,112165 -,879834 57 BUSINESS & DECISION 24-JAN-2001 06-FEB-2001 13,50 16,44 ,332132 4,414258 58 MEMSCAP 08-FEB-2001 01-MAR-2001 8,00 7,14 ,061477 -1,640887 59 GAMELOFT 31-MAY-2000 08-JUN-2000 7,90 8,30 ,201148 1,599038 60 SWORD GROUP 04-MAR-2002 13-MAR-2002 42,00 47,90 ,197176 1,388340 66 APPENDIX III Table AIII: underpricing and two day CUAAR in the sample Statistic Mean 95% Confidence Interval for Mean UNDERPRICING ,233280 Lower Bound ,184111 Upper Bound ,280456 Median ,161590 Std. Deviation ,186477 Minimum ,025128 Maximum ,862240 Mean ,080798 95% Confidence Interval for Mean Lower Bound ,041385 Upper Bound ,120210 TW0-DAY CUAAR Median ,035506 Std. Deviation ,152567 Minimum -,243045 Maximum ,518804 Table I: Sample description Number of firms % of firms Year of introduction 2000 52 86,7% 2001 6 10,0% 2002 2 3,3% B+OPO 43 71,7% Introduction procedure B+OPF 14 23,3% Other Procedures 3 5,0% Computer Sector 33 55,0% Communication/Diffusion/Advertising 14 23,3% Electricity/Electric/Communication 6 10,0% Other Financial Institutes 3 5,0% Other sectors 1 1,7% Others Equipments 1 1,7% Domestique / Professionnel Equipements 1 1,7% Environment 1 1,7% 60 100,0% Sector Total 67 Table II: Wilcoxon Signed Ranks Test Descriptive statistics Mean Standard deviation Minimum Maximum Median Wilcoxon Signed Ranks IPO OFFER PRICE FIRST AFTERMARKET CLOSING PRICE 17.20 21.108 11.132 19.064 5 0.8 58 103 14 15.885 Test : Difference between the first aftermarket price and the IPO offer price Number of Negative ranks Positive Ranks Ties 17 36 7 Mean of 21.32 29.68 Negative ranks Positive Ranks Sum of 362.5 1068.50 Negative ranks : Positive Ranks: Z (a) Asymptotic significance -3.125 0.002 (a) Based on negative ranks: the sum of the ranks for the less frequent sign is standardized Table III: Characteristics relative to the pricing factors Variables Debt Ratio (%) Floating (%) % of the public right to vote Number of new issues Minimum Maximum Moyenne Ecart type 5,48 5,3 5.3 2 58,20 49,7 49.7 12 17,1810 21,527 21.527 6.433 11,15163 8,6572 8.6572 3.609 Table IV: Results of the parameter estimates of the stochastic frontier model Dependent variable: Log of the offer price of IPO • • • • • • • • • • Independent variables Debts Ratio (%) Floating (%) ² % right to vote (public) Number of new issues σR over the 20 first listing days EPS Procedure (B + OPO) Computer sector Com/diff/advert sectors Intercept Variance Components • Asymmetric component • Symmetric component Log likelihood Number of observations Wald test of β1 = β2 = … = β9 = 0 Wald chi2 (9) Significance Likelihood-ratio test of sigma_u = 0 LR = -2[L(H0) -L (H1)] Significance Parameters estimations • • • • • • • • • • β1 β2 β3 β4 β5 β6 β7 β8 β9 β0 • • • • • • • • • • • • sigma_u sigma_e • • 0.0212*** -0.0562*** 0.0476* -0.1162*** 0.0006*** 0.1259*** 0.9652*** 0.2429*** 0.4553** 2.1610*** 0.1164*** 0.0321* -111.353 60 Standard Errors • • • • • • • • • 0.00245 0.00847 0.02832 0.02366 0.00003 0.00347 0.02591 0.03353 0.01151 0.02975 • • 0.03881 0.01850 189.34 0.000 25.53 0.000 68 Figure 1: The control chart of average probability of being in state 1 Table V: Results of the maximum estimates of the two-state model Two-states model Return Systematic risk Under pricing Volatility Conditional transition probabilities Variance of the unobservable heterogeneity factors Log likelihood Nber of observat° Parameters α(1) α(2) ηα(1) ηα(2) β(1) β(2) ηβ (1) ηβ (2) µ(1) µ(2) ηµ (1) ηµ (2) γ0(1) γ0(2) γ1(1) γ1(2) ηγ(1) ηγ(2) a(1) a(2) ηa(1) ηa(2) σv Estimations -0.0056*** 0.0031*** 0.0088*** -0.0111*** 0.0218*** 0.7814*** -0.0405*** 0.1963*** 0.0052*** -0.0004 -0.0084** 0.0165 -12.7779*** -6.3683*** -5.9782*** -1.1863*** -0.8485*** 0.8715*** Standard Errors (SE) 0.0002 0.0004 0.0031 0.0041 0.0049 0.0515 0.0143 0.0764 0.0014 0.0172 0.0033 0.0130 0.1485 0.0746 0.1929 0.1823 0.2969 0.3048 2.8764*** -1.5877*** 0.4880 -0.2451 0.5744 0.2833 0.4228 0.2554 1.2576*** 0.4411 -7979.724 3600 69 Figure 2: The control chart of Standardized Average Underpriced Adjusted Abnormal Return Table VI: The determinants of Noisy trading Dependent variable: Standardized two day CUAAR • • • • • • • • • Independent variables Debts Ratio (%) % right to vote (public) EPS Number of new issues Market return Exchange volume at the first trading day Computer sector Com/diff/advert sectors Intercept Parameters • • • • • • β1 β2 β3 β4 β5 β6 • • • β7 β8 β0 estimations • • • • • • -0.054** Standard Errors (SE) • • • • • • 0.202** * 0.044 0.522** * • 0.403*** • 1.803*** • R square • -0.012 • 0.026 • 2.1610*** 0.574 Adjusted R square 0.482 Std. Error of estimate 4.423 Fisher 6.277 significance 0.000 0.00245 0.00847 0.12832 0.19101 0.00003 0.49701 0.01147 0.01591 0.02975 70 Effects and compatibilities of the economic integrations concluded by developing countries. Case of the free trade area established between Tunisia and Morocco Karim CHAABOUNI Assistant-Professor in Economics Sfax High Business School ESC – Route de l’Aérodrome Km 4 – BP 1081 – Sfax 3018 – Tunisia Tel : (+216) 98 636 252 – E-mail : [email protected] Abstract In this paper, the interest is concentrated on the actual trend showing a considerable increase in the economic integrations’ agreements. The fundamental theories are presented, as well as some actual experiences. The purpose is to perceive the effects of such agreements on the member countries’ welfares and economic structures. The experiences of some developing counties in this field are presented in this paper. The case of the Free Trade Agreement concluded between Tunisia and Morocco is particularly treated and studied. Keywords: economic integration, free trade area, custom union theory, trade creation, trade diversion. 71 Introduction I. Economic or regional integration agreements don't stop appearing in the present economic context marked by more and more opening to the international environment. The trade preferential agreements are numerous and generally vary according to their degrees of integration. The objective always retained by this kind of agreements is doing trade liberalization between selected countries, and this through the elimination of custom barriers ; we generally associate a liberal trade conception to such agreements. Nevertheless, in these areas, trade barriers are maintained towards unrelated countries; that means that protectionist aspects could also be invoked in this setting. Various nations try to become closer to their neighbours, to their commercial partners… in order to conclude set of integration agreements also titled trade preferential agreements. Objectives are always ambitious and each nation hopes to generate profits discounted of such agreements in terms of economic growth, of employment, of investments… Virtues of the international trade’s theories are in minds of many economists, leaders and decision-makers. A short preview on a vast sample of agreements concluded, indicates that such movements don't limit themselves to the developed countries. Indeed, many developing countries in processes of liberalization and moving towards the market economy, show their wills to create or to integrate the trade preferential agreements with their partners. So facing this report and to these facts various questionings are apparent, to which this work tries to give elements of answers. How do economic integration agreements appear and what are their objectives ? What are their effects ? Do such agreements concluded by developing countries succeed to generate sufficient outputs ? i. e. do developing countries integrating these kinds of agreements see their welfares improving in consequence ? In answers, theoretical concepts are firstly presented in this work. Then, and in order to answer questions targeted on developing countries, some examples of agreements are landed briefly, while the accent is carried more on the Free Trade Area concluded between Tunisia and Morocco. Economic integration agreements Commonly, we distinguish the following categories of economic integrations or regional agreements : • The Free Trade Area : it is an area characterized by the elimination of trade barriers originally opposing to the free circulation of products between member countries, but these members maintain their own commercial policies to the consideration of external countries. • The Custom Union : this integration is characterized by a circulation liberty of goods and services between member countries, but a common commercial policy is instituted by the union towards unrelated countries. • The Common Market : it is an integration that goes beyond the customs union by the extension of circulation liberties between member countries, to the production factors, that means to work and capital. • The Economic Union : according to this shape of integration, member countries institute between themselves a Common Market in which the adopted economic policies are very well common or harmonized. 72 • The Monetary and Economic Union : it is about a much widened and very advanced integration that exceeds the economic union by the adoption of a common currency and a common monetary policy between member countries. Added to their economic dimension, the regional integrations through their different shapes, obey to cultural and political considerations. Indeed, they constitute the symbol of understanding, convergences and bringing together between people and nations. II. The custom union theory It is common to associate free trade visions to economic integration agreements. Member countries, through their adherences to such areas, aim many objectives, of which most fundamentals are the considered benefits of the international exchange. Indeed, besides the cultural, politic, nationalist… considerations mentioned, that could motivate the nation’s integration to a preferential area of trade, the main objective remains the research of the economic efficiency defended in both classical and new theories of international trade. In this setting, we recall the various gains of specialization and international division signalled in theories of the comparative or absolute advantage, the Heckscher-Ohlin model, the theory of the representative demand… Although divergent in numerous terms, these various theories keep and develop the following common principle : every nation arranging a comparative or absolute advantage has interest to specialize its production in terms of the good in which it has this advantage, and to exchange with its partners which specialize by the same way. Each of these nations records various gains like better affectation of resources, extension of consumption possibilities, inputs economies, scale savings, the initiation to the new technologies, the widening of the product range available to consumers… To the contrary of these liberal considerations, some economists see in regional integration agreements the demonstration of a kind of protectionism : the constituted entities stay protected from the foreign competition emanating from unrelated countries, what could generate possible losses. In a more global way, trade preferential agreements’ effects can be analysed in the custom union theory. It could solve ideas and orientations more in terms of the fixed objectives. However, it is imperative to signal that only effects of the first two shapes of integration (i.e. the free trade area and the custom union) are linked to commercial considerations essentially. The effects’ analysis of the last three shapes calls to an overtaking of the setting of the international trade since such arrangements spread beyond the commercial fluxes. A. The immediate effects of the Custom Union : trade creation and diversion Actually, many economists converge toward the thesis according to which an instituted custom union not always succeeds to the well-being improvement of each of member countries. In this field, Krugman (1995) expresses that it is possible that a country damages its situation while joining a custom union. The liberal, as well as the protectionist conception of this integration, makes that its balance is not necessarily positive for 73 related nations. It could be illustrated from the following example. Let's consider the case of three countries A, B and C that proceed to manufacturing different goods. In terms of production of a good x1, production costs (and sales cost) of this good are 30$us in the country A, 22$us in the B country, and 25$us in the county C. Let’s try to see the impact of a custom union instituted between countries A and B on the well-being of A (the analysis is done in partial equilibrium). Initially, the country A imposed a custom tariff (equal to 50%) on imports of the good x1, which made consumption concentrated on local product, more competitive. Following the institution of the custom union with the B country (the 50% tariff is maintained by the two countries members to the consideration of the country C), it would be thus more rational for country A consumers to import the good x1 from the country B and to consume at a more reduced cost (22$us) the designed good. While referring to the absolute and comparative advantage theories, the country A gets a gain since while specializing in the production of another good x'1, it is sufficient to produce for a value of 22$us of that good x'1 to obtain the good x1. An analogous reasoning in a contrary sense takes place in the country B. This gain in terms of well-being illustrates a “trade creation” between countries A and B following the institution of the custom union : some new commercial exchanges are created between A and B in replacement to domestic production. Now, we suppose that in terms of production of a good x2, production costs (and merchandising costs) of this good is around 40$us in the country A, 25$us in the country B, and 20$us in the country C. The initial tariff (before the custom union) imposed by the country A on the importation of the good x2 is 50%. This ensues that the domestic demand was satisfied by the import of the designed good from the country C ; the price, even raised by the tariff, remained competitive (30 $us) in comparison with the local production and with the import from B. Following the institution of the custom union between A and B (the tariff maintained by the two countries towards C is 50%), it becomes more rational for country A consumers to buy the good x2 from the country B since its price becomes henceforth more competitive for this demand. Imports from B replace therefore imports from C in spite the fact that the country C is more competitive on the international market in terms of production of the good x2. In this case, the custom union has a negative effect on the resource affectation, as well as on the country A welfare. This negative effect is titled “trade diversion” and it is characterized by the following events : - imports from the country having the best comparative advantage in the production of the good x2 stop to the profit of another country integrating the custom union, despite being less competitive - the country A pays more expensive its imports of the good x2 ; it must henceforth provide more resources in exports (25$us instead of 20$us initially). - the country A public authorities don't collect anymore the customs returns coming initially from the tax imposed before to consumers ; these returns are not discerned as a total loss for the country A welfare. 74 B. The middle and long term effects of the custom union 4. The incitement to investment and to research Whereas the short-term effects of a custom union remains mixed between trade creation among member states and trade diversion in opposition to the outsiders, other less immediate effects, however important, take place and anchor while the integration develops and reinforces. These effects sum up notably in the following points. The custom union creates a great and protected market from the exterior. Such factors would attract more local and foreign investors ; such new investments would permit to generate more employment and economic development for member countries. 1. The improvement of exchange terms with the exterior When two or several countries constitute "themselves a big entity" following their integration, it is allowed for them to affect in their favour the exchange terms with their external partners. Their negotiation power, becoming more important, would allow them to defend the tariff that maximizes their national welfares. Indeed, this argument is largely defended when countries integrating the custom union are individually reduced size. 2. The stimulation competition of The custom union permits a competition stimulus between enterprises producing similar goods and services, especially when such production evolved initially in a monopolistic structure. Much efficiency occurs in consequence : management method rationalization, costs and prices decrease, improvements of the service to the clientele… 3. The savings realization of scale The great market offered by a custom union permits to enterprises of this space to be able to enjoy scale savings. Gains and profits issued from such scales permit a better competitiveness of these enterprises on both local and international markets. When the available labour within the union is qualified, and when the education is at a high-level, it is possible that the mentioned investments would be accompanied by an R&D effort intensifications, as well as by more technology and innovation transfers. That would permit both better investment productivity and better investment output. III. Examples of economic integrations concluded by developing countries Economic integration agreements don't stop appearing everywhere, particularly since the victory of the market economy and since the big trends of liberalization. This tendency concerns both developed and developing countries, and it is perfectly illustrated within the World Trade Organization (WTO) : among 148 WTO members, only three countries don't adhere to any preferential trade agreement. More concretely, about 265 integration agreements have been notified to the WTO22 (or to the old GATT) until July 2003, of which 190 are currently in practise. Of all these agreements, 138 have been notified after the WTO creation, i.e. since January 1995, and it is foreseeable that this number would increase in the future. 22 WTO members must firstly notify their trade agreements to this organization, so that it examines their compatibilities with its principals. The objectives are to ensure that such agreements generate trade creation between member states without causing trade diversion towards other WTO members. 75 Among the most known agreements at an international scale, we can mention the European Union (EU), the North American Free Trade Agreement (NAFTA), the Free Trade European Association (FTEA), the Southern Common Market (MERCOSUR), the Association of the Southeast Asian nations (ASEAN)… In this field, we notice that the first three quoted agreements have been signed between developed countries (with the exception of Mexico member of the NAFTA), and that these agreements reached or approached aimed objectives in terms of mutual trade improvement, investment appeal, research and innovation development… The two other signalled agreements, as well as many others, are concluded by developing countries and are the object of a particular attention in this work in terms of their contents and their results. A. The MERCOSUR Created in 1991, the " Southern Common Market" signed by four countries of South America : Argentina, Brazil, Paraguay and Uruguay, instituted a custom union between these member states, in difference to its title. In 1996, Chile and Bolivia associated to this integration in the objective to become members lately. At the date of creation of this agreement, observers gave little odds to its success considering both economic situations of the signatory countries, and past integration failures having had place in the region. However, contrary to these prospecting, the MERCOSUR has succeeded to stimulate and to intensify the mutual trade between member states, as well as to master country risks and to assure a better investment appeal. It constitutes thus one of the main integrations in the world, behind the European Union and the NAFTA. Success doesn't make any doubt, but some reserves could be maintained to its consideration. Indeed, the MERCOSUR stays an area economically disparate : Brazil and the Argentina achieve together close to 90% of the commercial exchanges within the area. In the same way, the economic structures always testify a sort of fragility : the economic and financial crisis having taken place in Argentina during years 2001-2002 make thinking that the region is still far from developed countries’ structures. B. The ASEAN The Association Southeast Asian Nations has been instituted in 1967 by five main members : Indonesia, Malaysia, Philippines, Singapore and Thailand. New member states joined next this association : Brunei in 1984, Vietnam in 1995, Laos and Myanmar in 1997, and Cambodia in 2000. The area covers a population of about 500 millions inhabitants globally. Whereas various themes cover the integration’s extent, trade and economy were governed initially by a preferential trade grouping adopted in 1977 and stipulating the preferential tariff establishment applicable to the mutual product exchanges between member states. This economic integration was reinforced since the adoption in 1992 of a free trade area titled AFTA (ASEAN Free Trade Area) progressively during 10 years. In the same way, it is foreseen to reinforce the dynamics of the economic integration in the region since the adoption of the Vision 2020 that calls for a free trade of goods, services, investments and capitals between the ASEAN member countries at the indicated date. Concretely, the creation of ASEAN and AFTA generated trade intensification between member states, as well as a 76 positive development. Thus, whereas exchanges intra-ASEAN were limited to a weak part around 12% in 1967, this part rose to 25% in 1996, i.e. following the free trade area process launching. During the year 2004, the mutual trade rose to 720 billions $us, while the global GDP of the area reached around 737 billions $us. C. The adherence of the South Mediterranean countries to the Barcelona Process In difference with the integrations above quoted, the Barcelona process doesn't invoke solely developing countries. Indeed, the Euro–Mediterranean conference taken place in Barcelona in November 1995 launched the partnership between the European union countries and 12 countries from the South Mediterranean and the Middle East (Tunisia, Morocco, Algeria, Egypt, Jordan, Lebanon, Syria, the Palestinian authority and Israel). Turkey, Cyprus and Malta adhere or are candidates to the adherence to the European union. Three main pillars characterize the partnership : an economic pillar, a social and human pillar and a political pillar. Whereas the last two pillars invoke the reinforcement of cooperation in the quoted domains, the economic pillar constitutes the pivot of the process and stipulates the establishment of a Euro–Mediterranean free trade area progressively in 12 years, i.e. in 2010. Objectives are ambitious and numerous like contributing to a better development of South–Mediterranean countries, assuring more sells to the two regions’ products, guarantying a more efficient control of the migration towards Europe… Ties between the EU and various South– Mediterranean countries were already strong ; countries like Tunisia and Morocco achieve around three quarters of their commercial exchanges with their northern neighbour. The free trade area instituted strengthens therefore these ties and tries to bring news perspectives for other countries not merchandising as much with the EU. The free trade area concerns only industrial products. Agriculture and services don't make part of the liberalization field in its original version ; however nothing prevents their inclusion according to ulterior dialogues between the two parts. It has been foreseen in the same way that the European union and its member countries attend the South–Mediterranean region in its efforts of restructuring and liberalisation ; the MEDA program representing a financial engagement of the EU has been put in this context. In the setting of the process achieving, the recent results show globally a lot of divergences and disparities, as well as delays in relation to forecasting and to ambitions. Indeed, it is first noted that the realization of the partnership takes place under bilateral and non-multilateral shape. Except countries candidates to the adherence to the EU, only five countries (Tunisia, Morocco, Israel, the Palestinian authority and Jordan) among nine, proceeded to the conclusion of association agreements during the two years following the partnership launching ; some countries like Tunisia and Morocco arrange a shape of reinforced partnership. The agreements’ other signatory countries display a delay in terms of realization, and it is not foreseen for them to respect the fixed date (2010). We generally make reference to a Mediterranean partnership taking place at different speeds. Globally, we can to affirm that the Barcelona process doesn't go in the initial wished way and speed. The following indications prove the delay confirmed in this field : 77 - The custom tariffs’ diminution, as well as the commercial trade strengthening, don't occur at the same calendar for all the southern countries (since agreements aren't concluded at the same rhythm like mentioned above). external trades. Tunisia and Morocco are WTO members and adhere to other integration agreements finished with other partners : the European Union, other Arabian countries, the United States of America… - The MEDA funds paid out are limited to approximately the third of the engagements (although disparities between countries exist), which indicates the limits of the efficient help allocated in the setting of this partnership. - The global appeal of the southern zone in terms of international investment doesn't display better results ; this is a major consequence of the markets’ narrowness and their weak mutual integrations. The main question appearing at this level, and to which this paragraph tries to give elements of answers, is the next : What is the importance of the Tunisian–Moroccan free trade area in the liberalization movements opted by the two countries ? i.e. would this integration succeed to reach its initial objectives in terms of mutual trade improvement and its consequent effects ? Multiple factors justify this delay. We can essentially refer here to the non-reciprocity within the initiatives, the regional conflicts, the divergence of the points of view within the EU, the development gaps between the southern zone countries … IV. The free trade area established between Tunisia and Morocco Tunisia and Morocco proceeded, at the date of March 16, 1999, to the conclusion of a preferential agreement establishing a free trade area between the two countries progressively during a transient period that should not go beyond December 31, 2007. The essential objectives of the two partners are to develop the bilateral exchange volume, to sit a better cooperation in various domains, and globally to succeed to a more sustained economic growth in both two countries. The aimed exchange volume is around 500 millions dollars annually. In fact, this agreement comes to reinforce orientations chosen by the two countries concerning the liberalization of their The preferential regime and the dismantling diagram instituted by the free trade Area agreement In reference to the agreement’s arrangements, the free trade area created seems to be partial since its application doesn't spread to all the products exchanged between the two countries. Indeed, services, agricultural and agroalimentary products are not part of the agreement field ; in the same way a 17.5% custom tariff has to be applied in both two countries’ borders regarding to other exchanged products included in a common list. In more details, the dismantling diagram appearing in the agreement foresees the institution of the free trade area as follow : The total exoneration from all custom tariffs and equivalent effect taxes applied to products figuring in two separate lists (T1 list containing the Moroccan products imported by Tunisia ; and M1 list containing the Tunisian products imported by Morocco). The application of a unique tariff (17.5%) to products appearing in a common list titled MT when they are imported by both two countries. 78 The progressive dismantling of custom tariffs and equivalent effect taxes relevant to products represented in three distinct lists (T2 lists and T3 containing the Moroccan products imported by Tunisia ; and M2 list containing the Tunisian products imported by Morocco). This yearly dismantling takes place differently (according to the country and the products’ list) on a transient period expiring December 31, 2007 ; such products would circulate thus freely since January 2008. The agricultural and agro-alimentary products are not submitted to this liberalisation process ; they will be subject of ulterior negotiations. Some other products appearing in a common negative list are exempted from the agreement’s appliance, such as sensitive products, prohibited products for reasons of hygiene, morality, security… While referring to figures emanating from the Tunisian National Institute of Statistics, the goods’ mutual trade volume23 registered between Tunisia and Morocco all along the period 1994-2003 and as expressed in million Tunisian Dinars, is presented below in the following table 1. We indicate here that exchange rates displaying the values of the Tunisian Dinar (TD) in relation to the Moroccan Dirham (MDH) are as follow : 1 TD ≈ 8.33 MDH in years 1998-1999 ; 1 TD ≈ 7.69 MDH in 2000-2001 ; and 1 TD ≈ 7.14 MDH at the period 2003-2004. On the other hand, the present exchange rates linking the Tunisian Dinar to the main international currencies are the next: 1 TD ≈ 0.82 $us ; and 1 TD ≈ 0.63€. A. Position and dynamics of the Tunisian–Moroccan commercial exchanges A particular interest to the commercial exchange dynamics between Tunisia and Morocco should be manifested. The objective is to estimate the contribution of the free trade area instituted, as well as to value the southern bilateral trade between two developing countries achieving the biggest parts of their commercial exchanges with the European Union. While referring to the Tunisian and Moroccan figures, it is first important to note that a slant governs these figures in terms of mutual trade. This slant is logical and it is explained by the accounting differences : exports are generally registered in their FOB values, whereas imports are registered in their CIF values by the two countries’ customs. It justifies a gap of about 5%. 23 Service trade statistics are not presented in this work. 79 Year 1994 1995 1996 1997 1998 1999 2000 2001 2002 2003 Tunisian Exports to Morocco Tunisian Imports from Morocco Balance 28.4 25.3 36.5 36.5 45.7 43.6 34.8 58.7 72.2 69.7 47.9 56.4 57.1 53.7 58 51.1 87.1 93.1 81.7 60.2 -19.5 -31.1 -20.6 -17.2 -12.3 -7.5 -52.3 -34.4 -9.5 9.5 76.3 81.7 93.6 90.2 103.7 94.7 121.9 151.8 153.9 129.9 7.08 14.57 -3.64 14.97 -8.68 28.73 24.53 1.39 -15.6 Total bilateral trade Total bilateral trade’s annual variation (in percentage) Table 1 : Goods’ international trade between Tunisia and Morocco (in million TD) The trend’s evolution of the total trade between the two countries is presented as follow: Figure 1 180 160 140 120 100 80 60 40 20 0 1994 1995 1996 1997 1998 In reference to these figures and these trends, it is permitted to affirm that the trade’s movement between the two countries illustrates a global positive tendency, particularly since year 1999, the agreement’s launching date ; the integration reveals hence encouraging results. However, a detail’s assessment of the bilateral commercial exchange’s evolution inverts the satisfactory hypothesis related to the agreement’s effects. Firstly, the figures’ evolution representing the exchange values confirms a substantial gap in relation to the aimed objectives (as mentioned above, aimed yearly total trade is around 500 millions $us). 1999 2000 2001 2002 2003 On the other hand, a preview on the position occupied by each of the two countries in its partner's international trade shows very limited market parts, much below the agreement’s objectives. During the period 1999-2003, the Tunisian imports from Morocco represent a market part varying between only 0.43% and 0.75% of the total volume of goods imported by Tunisia ; the table 2 following below points up these parts. The market parts of the Tunisian exports to Morocco are lower than 0.75% of the global Moroccan import volume. 80 1999 2000 2001 2002 2003 Year Tunisian Imports from Morocco (in million TD) 51.1 87.1 93.1 81.7 60.2 Total Tunisian 10070. 13697. 13510. imports 11738 3 14038.9 (in Millions TD) 5 9 Parts of imports from Morocco 0.75 0.68 0.61 0.43 (in pourcentage) 0.51 Table 2 : parts of imports from Morocco in Tunisian imports. Source : INS Parts of exports to the partner in relation to the total exports of each country also displays rates lower than 1%. The Tunisian’s main commercial partners remain France, Germany, Italy and Libya ; while the main partners of Morocco are France, Spain, Great Britain and the United States of America. The details of the merchandised products between the two countries note the exchanges concentration on some products, in terms of both imports and exports of every partner. Division also shows the dominance of the total liberalised products’ flow (annexed to T1 and M1 lists) ; these products contribute to about the two thirds of the goods’ bilateral trade, while the products submitted to an unique tax of 17.5%, as well as products whose tariffs are topics to a progressive dismantling and products not making the object of tariff exoneration, contribute by a much lower part to the bilateral trade. In reference to the figures coming from the Moroccan Direction of Statistics, the principals products exchanged between the two countries during the year 2003 are ventilated in tables 3 and 4 following. Weight in tons Value in million $us 22705.28 9.14 Various food products 11852.31 6.93 Sheet metal 13898.63 6.65 Paper dough 8681.22 5.95 Various semi-products 635.62 5.06 Various consumption finish products 20293.00 3.00 Fluorine 3143.08 2.17 Lead 146.39 1.26 Finish industrial equipment Products 693.75 1.06 Fruts and vegetables juices 679.88 0.91 Sanitary articles 35.82 0.91 Medicines 2477.82 0.70 Vegetables Table 3 : Principal products exported by Morocco to Tunisia Weight in tons Value in million $us Chemical products 31045.23 14.50 Pneumatics 3389.39 9.23 Dates 3470.51 7.23 Textiles 668.59 6.58 Various consumption finish products 2610.33 4.00 Finish industrial equipment Products 2027.36 3.91 Threads, Iron… 7038.50 3.82 Wines and alcohols 6378.50 3.62 Papers and cardboard 4906.84 3.17 Various food products 1093.72 2.18 Various semi-products 390.42 2.04 Table 4 : Principal products imported by Morocco from Tunisia 81 diagram of dismantling instituted remain not enough to impel reasonably goods’ circulations between the two countries. The 17.5% tariff, and the display of the dismantling on a relatively long transient period24, have slowed down the free trade area’s wished effects. In the same way, the exoneration exclusions of the agroalimentary products make a hindrance to the commercial exchange fluidity related to substantial comparative advantages coming from the two countries. The principal exchanged products have considerable market parts in the imports of the partner country (parts are between 40% and 80% out of the same product total imports). Therefore, the weakness is recorded in the number and the diversity of the products merchandised between the two countries, what explains and causes the mutual exchanges’ limited volume. The questioning to ask here is the next : are both countries’ demand structures characterized by sensitivities and strong springiness to foreign partners’ offered products only ? The answer to this question is negative, notably in various sectors of activity. Tunisia and Morocco proceed to import multiple goods from other foreign countries, although some of these goods are manufactured and merchandised within the Area. Incontestably, comparative advantage effects (in terms of prices, qualities, customer services…) could explain such behaviours. However, it is noted that various source difficulties act negatively on the commercial exchanges between Tunisia and Morocco, and pull up the movement’s fast development. • Problems coming from confusions in annexed lists, as met at applications : the goods’ movement normal progress is affected by the differences in some product names, designations and codifications between the annexed lists while application in Tunisia and in Morocco. Other products have been occasionally included in two, or even three distinct lists, which generates their liability to different tariff regimes at the same time. We notice here that these difficulties have been signalled to the Tunisian–Moroccan mixed business Council, as well as to the Big Tunisian–Moroccan mixed Commission in order to adopt necessary measures and corrections. • Difficulties generated by non-tariff barriers : The absence of norms’ mutual recognition and the coordination’s lack in this field generate many barriers25 in the practise. On the other hand, the recourse to the import authorization applicable to many products judged hindering the local productions, could slow down B. The difficulties linked to bilateral commercial movements The objective of the agreement instituting a free trade area between Tunisia and Morocco is to propel the international trade between the two countries, and to enjoy all beneficial effects that could ensue. Nevertheless, realizations remain modest in relation to ambitions, and as mentioned above these limits are explained by various difficulties that accompanied the goods’ movement between the two countries, and that governed the aimed integration’s application. Difficulties and problems appear at different levels, i.e. essentially at the following elements : • The deficiency of the preferential regime instituted by the agreement : The preferential regime and the 24 The comparison with the advantages figuring in other trade preferential agreements signed by both countries (like the Free Trade agreements with the EU, the Arab Free Trade area…) confirms the custom preferences’ insufficiency within the Tunisian-Moroccan Agreement. 25 The conformity to the international norms can moderate such obstacle. However, the bilateral cooperation in this theme remains necessary. 82 substantially the dynamics of exchanges. Finally, the initial application of the Custom Minimum Value while importing various products has been abandoned, which permitted to surpass ensued obstacles. • The transportation problems : The absence of a direct maritime line between Tunisia and Morocco acts appreciably on the bilateral trade, especially seeing that the terrestrial transportation joining the two countries doesn’t exist. Until now, the transit takes place with the European ports, which causes major problems in terms of delays, costs, storages… C. The Suggestions recommendations and the Analyses taking into consideration Tunisian and Moroccan import’s and export’s structures, as well as each market’s supply and demand, have permitted to identify some remarkable opportunities in terms of commercial exchanges between the two countries, but that still remain insufficiently exploited. In this way, new trade opportunities have been specified particularly in the following sectors : the chemical and plastic industry, the pharmaceutical industry, the textile industry, agriculture and the agroalimentary industry, the mechanical industry, the electric and electronic industry, of the automotive industry… With the intention that the new identified products would be merchandised at sufficient quantities and values, and that the bilateral commercial exchanges would reach the hoped volumes, the following suggestions could be brought to the extent and to the application of the TunisianMoroccan free trade area : - The suppression of the 17.5% tariff in order to avoid all discrimination against products submitted to such tariff, in relation to imports from other commercial partners. - The alignment of the progressive dismantling diagram to the plan applied within the other association agreements : with the European Union, with the other Arabian countries… - The widening of the exonerated product lists, especially to the agroalimentary products. - The establishment of norms’ mutual recognition, and the reinforcement of cooperation and bilateral dialogue in the fields of normalization, conformity certification, and quality control. - The suppressing of the product import authorization, and the referring to the WTO directives concerning defensive measures (balance of payments equilibrium, antidumping measures…). - The setting of a direct and regular maritime line between the two countries. - The ensuring of a commercial coordination in order to buy in common the similar products imported at the same time by the two countries ; that would permit to act favourably on exchange terms within the international markets. - The reinforcement of the industrial cooperation in order to assure the production of various products currently imported by both countries. Such production would be marketed on both two markets, which would generate scale savings’ profits. - The sensitising of the two countries’ business managers in terms of the opportunities offered by the free trade area. 83 Conclusion Economic integration agreements don't stop appearing and proliferating. Destined to converge with the WTO principles, these agreements (or projects of agreements) are constantly notified to the Organization. A big part of such agreements is concluded by developing countries. While focusing in this work on some examples of economic integration agreements concluded by developing countries, it is permitted to affirm that the effects of these agreements remain mitigated. Indeed, some developing countries gained profits from their adherences to trade preferential agreements, whereas others didn't generate the expected benefits ; their agreements’ results remain limited and much below the initial objectives and ambitions. Results depend on several internal factors in these countries, i.e. the transition towards market economy, the liberalization measures realization, the adoption of the necessary economic reforms and accompaniment measures, the historic commercial ties, the status and the problems of transportation and infrastructure, the cultural rivalries… Economic integration agreements and borders’ opening to new commercial partners aren’t just enough to generate the hoped profits. Such profits depend also on many other internal and external factors, as mentioned above. References ALAYA Hachemi. « Les nouvelles règles du jeu économique en Tunisie. Une initiation à l’économie de marché ». Centre de Publication Universitaire editions, Tunis. 2002 report 2003–2004 ». « Business ASEAN. A quarterly newsletter of The ASEAN Secretariat ». Volume 4 -Issue 3. September 2003. BOURET Renaud. « Relations économiques internationales ». Chenelière / McGraw-Hill editions, Montreal– Toronto. 2003. CENTRAL BANK OF TUNISIA. « Tunisian Balance of Payments. 2003 ». Report, Tunis. September 2004. CEPEX and CMPE. « Etat et perspectives des échanges commerciaux tunisomarocains ». Report, Tunis. June 2002. CHARFI Faïka and GHORBEL Abdelfattah. « Zone de libre-échange Tunisie-Union européenne : les défis d’un partenariat ». l’Harmattan editions, Paris. 1997. DELAS J. P. « Economie contemporaine ». Ellipses editions, Paris. 1992. DIRECTION OF STATISTICS. « Le Maroc en chiffres 2003 ». Casablanca. 2004. EUROPEAN COMMISSION. « Un nouvel élan pour Barcelone, Communication de la Commission au Conseil et au Parlement européen ». 2000. KRUGMAN Paul R. and OBSTFELD Maurice. « Economie internationale ». De Boeck University editions, Paris– Bruxelles. 1995. LARBI Ezzeddine. « Relations économiques internationales ». Centre de Recherches et d’Etudes Administratives editions, Tunis. 1993. LASSUDRIE, DUCHENE B. and MUCCHEILLI J. L. « Essaies d’Economie internationale ». Economica editions, Paris. 2000. ASSOCIATION OF SOUTHEAST ASIAN NATIONS. « ASEAN annual 84 LINDERT P. « Economie internationale ». Economica editions, Paris. 2000. MOISSERON Jean-Yves. « La crise du régionalisme en Méditerranée ». Revue Tiers-Monde n°169. January-March 2002. NATIONAL INSTITUTE OF STATISTICS (INS). « Statistiques économiques et Sociales de la Tunisie ». Report, Tunis. 2004. WORLD TRADE ORGANISATION. « Report of the Committee on Regional Trade Agreements to the General Council ». November 2004. « Committee on Regional Trade Agreements - Basic Information on Regional Trade Agreements - Agreements Notified to the GATT/WTO and in Force as of 31 January 2002 ». February 2002. 85 Efficience, productivité et progrès technologique en fonction de la taille de la firme bancaire : Preuves empiriques sur les banques commerciales en Tunisie Sameh CHARFEDDINE KARRAY* Pr. Jamel Eddine CHICHTI** Résumé Dans cet article, notre objectif est d'examiner la performance des banques commerciales tunisiennes et son évolution durant la période récente de déréglementation financière (19992002), et de dégager l'existence de relations éventuelles entre la taille des banques et leur efficience. La méthode de frontière non paramétrique d'enveloppement des données (DEA) et l'indice de changement de la productivité globale de Malmquist ont été utilisés. Les résultats montrent une différence dans les sources d'inefficience des banques en fonction de leur taille. L'inefficience coûts dans les petites banques provient essentiellement de l'inefficience technique, celle-ci est causée essentiellement par leur inefficience d'échelle. L'inefficience coûts des banques de grande taille a comme source principale l'inefficience allocative. Par ailleurs, une amélioration de la productivité globale des banques examinées a été trouvée sur la période récente 1999-2002 et semble être expliquée par le progrès technologique plutôt que par l'amélioration de l'efficience des banques. Mots clés : Taille, Efficience, Productivité, Progrès technique, Indice de Malmquist. * Assistante à l’Institut Supérieur de Gestion de Sousse. E-mail : [email protected]. Professeur à l’Ecole Supérieure de Commerce de Tunis. ** 86 Introduction Nous envisageons au niveau de ce travail d'apporter des preuves empiriques utiles concernant la structure des coûts et l'efficience de production des banques commerciales en Tunisie. Depuis 1986, la Tunisie s'est engagée dans un processus de libéralisation et de déréglementation financières pour promouvoir le développement des marchés financiers et stimuler par la même la croissance économique. Un objectif principal de notre étude est d'explorer l'impact des changements environnementaux sur la performance des banques tunisiennes durant la période récente de déréglementation financière. En effet, plusieurs mesures de déréglementation et de libéralisation financières entreprises ont visé augmenter la concurrence dans le secteur bancaire. Notamment, le désencadrement du crédit, la libéralisation des taux créditeurs et débiteurs et l'assouplissement des emplois obligatoires des banques ont créé une compétition accentuée entre les banques pour l'obtention des ressources et l'octroi des crédits. La nouvelle loi bancaire de mai 2001 et l'ouverture des frontières tunisiennes aux banques étrangères ont amplifié la concurrence sur le marché de l'activité bancaire et ont augmenté sa contestabilité. Dans un environnement parfaitement compétitif et contestable, la théorie microéconomique et financière suggère que les firmes inefficientes sont soit acquises soit expulsées du marché par les firmes efficientes. Pour être viables et réussir, les banques tunisiennes sont donc appelées à faire preuve dans leur nouvel environnement compétitif d'une meilleure efficience. Dans un contexte en pleins changements, il est possible que certaines banques connaissent des difficultés ou des retards relatifs dans leurs processus d'ajustement aux nouvelles conditions de leur environnement. Des différences peuvent ainsi naître entre les banques dans leur productivité et efficience mesurées. A ce propos, Wheelock et Wilson (1999) et Isik et Hassan (2003) suggèrent que la déréglementation et le changement technique peuvent résulter en différents impacts sur les banques de différentes formes. On peut ainsi raisonnablement s'attendre à des différences entre les banques en fonction de leur taille. Dans le présent travail, une étude de la structure des coûts et de la performance de production relative des banques commerciales tunisiennes en fonction de leur taille serait menée pour la période récente de déréglementation financière. Dans une première étape, l'approche de frontière non paramétrique d'enveloppement des données (DEA) serait utilisée pour un examen de l'efficience globale de coûts des banques de notre échantillon et une décomposition de cette efficience en une efficience allocative et une efficience technique globale. Cette dernière peut résulter soit d'une efficience technique pure soit d'une efficience d'échelle. Nous considérons dans cette étape qu'au cours de la période de notre étude (1999 - 2002), la technologie des banques de notre échantillon n'a pas subi de changement majeur. Le choix de cette période est basé sur l'hypothèse énoncée par Isik et Hassan (2002) selon laquelle un intervalle de temps de quatre années est adéquat pour capter tout changement structurel de la performance des banques. Dans une seconde étape, nous éliminons cette hypothèse et procédons au test de l'existence de progrès technologique durant cette période à travers la décomposition de l'évolution de la productivité des banques en une composante modification de l'efficience et une composante progrès technologique. Nous exploitons ainsi 87 l'avantage principal de travailler avec des données de panel, à savoir la possibilité d'observer chaque banque plus qu'une fois sur une période de temps et d'analyser ainsi les modifications qui peuvent toucher son efficience et sa performance. Nous procédons dans cette étape à l'application de l'indice de changement de la productivité globale de Malmquist, qui permet d'expliquer le changement de la productivité des banques sur la période d'étude en une partie liée à l'évolution de l'efficience et une partie au progrès technologique. La suite de cet article s'organise comme suit. La deuxième section est consacrée à une revue de littérature. Dans la troisième section, une description de notre méthodologie empirique est présentée. Les résultats de l'application de ces méthodes ainsi que leurs implications font l'objet de la quatrième section. Nous concluons dans la dernière section. I. Revue de la littérature L'environnement déréglementé impose de nouvelles règles de concurrence dans le secteur bancaire stimulant par la même l'innovation financière et le progrès technologique. Des différences de performance peuvent apparaître entre les banques de différentes tailles face à la déréglementation, d'autant plus que l'effet du progrès technologique se trouve largement dépendant de la taille de la firme bancaire. A cet effet, Elyasiani et Mehdian (1995) ont trouvé que les petites banques américaines ont pu réaliser un progrès technologique pendant la période de déréglementation, alors que les grandes banques ont constaté une régression technologique. Ce résultat semble être contradictoire avec celui de Humphrey (1993) ayant reporté des taux de changement technologiques négatifs après la déréglementation pour les grandes et les petites banques américaines qui apparaît moins important pour les premières. Wheelock et Wilson (1999) ont reporté un déclin de la productivité des banques américaines entre 1984 et 1993, qui est plus apparent chez les banques de petite taille que celles de grande taille. Une diminution de la productivité des coûts des banques américaines après la déréglementation financière a été aussi trouvée par Humphrey (1993), Grabowski et al (1994) et Humphrey et Pulley (1997). Kumbhakar et Sarkar (2003) expliquent ce déclin par un changement non mesuré dans la qualité des outputs bancaires après la déréglementation, à travers une variété plus large de services financiers et une utilisation plus extensive des nouvelles technologies. Alam (2001) a trouvé que les banques américaines de grande taille ont subi un déclin de productivité au début du processus de déréglementation (19841985) suivi d'un progrès de productivité maintenu pour la fin de la décennie. Les mouvements de productivité sont attribués selon cette même étude aux changements technologiques pour la plus grande partie. La déréglementation a eu un effet négatif sur l'efficience et la productivité des banques espagnoles selon Griffel-Tatje et Lovell (1996). Dans le travail de Kumbhakar et al (2001), malgré l'effet négatif de la déréglementation sur l'efficience technique des banques espagnoles, un taux élevé de progrès technique a été trouvé et a résulté en une tendance à la hausse dans la croissance de la productivité de ces banques suite à la déréglementation. Dans une étude récente, Isik et Hassan (2003) ont trouvé une amélioration significative de la performance des banques turques de tous types après la déréglementation. La croissance de la productivité a été entraînée principalement par l'augmentation de l'efficience plutôt que par le progrès technique. 88 Pour le cas du Maroc, les résultats de Joumady (2000) montrent que la libéralisation financière ne semble pas avoir amélioré la productivité et l'efficience technique des banques commerciales marocaines et que le changement de leur niveau de productivité est expliqué plus par l'évolution de la technologie. Pour la Tunisie, Chaffai (1997) a trouvé que la productivité globale des banques tunisiennes a augmenté suite au programme de libéralisation initié en 1986. Toutefois, le taux de progrès techniques est apparu supérieur au taux de la croissance de la productivité impliquant que les banques tunisiennes sont devenues, en moyenne, moins efficientes après la libéralisation. Berger (2003) a mis en évidence l'existence de différences entre les banques de petite taille et celles de grande taille dans leur capacité d'adoption des nouvelles technologies bancaires. En effet, ces différences ont été repérées par l'auteur en examinant les changements technologiques qui concernent successivement l'Internet Banking, les technologies de paiement électroniques et les échanges d'informations. II. Méthodologie empirique A. La méthode DEA Pour la mesure de l'efficience des banques commerciales tunisiennes, la méthode DEA est adoptée au niveau de ce travail. L'utilisation de cette méthode est motivée par le fait qu'elle reste plus appropriée pour les échantillons de petite taille et qu'elle n'exige pas une connaissance a priori de la forme fonctionnelle de la fonction de production et de la structure des termes d'erreurs ou d'inefficience (Evanoff et Israilevich, 1991; Avkiran, 1999; Wheelock et Wilson, 1999; Sathye, 2001; et Isik et Hassan, 2003). Elle présente toutefois l'inconvénient majeur de ne pas prendre en compte l'existence d'erreurs de mesures ou de données. La technique non paramétrique de mesure de l'efficience est une méthode extrêmement flexible dans la modélisation de la technologie de production des banques d'un échantillon dans un cadre multi- inputs et multi- outputs. Elle n'impose aucune forme fonctionnelle ou structure d'erreurs sur les données et utilise la programmation linéaire pour construire la frontière de production ayant une forme linéaire convexe de façon à ce qu'aucun point observé ne se situe à gauche ou en dessous d'elle. A la base, la méthode DEA orientée input nous permet de déterminer l'économie de coûts d'inputs qu'il est possible de réaliser pour chaque unité de production de l'échantillon si elle était techniquement et allocativement efficiente. L'efficience allocative (EA) mesure la réduction proportionnelle des coûts qu'il est possible de réaliser si la banque choisit la combinaison optimale d'inputs étant donnés leurs prix. L'efficience technique mesure la réduction proportionnelle dans l'utilisation des inputs qui peut être atteinte si la banque opère sur la frontière de production efficiente. L'approche DEA permet aussi de décomposer l'efficience technique globale (ETG) en ses deux composantes : l'efficience technique pure (ETP) et l'efficience d'échelle (ESC). L'efficience technique pure représente la réduction proportionnelle de l'utilisation des inputs si ceux-ci ne sont pas gaspillés, et l'efficience d'échelle mesure la réduction proportionnelle si la banque atteint l'échelle d'équilibre c'est à dire si elle opère à rendements d'échelle constants (CRS). Ainsi, on peut écrire : EC =ETG×EA=ETP×ESC×EA (1) 89 (xt,yt) réalisable relativement à la technologie en t+1, que nous notons Dt +1(xt, yt ) . Pour la détermination des scores d'efficience technique, il s'agit de résoudre pour chacune des firmes (ou observation) une séquence de programmes linéaires26. En utilisant la définition de la productivité donnée par Fare et al (1994), l'indice de changement de la productivité globale de Malmquist est défini par: B. L'indice de productivité globale de Malmquist On suppose qu'à chaque période t=1,…T, l'activité des unités de production est contrainte par un ensemble de production Ψ des points physiquement réalisables (xt,yt): M t= [( Où xt est le vecteur des p inputs et yt est le vecteur des q outputs. M(xt +1, yt +1, xt, yt )= D t (x t , y t ) donne la réduction radiale, proportionnelle des inputs qu'une firme, située au point (xt,yt) doit effectuer pour être considérée comme étant techniquement efficiente dans ses inputs. Une valeur de Dt (xt, yt ) égale à un, indique que (xt,yt) est sur la frontière de production. Pour définir l’indice de Malmquist, nous utilisons les fonctions de distance relatives à deux périodes D t (xt +1, y t +1) qui mesure le changement proportionnel maximum d’inputs requis pour rendre (xt+1,yt+1) réalisable relativement à la technologie en t. Similairement, il est possible de déterminer une fonction de distance qui mesure le changement proportionnel maximum d’inputs requis pour rendre 26 Voir Zaim (1995) pour un exposé détaillé de ces programmes linéaires. )] )( Dt (x t +1, y t +1 ) D t +1(x t +1, y t +1 ) 1/ 2 × D t (x t , y t ) D t +1 (x t , y t ) (5) La fonction de distance en inputs telle que développée par Farrell (1957), pour un point donné (xt,yt) est définie comme: (3) (4) Pour ne pas avoir à choisir une technologie de référence donnée, la moyenne géométrique des deux indices construits par référence à t et t+1 est retenue et se présente comme suit: Ψ ={(xt, y t )∈R+p + q tel que xt peut produir e y t } (2) D t (xt, y t )=inf {θ tel que (θxt , y t )∈Ψ t }=(sup{θ tel que (xt /θ , y t )∈Ψ t}) D t ( x t +1, y t +1) D t (x t, y t ) −1 L'indice de productivité défini dans l'équation (5) représente la productivité du point de production (xt+1,yt+1) relativement au point de production (xt,yt). Il peut prendre une valeur supérieure, égale ou inférieure à 1 selon que la banque a subi une croissance, une stagnation ou un déclin de la productivité globale entre la période t et la période t+1. Il s'écrit équivalente: ( M(xt +1, yt +1, xt, yt )= de ) [( manière )] )( D t +1 (x t +1, y t +1 ) D t (x t +1, y t +1) Dt (x t , y t ) 1/ 2 × × Dt(x t , y t ) Dt +1(x t +1, y t +1) D t +1 (x t , y t ) (6) L'indice de productivité de Malmquist apparaît dans la formulation (6) comme étant le produit de deux composantes: le changement de l'efficience technique (CHEFF) (qui est le premier élément entre parenthèses) et le changement technique (CHTEC) (l'élément entre crochets). L'indice CHEFF mesure la variation relative de l'efficience entre la période t et la période t+1 ou en d'autres termes le degré avec lequel la firme s'est rapprochée de la frontière efficiente entre les deux 90 périodes. Il prend une valeur supérieure à 1 pour une amélioration d'efficience, 1 en cas de non changement de l'efficience et une valeur inférieure à 1 pour une dégradation de l'efficience. L'indice CHTEC mesure le changement de technologie entre les deux périodes évaluées en xt et x t+1, c'est à dire quel est le degré de changement atteint par la frontière de production de référence pour le mix d'input observé pour chaque banque. Cet indice serait égal à 1 en cas de stagnation technique, une valeur supérieur à 1 pour indiquer un progrès technique et une valeur inférieure à 1 pour la régression technique. Ainsi, le changement de la productivité globale se décompose en évolution technologique et changement de l'efficience technique. La détermination de l'indice de productivité de Malmquist à partir de l'équation (5) nécessite donc le calcul des quatre composantes de fonctions de distance, ce qui va impliquer quatre programmes linéaires en assumant en premier lieu une technologie de rendements d'échelle constants (CRS). Le changement de l'efficience technique peut lui même être décomposé en changement d'efficience technique pure (CHEFFP) et changement d'efficience d'échelle (CHSC). Ceci nécessite le calcul de fonctions de distance relativement à une technologie de rendements d'échelle variables (VRS) et implique deux programmes linéaires additionnels incluant la restriction de convexité de la frontière de production27. L'indice de changement de la productivité totale des facteurs (CHPT) de Malmquist s'écrit ainsi: CHPT =CHEFFP×CHSC×CHTEC (7) 27 Pour une description détaillée de ces programmes linéaires, voir Coelli (1996). C. Données et variables Les données ont été tirées des états financiers des banques tels que publiés par celles-ci et fournis par l’association professionnelle tunisienne des banques et des établissements financiers. Elles concernent 10 banques commerciales tunisiennes sur les quatre années 19992002. En définitive, l’étude a porté sur 40 observations. Ces observations ont été subdivisées en deux sous échantillons représentant respectivement les grandes banques et les petites banques, la taille étant mesurée par le total des actifs. L’étude nécessite une définition des inputs et des outputs des banques. Elle a été faite en adoptant l’approche d’intermédiation développée initialement par Sealey et Lindley(1977) qui considère la banque comme une firme produisant des investissements (prêts et autres) en utilisant des inputs qui sont le travail, le capital physique et les fonds empruntés. Pour notre cas et selon les données disponibles, nous avons pu retenir deux variables d’outputs qui sont Y1 : les crédits et Y2 : les investissements et trois variables d'inputs X1 : le travail, X2 : le capital physique et X3 : les fonds empruntés. Y1 est mesuré par la somme des crédits à la clientèle, Y2 mesure l’importance des investissements de la firme bancaire dans son portefeuille titres. Pour les inputs, X1 est mesuré par le nombre d’employés de la banque, X2 est approché par la valeur des immobilisations nettes de la banque et X3 est mesuré par le montant en dinars des fonds empruntés. Le prix du facteur travail W1 est obtenu en divisant les charges de personnel par le nombre des employés X1, le prix du capital W2 est obtenu en divisant le montant des amortissements et des charges générales d’exploitation par X2, et enfin le prix des facteur financier W3 est donné par le rapport du total des intérêts versés sur X3. La description statistique de 91 ces variables pour tout l’échantillon et par classe de taille est fournie dans la table 1. III. Résultats empiriques A. Les efficiences relatives des banques commerciales tunisiennes et selon la taille Les résultats dégagés dans la première étape sont résumés dans la table 2. L’examen de cette table montre que l’efficience moyenne des banques commerciales tunisiennes tend à augmenter d’une façon remarquable d’une année à l’autre durant la période récente de déréglementation financière. Cette amélioration concerne en fait toutes les efficiences mesurées pour toute la période de notre étude à l’exception de l’efficience allocative dans l’année 2002 ayant subi une légère diminution. Ce résultat témoigne d’une capacité de plus en plus grande des banques tunisiennes à s’ajuster aux conditions imposées par le nouveau contexte déréglementé et d’une volonté d’améliorer leur compétitivité via la réduction de leurs coûts. Il est à remarquer que la variabilité des efficiences estimées entre les banques et sur la période de notre étude est assez faible. Par ailleurs, d'une façon générale, l'efficience coût totale moyenne des banques tunisiennes n'est pas assez importante. Elle varie sur la période de notre étude entre 72,7% en 1999 et 84,5% en 2002 avec une valeur moyenne de l'ordre de 80%. En d'autres termes, les banques tunisiennes examinées auraient pu en moyenne réduire leurs coûts par 25,2% des coûts réellement subis si elles étaient totalement efficientes. Par ailleurs, entre 1999 et 2002, elles ont connu une diminution des coûts totaux de l'ordre de 19,2 % due à la baisse de cette inefficience coût. Une décomposition de l'inefficience coûts totale indique qu'elle provient de manière équivalente de l'inefficience allocative (11,6%) et de l'inefficience technique (11,7%). En examinant les scores d'efficience de nos banques différenciées en fonction de la taille (table 3), il apparaît que l'efficience coûts totale des grandes banques est un peu supérieure à celle des petites banques (84% par rapport à 77,3%). Toutefois, les sources de l'inefficience constatée semblent être différentes pour les deux clases de taille. Pour les grandes banques, l'inefficience coûts est plus d'origine allocative que technique, inversement au cas des banques de petite taille. En effet, par une meilleure allocation des inputs relativement à leurs prix, il est possible de réduire les coûts pour les grandes banques de 11% et pour les petites banques de 12,36%. D'un autre côté, une diminution de l'utilisation des inputs (étant donnés les niveaux d'outputs), pourrait baisser les coûts des premières par 7,2% seulement et des dernières par 15,1%. Pousser, l'analyse et décomposer l'inefficience technique globale en ses deux composantes inefficience technique pure et inefficience d'échelle, indique que la résolution de la majorité des problèmes liés à l'inefficience dans les petites banques en Tunisie, passe par l'amélioration de leur inefficience d'échelle. En effet, si l'inefficience coût de ces banques a comme origine l'inefficience technique, celle-ci semble être causée principalement par l'inefficience d'échelle (12,2%). L'inefficience technique pure ne semble constituer une source de cette inefficience technique globale que de 1.1%. Pour examiner si cette inefficience d'échelle relative dans les petites banques est due aux rendements d'échelle croissants ou aux rendements d'échelle décroissants, les résultats de la table 4 sont d'un grand apport. Cette table montre le nombre de 92 banques opérant dans les différentes catégories de rendements d’échelle différenciées selon leur taille. Dans la catégorie des rendements d’échelle constants, on ne trouve aucune banque de petite taille en 1999, et une banque de petite taille par année seulement pour le reste de la période, ce qui fait un total de trois observations appartenant à la classe de petite taille opérant à l’échelle d’équilibre. Le reste des observations de cette même classe de taille, soit un nombre de 21 observations, apparaît dans la catégorie des rendements d’échelle croissants, ce qui indique que les petites banques tunisiennes peuvent encore bénéficier des économies d’échelle par l’augmentation de leur taille. Par ailleurs, les observations appartenant à la classe des grandes banques se trouvent réparties presque de manière presque égale entre les trois catégories de rendements d’échelle (décroissants, constants et croissants). Il semble que la relation entre la taille des banques et leur efficience d’échelle semble ne pas être monotone. Il existe un niveau d’opérations dans la catégorie des grandes banques au delà duquel les rendements d’échelle deviennent décroissants. L’efficience d’échelle des grandes banques apparaît en définitive sur la période de notre étude avec une valeur moyenne de 97,2%. Elle domine pour cette catégorie de taille l’efficience technique pure dans la constitution de l’efficience technique globale des banques puisque celle-ci a une valeur moyenne de 95,9%. Ces résultats indiquent que les grandes banques de notre échantillon auraient pu en moyenne économiser prés de 3% des inputs si elles opéraient à rendements d’échelle constants. L’économie des inputs est de l’ordre de 4,2% en moyenne si elles opéraient sur la frontière des possibilités de production qui montrent des rendements d’échelle variables. B. Évolution de la productivité et décomposition de l’indice de Malmquist L’évolution annuelle moyenne de la productivité avec ses différentes composantes est présentée dans la table 5. D’une manière générale, la productivité globale des banques tunisiennes de notre échantillon connaît une amélioration d’une année à l’autre indiquant une meilleure adaptation à la concurrence imposée par la déréglementation. Cette amélioration est variable sur toute la période et elle a été de l’ordre de 7,2% entre 1999 et 2002. La meilleure modification (16,6%) est constatée entre 1999 et 2000. Par ailleurs, on constate que cette amélioration de productivité globale des facteurs provient essentiellement du changement technologique puisque si l’on analyse l’évolution moyenne de l’efficience technique globale sur toute la période, on remarque qu’elle est restée stable (CHEFF=1), et en examinant son évolution par année, de légères variations sont constatées pour chaque période (elles varient entre une baisse de 0,5% en 2002 et une augmentation de 0,2% en 2000). Ces faibles variations sont causées par les changements de faible ampleur touchant l’efficience d’échelle des banques de notre échantillon (avec une moyenne très proche de 1), l’efficience technique pure apparaît globalement stable sur toute la période (sauf une amélioration de 0,4% entre 1999 et 2000). Pour discerner l’existence de différences éventuelles entre les banques en fonction de leur taille quant à l’évolution de la productivité et l’efficience et concernant le progrès technologique, la décomposition de l’indice de Malmquist a été faite pour chacune des classes de taille retenues. Les résultats sont présentés dans la table 6. Aussi bien pour les grandes banques que les petites banques, on constate une amélioration de la productivité globale des 93 facteurs qui est entraînée par le progrès technologique. En moyenne, les banques appartenant aux deux classes de taille n’ont pas changé leur niveau d’efficience durant la période d’étude (une légère baisse pour les grandes banques et une légère hausse pour les petites banques). Une stagnation des niveaux d’efficience peut être constatée pour l’efficience technique pure et l’efficience d’échelle. Néanmoins, le progrès technologique est plus important dans les banques de petite taille avec une valeur moyenne de 8,7% entre 1999 et 2002. Il a été à la source principale de l’amélioration de la productivité de ces banques de 9,1% qui constitue une amélioration nettement supérieure à celle constatée pour les grandes banques (4,3%). Nos résultas concernant l'évolution de la productivité globale des banques commerciales tunisiennes après la déréglementation sont en conformité avec ceux de Chaffai (1997). D’une façon générale, malgré l’apparition d’amélioration des niveaux de productivité des banques de notre échantillon durant la période récente de déréglementation, de faibles variations sont constatées en ce qui concerne les efficiences techniques globale et pure, de même que l’efficience d’échelle. Ceci peut être expliqué par le faible nombre de banques par année et par la courte période d’étude. Durant cette période, les banques tunisiennes sont apparues préoccupée plus par l’adoption de nouvelles technologies que par l’amélioration de leur efficience. Conclusion L’examen de la performance des banques commerciales tunisiennes sur la période récente 1999-2002 a été fait par la mesure et l’analyse de l’évolution de leurs efficiences et productivité sur cette période et en fonction de leur taille. La méthode de frontières non paramétriques d’enveloppement des données a été à cet effet utilisée. En premier lieu et en supposant une frontière d’efficience commune sur toute la période d’étude, nous avons trouvé une efficience coûts totale moyenne pour toutes les banques de l’ordre de 80% qui semble être causée de manière égale par l’efficience allocative et l’efficience technique pure. Le classement des scores d’efficience par classe de taille a permis de mettre en évidence de meilleurs niveaux d'efficience coûts totale des grandes banques par rapport à celle des petites banques (84% par rapport à 77,3%). Toutefois, les sources de l'inefficience constatée semblent être différentes pour les deux clases de taille. Pour les grandes banques, l'inefficience coûts est plus d'origine allocative que technique, inversement au cas des banques de petite taille. En décomposant l'inefficience technique globale en ses deux composantes inefficience technique pure et inefficience d'échelle, nous a permis de trouver que la résolution de la majorité des problèmes liés à l'inefficience dans les petites banques en Tunisie, passe par l'amélioration de leur inefficience d'échelle. En effet, si l'inefficience coût de ces banques a comme origine l'inefficience technique, celle-ci semble être causée principalement par l'inefficience d'échelle (12,2%). La méthode DEA a servi aussi dans une deuxième étape de notre analyse, à déterminer les changements de productivité totale des banques tunisiennes sur la période d’étude mesurés par l’indice de Malmquist. Celui-ci a l’avantage de permettre de décomposer les changements touchant la productivité en progrès technologique et changement d’efficience productive avec ses deux composantes efficience d’échelle et efficience technique pure retenue. Ceci a nécessité la construction de frontières de production pour chaque année d’étude et a permis de 94 faire apparaître une amélioration de productivité totale des banques de notre échantillon, en moyenne, de l’ordre de 8,7% entre 1999 et 2002. L’amélioration est plus nette pour les petites banques et est expliquée pour cette classe de taille de même que pour tout l’échantillon par l’évolution de la technologie plutôt que l’amélioration d’efficience. Enfin, il importe de signaler que sur la courte période d'étude, un taux assez important de progrès technologique a été constaté par les banques commerciales tunisiennes, ce qui a fait évoluer leur technologie de production et déplacer leur frontière d'efficience. Une analyse dynamique prenant en compte le changement technologique s'avère donc indispensable pour une meilleure évaluation de l'efficience des banques en Tunisie. Dans notre cas, l’amélioration des niveaux d'efficience trouvée dans la première étape de notre analyse en supposant l'absence de progrès technique, est apparue fictive dans la seconde étape où le progrès technologique est pris en compte. Dans leur nouvel environnement compétitif, les banques commerciales tunisiennes doivent faire preuve d'une meilleure allocation des ressources et d'un meilleur contrôle des coûts, afin d’améliorer leur efficience et de promouvoir leur compétitivité. Une amélioration de la productivité ayant comme origine le progrès technologique est importante mais ne fait pas preuve de meilleures stratégies et pratiques des managers des banques tunisiennes. Bibliographie Alam Ila M.S.(2001). A non parametric approach for assessing productivity dynamics of large U.S. banks. Journal of Money, Credit and Banking Vol 33, pp 121- 139. Avkiran N.K. (1999). The evidence on efficiency gains: The role of mergers and the benefits to the public. Journal of Banking and Finance, Vol 23, pp 9911013. Berger\ A.N.(2003). The economic effects of technological progress: Evidence from the banking industry. Journal of Money, Credit, and Banking, Vol 35, pp 141- 176. Berger A. N. et Humphrey D. B. (1997). Efficiency of financial institutions : International survey and directions for future research. European Journal of Operational Research, Vol 98, pp175- 212. Chaffai M. E . (1997). Estimating inputspecific inefficiency : The case of Tunisian banking industry. European Journal of Operational Research, Vol 98, pp314- 331. Coelli T (1996). A Guide to DEAP Version 2.1: A Data Envelopment Analysis (Computer) Program. Document de travail du Center for Efficiency and Productivity Analysis, N\UNICODE{0xb0} 96/08, pp 1- 49. Elyasiani E. et Mehdian S. (1995). The comparative efficiency performance of small and large US commercial banks in the pre- and post- deregulation eras. Applied Economics, Vol 27, pp 10691079. Evanoff D. D. et Israilevich P.R. (1991). Productive efficiency in banking. Econometric Perspectives, Vol 15, pp 1132. Fare R.S., Grosskopf S. et Lovell C.A.K. (1994). Production Frontiers, Cambridge University Press. Farrell M.J. (1957). The Measurement of Productivity Efficiency. Journal of the Royal Statistical Society, S\'{e}ries A 120, pp 253- 281. 95 Griffel-Tatje E.et Lovell C.A.K. (1996). Deregulation and productivity decline: The case of Spanish savings banks. European Economic Review, 40, pp1281- 1303. Grabowski \ R., Rangan N. et Rezvanian R. (1994). The effct of deregulation on the efficiency of US banking firms. Journal of Economics and Business, 46, pp39- 64. Humphrey D.B. et Pulley L.B. (1997). Banks' responses to deregulation: Profits, technology and efficiency. Journal of Money, Credit, and Banking, Vol 29, pp 73- 93. Humphrey D.B.(1993). Cost and technical change: Effects from bank deregulation. Journal of Productivity Analysis, 4, pp 534. Isik I. et Hassan M.K. (2003). Financial deregulation and total factor productivity change: An empirical study of Turkish commercial banks. Journal of Banking and Finance, 27, pp 1455- 1485. Savings Banks. Journal of Money, Credit, and Banking, Vol 33, pp 101-120. Sathye M.(2001). X-efficiency in australian banking: An empirical investigation. Journal of Banking and Finance, 25, pp 613-630. Sealey C W et Lindley J. T. (1997). Inputs, Outputs and a theory of production and cost at depository financial institutions. Journal of Finance, Vol 32, pp 1251- 1265. Wheelock D.C.et Wilson P.W. (1999). Technical progress, inefficiency and productivity change in US banking, 19841993. Journal of Money, Credit, and Banking, Vol 31, pp 212- 234. Zaim O. (1995). The effect of financial liberalisation on the efficiency of Turkish commercial banks, Applied Financial Economics, Vol 5, pp257- 264. Isik I. et Hassan M.K. (2002). Technical, scale and allocatuve efficiencies of Turkish banking industry. Journal of Banking and Finance, 26, pp 719- 766 Joumady O.(2000). Efficacité et productivité des banques au Maroc durant la période de libéralisation financière: 1990-1996. 17 èmes journées internationales d'économie monétaire et bancaire, Lisbonne, 7-9 juin, pp 1- 24. Kumbhakar S.C.et Sarkar S. (2003). Deregulation, ownership and productivity growth in the banking industry: Evidence from India. Journal of Money, Credit, and Banking, Vol 35, pp 403- 424. Kumbhakar S.C., Lozano-Vivas A., Lovell Knox C.A. et Hasan I.(2001). The effect of deregulation on the performance of financial institutions: The cas of Spanish 96 Annexes Table 1 : Statistiques descriptives des variables* 1999-2002 Y2 X1 Y1 X2 X3 W1 W2 W3 Taille Tout l’échantillon Moyenne Dév. standard 1398,4 655,5 189,9 145,9 1645,3 821,3 39,3 20,1 1608,1 743,9 0,018 0,004 0,469 0,178 0,034 0,006 1940,8 896,8 2030,0 530,2 328,9 121,4 2515,4 526,4 54,9 18,8 2360,2 564,9 0,018 0,004 0,491 0,161 0,033 0,006 2842,5 703,9 950,5 303,8 93,7 63,4 1064,3 294,7 28,5 13,1 1085,6 286,5 0,018 0,003 0,453 0,190 0,035 0,006 1314,1 326,3 Grandes banques Moyenne Dév. standard Petites Banques Moyenne Dév. standard * Tous les chiffres sont en millions de dinars sauf le travail qui est exprimé en nombre d’employés. Table2 : Moyennes et déviations standards des mesures d’efficience par année * Années EC EA ETG ETP 1999 0,727 (0,135) 0,865 (0,067) 0,849 (0,145) 0,962 (0,045) 2000 0,805 (0,123) 0,905 (0,045) 0,889 (0,123) 0,974 (0,032) 2001 0,825 (0,104) 0,912 (0,051) 0,905 (0,113) 0,980 (0,033) 2002 0,845 (0,089) 0,905 (0,062) 0,933 (0,069) 0,991 (0,015) 1999-2002 0,799 (0,118) 0,894 (0,059) 0,893 (0,114) * Les nombres entre parenthèses représentent les déviations standards. Table 3 : Efficience moyenne par classe de taille EC EA Grandes Banques Moyenne 0,840 0,901 Dév.standard 0,039 0,061 Min 0,796 0,833 Max 0,875 0,953 Petites Banques Moyenne 0,773 0,890 Dév.standard 0,118 0,031 Min 0,564 0,831 Max 0,891 0,912 0,977 (0,033) ESC 0,882 (0,155) 0,913 (0,128) 0,923 (0,104) 0,941 (0,071) 0,913 (0,115) ETG ETP ESC 0,932 0,034 0,896 0,974 0,959 0,012 0,949 0,976 0,972 0,031 0,932 0,996 0,869 0,132 0,618 0,978 0,989 0,012 0,967 0,995 0,878 0,135 0,621 0,983 97 Table 4 : Nombre de banques dans les différentes catégories de rendements d’échelle Années DRS CRS IRS 1999 Grandes Banques 0 2 2 Petites Banques 0 0 6 Total 4 6 Total 0 2 8 10 2000 Grandes Banques Petites Banques 2 0 0 1 2 5 4 6 Total 2 1 7 10 2001 Grandes Banques Petites Banques 2 0 2 1 0 5 4 6 Total 2 3 5 10 2002 Grandes Banques Petites Banques 1 0 2 1 1 5 4 6 Total 1 3 6 10 5 9 26 40 (12,5%) (22,5%) (65%) (100%) 5 6 5 16 (12,5%) (15%) (12,5%) (40%) et Petites Banques 0 3 21 24 (0%) (7,5%) (52,5%) (60%) DRS, CRS et IRS désignent des rendements d'échelles décroissants, constants et croissants respectivement. Total 1999-2002 (pourcentages) dont Grandes Banques Table 5: Changement de la productivité totale : Moyennes annuelles Périodes CHEFF CHTEC CHEFFP 1999-2000 1,003 1,163 1,004 2000-2001 1,002 1,024 1 2001-2002 0,995 1,033 1 1 1,072 1,001 1999-2002 Table 6 : Changement de la productivité totale par classe de taille CHEFF CHTEC CHEFFP Grandes Banques Moyenne 0,995 1,048 1 Dév. Standard 0,006 0,034 0,000 Min 0,994 1,021 1 Max 1 1,094 1 Petites Banques Moyenne 1,003 1,087 1,002 Dév. Standard 0,044 0,031 0,006 Min 0,962 1,054 1 Max 1,083 1,134 1,015 CHSC 0,998 1,002 0,995 0,999 CHPT 1,166 1,027 1,028 1,070 CHSC CHPT 0,995 0,006 0,994 1 1,043 0,035 1,015 1,094 1,001 0,044 0,962 1,083 1,091 0,049 1,023 1,171 98 Inflation Targeting monetary policies and real interest rates: a panel data unit root test robust to structural shifts for OECD countries Imed DRINE (IHEC, University of Sousse)28 Nicolas MILLION (EUREQua, University of Paris 1) Abstract As the Fisher effect is rejected or accepted without a real consensus in empirical studies, it is interesting to test for a unit root in a local-to-unity framework. We examine the validity of the Fisher effect with annual real interest data from nineteen OECD countries for the time period 1970-1998. To perform our tests, we explore the field of potential non linearities in the data generating the process of interest rates. Our results indicate that the Fisher effect is strongly confirmed for OECD countries through the stationarity of the real interest rates. Key words: Fisher effect, near unit root, inflation expectations, structural break. . JEL classification: E4, C12, C22 28 Corresponding author [email protected] 99 100 Introduction Fisher was the first to give an extensive explanation about the fact that interest rates are etermined by expectations of inflation, so that the real interest rates are not driven by monetary variables. This theory is one extra argument for price stability and therefore for a limited monetary growth as advised by Friedman. In addition, this theory played an important role in the formulation of a wide range of economic models because problems related to interest rates are multiple and concern financial instruments and micro or macro economic theory as well. Despite the fact that this theory implies expected and therefore not measured variables, one accepted way for the validation of the Fisher effect will be to test for a potential stationarity of the real interest rate. Moreover, the reason why its stationarity has been examined and tested intensively in the literature lies in the intrinsic interest of the real interest rate statistical characteristics, since it is an important determinant of investment, savings and virtually all intertemporal decisions. However, the Fisher effect has been tested in numerous studies covering different periods of time and maturities, especially with US data, and no consensus emerged from these empirical works about the nature of the ex ante real rate. Consequently, there is little agreement whether or not the Fisher effect holds during the post-war period, especially in the United Sates. This lack of consistence calls for several problems which could arise when testing for stationarity in these series. First, testing for the Fisher effect within the framework of a linear dynamic model may be considered to constitute a rather extreme special case since the root has to be exactly equal to one in order to reject the Fisher effect. According to this, one can think that the generating mechanism for the real rate has not been perfectly introduced in models. On the other hand, it is now well known through a large literature (Peroon 1989, Christiano 1992, Zivot et al 1992) that time series with structural breaks could easily be confused with random walks via standard unit root tests. This is the reason why we will focus on another way to deal with potentially non stationarity in real interest rates, by letting a shift occurs at a significant time break in the period observed. This first problem links to the more general second problem, namely the lack of power of standard unit root tests. It is by now generally accepted that the commonly used unit root tests like the Augmented Dickey Fuller (hereafter ADF) and the Phillips-Perron tests lack power in distinguishing the unit root null from stationary alternatives, in particular when the root is close to unity. Using panel data unit root tests is one way of increasing the power of tests based on a single time series, especially when the number of observations for each country is not large. Intuitively, combining information from the time series dimension with that obtained from the cross-sectional will increase the sample size and therefore make inference more precise. Also, while test statistics based on time series information have been shown to have complicated limiting distribution, the corresponding statistics based on nonstationary panel data have been shown to converge to Gaussian distributions. Finally, as it has been mentioned by Coakly, the growing interest in inflation targeting (as discussed in Svensson 1997,Soderlin 2001,and Tobin 1998) and the opportunistic behavior of the central banks seem to be some of the reasons in the lack of consensus of the Fisher effect tested for short run interest rates. According to the proponents of the opportunistic approach (Orphanides and Wilcox 1996), when inflation is moderate but still above the long-run objective, the central bank should not take deliberate anti-inflation action, but rather should wait 101 for external circumstances (such as favourable supply shocks and unforeseen recessions) to deliver the desired reduction in inflation. More precisely, according to the estimations of Bec et al 2002 and Kim et al 2002 for the Taylor rule (cf Taylor 1993) for three major central banks (American, German and French), interest rate feedback rules imply that nominal interest rates should respond to increases in inflation with a more than one-to-one increase when the central bank adopt a very reactive stance or a less than one-toone increase for more accommodative behavior (cf Dolado et al 2002) , calling for a positive and a negative Fisher relation respectively, as suggested by G. Torous 2002. This would mean that monetary authorities are quick to raise nominal interest rates in response to inflationary pressures, which leads to a return of the real interest rates to their equilibrium value. On the other hand, in a falling inflation environment, the authorities may not be as quick to reduce the level of nominal interest rates, especially during the disinflation period. Hence, there is strong evidence for a multiple-regime behavior to inflation shocks in Central Bank reaction function, which imply that monetary authorities run a credible yet opportunistic anti-inflationary policy, reacting more strongly to positive than to negative inflation surprises. The consequences of this multiple-regime behavior should be that non linear stationary time series could be confused with non stationary linear variables (see Pippinger 1993 and Hamilton 1989), and should considered while studying the relationship between interest rates and inflation rates. We examine the validity of the Fisher effect with annual real interest data from nineteen OECD countries for the time period 1970-1998. To perform our tests, we explore the field of potential non linearities in the data generating the process of interest rates. Instead of using stochastic regime shifts (such as Markovian switching models in Garcia 1996), we rely on structural breaks in the deterministic part while combining this method with a panel investigation. We employ a panel LM unit root test that allows for heterogeneous structural change. Our results indicate that the Fisher effect is strongly confirmed for OECD countries through the stationarity of the real interest rates. The remainder of the paper proceeds as follows: the Fisher effect is briefly presented in section 2 and importance of inflation expectations is emphasized. Section 3 describes the testing methodology that we employ, performs the tests and discusses the results. Section 4 concludes. I. Investigating for a Fisher effect A. Some theory about the Fisher relation We could grossly say that the Fisher hypothesis states that nominal interest rates consist of real interest rates and compensation for expected inflation because savers/investors expect compensation for the reduction in value of nominal money (purchasing power) caused by inflation. This is represented in the following equation verified for any date t: 1 + it = (1 + Et rt m )(1 + π tm ) m (1) The Fisher effect represents therefore a relation of determination between the nominal interest rates and the expected inflation rates, the former reflecting at each time the latter. Provided (1), a nominal interest rate of itm will thus guarantee an ex ante real rate of E t rt m = rte as soon as the anticipated price change expected by the agents is where E t π tm = π tm , 102 E t xtm = E ( xtm / Ω t ) is the expectation of xt + m given the current information set Ω t available to the agents at time t. it is the mperiod interest rate known at time t, π te et is the m-period expected inflation rate from time t to t + m and rte is the real return that economic agents wish to obtain according to the inflation rate π te they expect. The nominal interest rate it is then traditionally divided in two parts: the exante real interest rate t and the expected inflation π te . That is, a nominal interest rate of it will assure an ex ante real rate of rt e when the expected price change is π te provided it = rte + π te + rteπ te , thereby adjusting the compensation to the lender for the anticipated loss in purchasing power in the principal as well as in the interest. For small values of interest rates and inflation rates, the Fisher equation is commonly simplified as: it = rt e + π te (2) This implies that if the inflation n expectations are perfectly accurate, the nominal interest rate follows the inflation evolution as soon as the interest rates series rt e are constant. So, as soon as it is accurately appraised, the inflation should not interfere in the determination of the real interest rate. Thus the Fisherian point of view is consistent with the neutrality proposition according to which permanent changes in nominal variables have no significant long run impact on real variables. But the inflation expectations and consequently the ex ante real interest rate could not be directly measured. So we have to rely on nominal interest rates measured at the beginning of the period m and future inflation measured at the end of the period m, so as to test for a Fisher effect. But, as Mashkin 1992 pointed out, it is very easy to show that a test of the correlation of interest rates with future inflation is also a test for the correlation of interest rates and expected inflation. Considering the underlying model involving expected inflation, the Fisher hypothesis asserts that the coefficient b should be unity (or very near unity) in a relation of the form : t = a + bπ te + ωt (3) and that the residuals ω t stationary. should be The real interest rates could then be expressed in the following way (with b’= b − 1): rt e = a + bπ te + ω t From the last equation, a potential non stationarity of the ex ante real interest rates rt e will result only from structural instability in the deep parameter a, or from a coefficient b’ significantly different from 0 (i. e. ruling out the Fisher hypothesis). However, the inflation expectations and consequently the ex ante real interest rate could not be directly measured. So we have to rely on nominal interest rates measured at the beginning of the period m and future inflation measured at the end of the period m, so as to test for a Fisher effect, with the idea that the results will lead to the same interpretations as long as the assumption of rationality for expectations is held. The forecast error _t represents the difference between the inflation rates expected ex ante by the agents in the economy and the inflation rates really observed ex post: ε t = π te − π t = E (π t / Ω t ) − π t (5) 103 Under rational expectations assumption, ε t will be unforecastable given Ω t , the current information set Ω t available to the agents at time t. In most of the empirical works, the expectation errors have been assumed to be covariance stationary in level but we will loose this assumption here by considering them to be a martingale difference sequence with respect to the history of the time series up to time t − 1 so that they will be defined as a process orthogonal to Ω t . It will then be possible to write from equation (3) the ex post real interest rate as: rt = a + bπ te − π t + ω t = a + ε t + b' π t '+ω t (6) which have the same statistical properties as (4) notwithstanding the expectations errors ε t . In this case, the volatility of the ex post real interest rates could therefore come from the same sources as the ones in (4), in addition to potential volatility from the expectation errors process. While Fisher’s own research established that nominal rate and inflation do not correlate well, his book published in 1930 are more an attempt to explain why the theoretically sound hypothesis fails in practice. Rigorously, one should only try to detect a Fisher effect via the relation (1). However, trying to do this mean that we should cope with the problem of measures of the expected inflation rates and then a fortiori of the ex ante real interest rate, as they are inherently unobservable. This fact should explain why the Fisher hypothesis is frequently badly defined as the Fisher effect is mixed with additional joint hypotheses. Based on ex post data, the first possibility is to consider that the expected inflation rates are incorporated into nominal rates on a one to one basis (with the conventional interpretation that the investors are rational) by testing {β = 1}while assuming that the real interest rates are constant in the following regression: it = α + βπ t + z t (7) An estimation value close to unity is then expected for the parameter β while the residuals z t encompass the fluctuations wt as well as the volatility of the expectation errors ε t , as in (6). The alternative possibility is to assume that β = 1 in (7) and to test if the real interest rates are constant, presuming that there is no effect of inflation on real interest rate if constancy is not rejected. However, as these tests are emphasizing on other hypotheses (such as rational expectations and constant real interest rates), they are less related to the Fisher effect. Because of the strong presumption for the presence of stochastic trends in the series, it is necessary to replace the Fisher effect in the framework of a 6 cointegration equation (as in (7)), using Error Correcting Models (ECM) so as to discriminate the short-run Fisher effects with the long run ones. B. Literature on the Fisher effect For the majority of the studies for the 70s period, the conclusions are that short and long real rates are constant and that nominal interest rates accommodate changes in inflation (seeFama 1975) and Fama and Schwert). Subsequent studies find that his conclusion no longer holds for the 80s periods (cf Mishkin 1992). Moreover, for the period before World War II, there is no evidence to support the Fisher effect (see Summers 1983). However, the developments in econometrics (i. e. random walks, unit roots) provide new methods. Studies find a 104 long-term relationship (cointegration) between nominal interest rates and inflation, but no relationship between short term changes in nominal rates and inflation (cfMishkin 1992). Although nominal rates and inflation are cointegrated, the inflation coefficient is not equal to 1: some find it smaller than 1 (see Evans and Lewis 1995), some find it larger than 1 (Crowder and HOFFMAN 1996). There appears to be a negative correlation between actual future inflation and ex ante real interest rate and positive correlation between expected future inflation and ex ante real interest rates (Evans 1998). The Fisher hypothesis has nothing to say about the formation of inflation expectations. The rational expectations hypothesis is only one type of expectations, and open to alternative interpretation. Thus: The lack of consensus and the reject of the Fisher, especially during the 80s, gives way to three kinds of responses: For example, the Peso-problem (see Evans and Lewis 1995) : Expectations may incorporate a small probability of unique but important occurrence. Often, when this occurrence does not realize actual inflation or time series forecasts are systematically higher or lower than true expected inflation. Consequently, real interest rates are badly measured ex post (but not ex ante). 1. The rejection of the Fisher effect means that another theory is valid for the relationship between real rate and inflation. 2. Explanation form the debate weaknesses in standard econometric tests 3. Argue that testing Fisher effect is (almost) impossible because of the effect of monetary policies. C. Weaknesses in standard Fisher tests The Fisher hypothesis does not imply that real interest rates are constant through time. Fisher hypothesis states only that expected inflation is added to the real interest rate given at any time. Thus: 1) Tests for constant real rates are not tests of the Fisher effect. 2) Time-varying and/or stochastic real rates create econometric problems. However, Fisher speculated that in the long run real rates would not change much, thus making crucial the span of the data studied. 1) Tests of one specific and possibly incorrect type of expectations (REH) are not tests of the Fisher effect. 2) Wrongly measured expectations create econometric problems. Note: REH is good for theory, but performs very badly in empirical studies. Learning under uncertainty: Are changes in variables/environment permanent or temporary? Only time will tell and learning is inevitable. In the mean time expectations will turn out to be systematically higher or lower ex post (but not ex ante) real interest rates. Fisher hypothesis does not necessarily imply an inflation coefficient equal 1.A correct formula, including taxes on nominal interest income, is 1 + rte = 1 + it (1 + θ ) 1 + π te Thus the coefficient π te is not 1, but larger than 1 due to real rate effect and tax effect29. 29 For empirical results see Crowder/Wohar (1999), Crowder/Hoffman (1996). 105 4) Statistical problems: - Errors-in-variables bias: Badly measured inflation expectations and/or real interest rates cause estimates of coefficient b to depend on relative variances of expected inflation and real interest rates. Coefficient smaller than one is not surprising30. - Missing-variables bias: Time-varying risk premium, real interest rate, Jensen’s inequality effect31. D. Monetary policies influence Central banks influence short term nominal interest rate and, also, because actual and expected inflation do not change much in the short run, the short term real interest rate. Long term nominal and real rates depend on current and future interest rates (expectations theory). 1. Testing the Fisher hypothesis on short term interest rates makes no sense. (Unless you are willing to assume flexible prices at all times: the standard newclassical model). 2. Inflation and real interest rates are likely to be correlated due to (dis -) inflation policy of the central bank (Mehra, 1998, Goodfriend, 1998). 3. Testing the Fisher hypothesis on longterm interest rates depends very much on monetary policy (reaction function) and macroeconomic models (transmission mechanisms)32. Effect of changes in current inflation on long term nominal 30 Results prewar gold standard- variance expected inflation approximatively zero (Barsky, 1987). Results post-1979-inflation variance decreases compared to pre-1979 after disinflation episode (Mishkin, 1990, 1992). interest rates depends on market expectations with respect to the response of monetary policy. The time series behavior of inflation is very important33. 4. In the long run, short rates will be determined by real economy equilibrium (i.e. short real rate = ‘natural’ real rate) and inflation target (i.e. inflation = inflation target central bank). When long rate maturity increases, the long rate will converge towards the equilibrium value consisting of natural real rate plus inflation target. Higher inflation (i.e. inflation target) will result in higher nominal rate (i.e. Fisher effect). II. Testing for Fisher effect: Panel LM Unit Root Tests in the presence of a time break Despite the fact that the testing methodologies employed in the more recent research offer distinct advantages, none of these tests combine panel data and structural breaks. In an effort to seek a more accurate investigation of the fisher effect, our paper extends the previous research by employing the panel LM unit root test developed by Im and Lee (2001). This test has the advantage of utilizing both panel data and structural breaks when testing for unit root. Unlike the IPS and other related panel unit root tests, the panel LM test can successfully take structural breaks into account without the necessity to simulating new critical values that depend on the number and location of breaks. Combining these two productive avenues of testing can potentially lead to even greater power when testing for Fisher effect. A. LM Test with no Structural Break 31 See empirical results Shome/Smith/Pinkerton (1988). 32 See Soderlind (1997). 33 See Barsky (1987), Peng(1995). 106 To illustrate the underlaying model and testing procedure, we suppose that the data y it , t = 1, 2, ......., T ; i = 1, 2, ........,N, is generated as : y it = xit + z it , xit = φ i xi ,t −1 1 N ∑ LM iT , N i =1 Let E (ξ T ) and V (ξ T ) be the expected value and variance of LM iT under the null = ε it , z it = γ 1i + γ 2i t hypothesis. Then, under the null hypothesis, _____ LM NT = ____ The unit root test consists to test the null hypothesis of unit roots φi = 1, for all i. To do so, we express y it as : ∆y it = β i y i ,t −1 − βγ 1i + [1 − β i (t − 1)]γ 2i + ε it ΓNT = N [ LM NT − E (ξ T )] → N (0,1) V (ξ T ) as N grows (for finite T), as long as E (ξ T ) and V (ξ T ) exist. B. Panel LM Test with Breaks where β i = −(1 − φ i ) . We then have the null hypothesis: H0 : β = 0 for all i, against the alternatives : H1 : β i < 0 , i = 1, 2, ...,N1, β i = 0, i = N1 + 1, N 2 + 1,.........., N Therefore, all or some of the tim series are stationary under the alternative hypothesis. We suppose that the error terms ε it , i = 1, 2, ...., T, are independent normal variables 2 with mean zero and variance σ i . Let LM iT be the LM statistic for the i-th time series, then the LM statistic based on pooled likelihood function can be defined as : N In this section we define the LM panel unit root test in the presence of structural change. Suppose structural shift occurs at time period TB ,i in i-th time series. Therefore, the data are generated as: y it = xit + z it , for t = 0,1,........T ; i = 1,2,..... N ⎧ 0 , t < T B ,i ⎫ where D it ⎨ ⎬ ⎩1, t > T B , i ⎭ which has an alternative representation: ∆yit =βi yi,t −1 −βγ 1i +[1−βi(t −1)]γ 2i +(∆Dit −βi Dit )δ i +ε it for t = 0,1,........T ; i = 1,2,..... N , where ∆Dit = Dit − Dit −1 , i.e. ∆D it LM NT = ∑ LM iT i =1 The distribution of LM NT depends on N and T, but not on any other nuisance parameters under the null hypothesis. Therefore, LM NT it self may be used in practice as a statistic. However, as N increases, as long as the second moment of LM iT exists, the distribution of LM NT will approach a normal distribution. We denote the average of the individual LM statistic LM iT as : xit = φ i xi ,t −1 = ε it , z it = γ 1i + γ 2i t + δ i Dit ⎧ 1 , t = T B ,i + 1 ⎫ = ⎨ ⎬ ⎩ 0 , otherwise ⎭ The LM statistic based on the pooled likelihood function is given by the sum of the LM statistics with break, LM iTB so that N B LM NT = ∑ LM iTB , let i =1 _____ B 1 N LM iTB ∑ N i =1 As Amsler and Lee (1995) showed, the distribution of LM iTB does not depend on LM NT = 107 the location of the break point λi = T B ,i in T the limit. In finite sample, however, the distribution of LM iTB does depend on λi . If we have the exact expected value and the exact variance of LM iTB under the null hypothesis, which we denote E (ξ tB (λi )) and V (ξ tB (λi )) , then it follows that then it follows that : _____ N [ LM B − Γ B* LM = N 1 N N 1 N ∑ E (ξ i =1 ∑ V (ξ i =1 B i B i (λi ))] → N (0,1) (λi )) under the null hypothesis, as N→∞, as long as V (ξ tB (λi )) exists of all i. B* , as it stands, is However, the statistic ΓLM not very practical since it requires E (ξ tB (λi )) and V (ξ tB (λi )) to be known for all λi in the sample. Since ΓiTB − LM iT → o p (1) , we consider a practical statistic using E (ξ T ) and V (ξ T ) in place of E (ξ tB (λi )) and V (ξ tB (λi )) to have ____ B B ΓNT = N [ LM NT − E (ξ T )] V (ξ T ) → N (0,1) Im and Lee (2001) derive the asymptotic B properties of LM NiT and show that it has a standard normal distribution. Indeed they show that the panel LM test statistic remains the same with or without a break. In fact, the distribution of the panel LM unit root test statistics is unaffected by break. The hypotheses tested in panel data can be described as follows: Null Hypothesis : βi = 0 for all i, Aleternative Hypothesis : βi < 0 for at least one i. C. Empirical interpretation results and The mixed results from unit root tests in previous research on Fisher effect suggests that the question remains as to whether or not the theory is empirically valid. To perform our tests, we employ annual data on real interest rates from nineteen OECD countries over the 1970-1998. Our data comes from the IMF data base. In order to provide a robust analysis, we compare both univariate and panel LM unit root test results with and without structural break. We begin with the Schmidt and Phillips univariate LM unit root test without structural change. We then move to extensions that allow for one break, since our time series covers periods during which structural change may have occurred, especially during the 1970’s and 1980s. In addition to the Schmidt and Phillips no-break test, we employ the univariate one and the Lee and Strazicich (1999a, 1999b) minimum LM unit root tests with one break to determine the structural break point in each country. After determining the optimal break point, we employ the panel LM unit root test of Im and Lee (2001). For comparison, we additionally show the panel LM test results with no breaks. To determine the optimal break point in the panel LM test, we utilize the univariate ”minimum” LM unit root tests of Lee and Strazicich (1999a, 1999b). These test are comparable to the corresponding Dickey and Fuller type endogenous break tests of Zivot and Andrews (1992). The performance of the LM test is comparable to or superior to these counter-part tests in terms of size and power. In addition, the LM unit root tests are not subject to spurious rejections under the null. In each test, the break point is determined endogenously from the data via a gridsearch by selecting the break where the 108 unit root test statistic is minimum. Using the minimum LM tests of Lee and Strazicich (1999a,1999b), the unit root test statistic is estimated at each of one break point. The procedure is repeated over the time interval [.1T,.9T], to eliminate end points, until the break is determined where the unit root t-test statistic is minimized. The optimal number of lags in each country is determined by sequentially examining the t-statistic for the last lag coefficient to see if it is significant at the approximate 10% level in an asymptotic normal distribution. We begin with the one break LM test. If less than one break is significant, we employ the no-break LM unit root test. The corresponding LM unit root test statistic is then chosen after determining the optimal break point. Afterdetermining the appropriate unit root test statistic for each country, the panel LM test statistic is then calculated. The results of testing are shown in table 1. For the univariate LM testwith no break, the unit root null cannot be rejected in fourteen cases out off nineteen at the usual significance levels. After allowing for structural break, the univariate minimum LM test rejects the unit root null in sixteen of nineteen countries at 10%. So the inclusion of structural break, the univariate unit root tests are unable to accept the null in nearly all cases. Examination of the estimated break point reveals, that most structural breaks in real interest rate occur during the early 1990s. In particular, sixty percent of all breaks occur during the years 1990-1995. In three countries, no structural break is identified at any time period. We next examine the panel test results. Without allowing for structural breaks, the panel LM test statistic of -1.697 clearly indicates that the unit root null is hardly rejected, in spite of increased power from panel data. This highlights the importance of allowing for structural change, even in the panel setting. After allowing for structural breaks, the panel test statistic of - 12.185 strongly rejects the unit root null at less than 1%. These results clearly demonstrate the gain in power from combining structural breaks with panel data. Since the panel LM test statistic is calculated using the average test statistic of all countries, it is possible that the panel results are due to a small number of ”outliers” having a relatively large impact. Examination of the univariate test statistic (with breaks) for each country reveals that the majority of countries reject the unit root null at 5%. We can, therefore, be confident that the panel test results are not due to outliers. These results demonstrate that the failure to reject the null in univariate tests is due to insufficient power. After combining structural breaks with panel data, the null hypothesis of unit root is clearly rejected. Overall, our finding supports the Fisher effect and suggests that overwhelming majority of shocks to interest rate are temporary. Table 1: LM Unit Root tests results34 Countries LM1 k1 LM2 Tb k2 Australia 7 1984 5 2.542* 2.36* Austria 0.598 8 1994 0 2.86* Belgium 0.381 7 1986 5 3.02* Canada 1 1985 8 2.459* 3.95* Denmark 06 1990 0 2.322* 3.91* Finland -1.591 3 1989 8 5.63* France -0.497 0 1991 0 3.79* Germany -1.798 0 1992 5 4.02* Holland -3.85* 5 7 3.96* Italy -5.50* 3 1992 8 3.04* 34 The critical value at 1% is 1.96. Tb is the time of break and k the number of lags. 109 Japan 2.095* -3.05* 1 -3.15* 8 Portugal -5.52* 0 Spain 2.343* -0.43 7 8 Sweden -1.50 0 UK -2.20* 6 USA 0.186 4 Panel LM tests -1.96 New Zeeland Norway Suisse 0 5.29* 2.68* 3.29* 6.78* 2.24* 4.04* 3.16* 3.25* 2.82* -12 1994 8 1985 0 0 1997 2 1993 8 1995 7 8 1990 0 1996 7 Conclusion This paper re-examines the empirical validity of Fisher effect using annual OECD countries for the period 1970-1998. We employ a variety of unit root tests, including the recently developed panel LM unit root test of Im and Lee (2001) that allows for heterogeneous structural change. By combining the use of structural breaks and panel data, our tests realize a significant gain in power as compared to previous empirical research. Contrary to univariate tests and/or those that ignore structural break, by combining panel data with structural break the Fisher effect is strongly confirmed. Furthermore, it would be also interesting to test for a unit root while allowing for two deterministic breaks so as to report the shifts expected by the agents in 1979 and in the mid 1980s. But if one wants to use efficient tests for unit root as those developed in Eliott 1996, it is necessary to develop an asymptotic framework for such a purpose. We leave this topic for further research. These empirical findings confirm the different forward looking estimations of Clarida and Gal 1999 for the Taylor rule (cf Taylor 1993) in which interest rate feedback rules imply that nominal interest rates should respond to increases in inflation with a more than one-to-one increase during the Volcker-Greenspanera or a less than one-to-one increase during the Burns-Miller period. More precisely, since the arrival of Paul Volcker at the head of the Fed, monetary authorities are quick to raise nominal interest rates in response to inflationary pressures, which leads to a return of the real interest rates to their equilibrium value. On the other hand, in a falling inflation environment, the authorities may not be as quick to reduce the level of nominal interest rates, especially during the disinflation period. Hence, as verified empirically by Bec et al 2002 and Kim et al 2002, there is strong evidence for a multiple-regime behaviour to inflation shocks in the Central Bank reaction function, which implies that monetary authorities run a credible yet opportunistic anti-inflationary policy, reacting more strongly to positive and persistent than to negative and/or non persistent inflation surprises35. References Amsler, Christine & Lee, Junsoo, 1995. "An LM Test for a Unit Root in the Presence of a Structural Change," Econometric Theory, Cambridge University Press, vol. 11(2), pages 359-68. Athanasios Orphanides & David H. Small & Volker Wieland & David W. Wilcox, 1997. "A quantitative exploration of the opportunistic approach to disinflation," Finance and Economics Discussion Series 35 which will correspond to a decrease of the real interest rates, nominal interest rates being kept constant 110 1997-36, Board of Governors of the Federal Reserve System (U.S.). Investment”, Journal Economics 9: 297-324. Barsky, R. (1987): “The Fisher Hypothesis and the Forecastability and Persistence of Inflation,” Journal of Monetary Economics, 19, 3–24. Feldstein M., SummersL., 1978. Inflation, Tax Rules, and the Long-Term Interest Rates,Brooking Papers on Economic Activity. Crowder, W.J. and D.L. Ho_man, “The long-run relationship between nominal interest rates and inflation: The Fisher equation revisited,” Journal of Money, Credit, and Banking, vol.28 (1) February 1996: 102-18. Frederique Bec & Melika Ben Salem & Fabrice Collard, 2002. "Asymmetries in Monetary Policy Reaction Function: Evidence for U.S. French and German Central Banks," Studies in NonlinearDynamics & Econometrics, Berkeley Electronic Press, vol. 6(2), pages 1006-1006. Crowder, W. J. (1997) “International Evidence on The Fisher Relation”, Working Paper, Department of Economics, University of Texas at Arlington. Behavior of Real Interest Rates”, CarnegieRochester Conference Series on Public Policy 15:151- 200. Darby, M. R. (1975) “The Financial and Tax Effects of Monetary Policy on Interest Rates”, Economic Inquiry 13: 266-276. J. J. Dolado & R. Maria-Dolores & F. J. Ruge-Murcia, 2002. "Nonlinear Monetary Policy Rules: Some New Evidence For The Us," Economics Working Papers we022910, Universidad Carlos III, Departamento de Economía. Evans, L. T., Keef, S. P. and Okunev, J. (1994) “Modelling Real Interest Rates”, Journal of Banking and Finance 18: 153165. Evans, M. Expected Estimates Relation?”, 253. and Lewis, K. (1995) “Do Shifts in Inflation A_ect of the Long-run Fisher Journal of Finance 50: 225- Fama, E. (1976): “Short-Term Interest Rates as Predictors of Inflation,” American Economic Review, 65, 269-282. Fama, E. and Gibbons, M. R. (1982) “Inflation, Real Returns, and Capital of Monetary Fisher, I. (1896): “Appreciation and Interest”, AEA Publications, 3(11), August, 331-442. Fisher, I. (1930): The Theory of Interest. New York: Macmillan. Garcia, R. and Perron, P. (1996): “An Analysis of the Real Interest Rate under Regime Shifts”, Review of Economics and Statistics, 78, 111-125. Goodhart, C. (1989): “The Conduct of Monetary Policy”, EconomicJournal, 99, 293-346. Jinill Kim & Dale Henderson, 2002. "Inflation Targeting and Nominal Income Growth Hamilton, J. D. (1989). A new approach to the economic analysis of nonstationary time series and the business cycle. Econometrica, 57, 357—384. Huizinga, J., & Mishkin, F. S. (1986). Monetary policy regime shifts and the usual behavior of real interest rates. Carnegie–Rochester Conference Series on Public Policy, 24, 231–274. Kyung So Im & Junsoo Lee, 2000. "LM Unit Root Test with Panel Data: A Test Robust To Structural Changes," Econometric Society World Congress 2000 111 Contributed Papers 0648, Econometric Society. Marvin Goodfriend, 1998. "Using the term structure of interest rates for monetary policy," Economic Quarterly, Federal Reserve Bank of Richmond, issue 0), pages 13-30. Mundell, R. A. (1963), “Inflation and real interest.” Journal of Political Economy 71, 280-83. Mishkin, F. S. (1992) “Is the Fisher E_ect for Real? A Reexamination of theRelationship between Inflation and Interest Rates”, Journal of Monetary Economics 30: 195-215. Mishkin, F.S. (1992): “Is the Fisher Exoect for Real? A Re- Examination of the Relationship between In‡ation and Interest Rates”, Journal of Monetary Economics, 30, 195-215. Perron, P. (1990): “The Great Crash, the Oil Price Shock, and the Unit Root Hypothesis,” Econometrica. Summers, L. (1983) “The Non-adjustment of Nominal Interest Rates: A study of the Fisher E_ect”, in J. Tobin (Ed.), Symposium in Memory of Arthur Okun. Washington, D.C.:Brooking Institution. Summers,L.H. (1983): “TheNonadjustment of Nominal Interest Rates: A Study of the Fisher Exoect”, in J. Tobin (ed.): Macroeconomics, Prices, and Quantities: Essays in Memory of Arthur M. Okun, Basil Blackwell, Oxford, 201.241. Perron, P. (1997) “Further Evidence on Breaking Trend Functions in Macroeconomic Variables”, Journal of Econometrics 80, 355-385. Pippinger, M.K. and G.E. Goering (1993) “A Note on the Empirical Power of Unit Root Tests Under Threshold Processes”, Oxford Bulletin of Economics and Statistics 55, 473-481. Rose, A.K. (1988): “Is the Real Interest Rate Stable?”, Journal of Finance, 43, 1095-1112. Söderlind, Paul, 1997. "Monetary Policy and the Fisher E_ect," CEPR Discussion Papers 1610, C.E.P.R. Discussion Papers Svensson, L-E-O, 1997. "Inflation Targeting : Some Extensions," Papers 625, Stockholm - International Economic Studies. James Tobin, 1998 “Monetary Policy: Recent Theory and Practice", in Wagner, editor, Current Issues in Monetary Economics. Tobin, J. (1969) “A General Equilibrium Approach to Monetary Theory”, Journal of Money, Credit and Banking 1: 15-29. Tobin, J. (1965), “Money and economic growth,” Econometrica 33, 671-684. Yash P. Mehra, 1998. "The bond rate and actual future inflation," Economic Quarterly, Federal Reserve Bank of Richmond, issue 0), pages 27-47. Zivot, A., and D. W. K. Andrews (1992): “Further Evidence on the Great Crash, the Oil Price Shock and the Unit Root Hypothesis,” Journal of Business and Economic Statistics, 10(3), 251–270. 112 Business Development Strategy in the Internet age Financial Manager Simona FIT Aris Sistem – private firm Address: 2 E. Gojdu Street, Ap.11 300176 Timisoara Timis County,Romania Telephone: 0040 744 781 792 Email: [email protected] University Professor Dorin COSMA West University from Timisoara, Romania Address: 8 Aleea Muzicii Street, Building C9, Ap.5, 300457 Timisoara, Timis County,Romania Telephone: 0040 722 348 039 E-mail: [email protected] Abstract E-commerce has a major impact on how business transactions are undertaken between different businesses. For ecommerce everybody ends up operating other businesses' computer systems via the web and not their own. This shift in responsibilities creates an odd effect on businesses. Essentially the computer systems are automatically monitoring and raising the ecommerce transactions as required. What ecommerce has done is to allow for the complete interaction between businesses based on a shared pool of data and agreed business logic. The most integrated version of program-to-program interaction is a new type of software called eMarket software. The eMarkets are the ultimate automated environment for the interaction between buyers and sellers. The Internet has been described as the world’s least expensive and most effective marketing tool, which is why so many businesses have embraced it. Much of eMarketing's appeal is due to some significant differences from mainstream marketing which uses traditional media, which are detailed in the paper. 113 E-Definitions Electronic commerce Electronic commerce (E-commerce, EC): the marketing, buying and selling of products and services on the Internet How does ecommerce change business processes? E-commerce has a major impact on how business transactions are undertaken between different businesses. Firstly it can be implemented in two different phases. The first phase is the people interaction phase. The second phase is known as the program interaction phase. Let us consider these phases in detail. The people interaction phase of ecommerce essentially depends upon people viewing information and entering data. But even under this phase processes are changed by ecommerce. Consider a normal business process like taking customer orders. In most businesses this process means opening the post or making or receiving telephone calls with you entering these orders in your own internal sales order processing system. Ecommerce immediately changes this process to your customers entering their orders directly into your system via the Internet. So you no longer have to data enter their sales orders. But you now have to enter your purchase orders directly into your suppliers system rather than post or telephone an order. This creates an odd shift in responsibilities. So for ecommerce everybody ends up operating other businesses' computer systems via the web and not their own. This shift in responsibilities creates an odd effect on businesses. Because you spend more time on other businesses' computer systems (websites) you develop preferences for which you prefer to deal with based upon the design of their websites. The design and facilities of the website become a factor in terms of supplier selection. So where similar products and services are available from businesses the website design becomes a contributory factor in supplier selection. This is the first time in computing history that the design of computer systems can have a direct impact on sales. Computer systems (websites) in fact suddenly move from the back office right into the front office of the business. Significantly whilst you are evaluating your suppliers' websites your customers will be doing the same with your website. Suddenly you are exposed to a differing set of business processes in terms of what you use and importantly what you need to provide to others to use. Ecommerce creates a new revolution in business processes. In fact ecommerce creates a situation where everybody is entering data into other businesses' websites whilst others are entering data into their own site. This revolution is not just limited to the sales and purchase order transactions common to every business; it also extends off into invoicing and payment systems. It covers all the services your business currently provides and many new services you will need to provide. So let us consider some of these transactions: • For Business-to-Business (B2B) transactions, invoicing remains a requirement. Which means the customer will be electronically sent an invoice. Payment will be made on the Internet by undertaking electronic bank transfers. Importantly the correct coding of orders, invoices and the use of these on payments becomes important to allow for full reconciliation. The so-called 114 "three way match" between the orders, goods receipt note and invoice becomes an important business process. • Ecommerce, has by its nature, made the banks an important integrated partner in the business transaction process. The factoring of money in relation to business transactions will become a popular revenue earner for banks and other financial institutions who will increasingly support the credit arrangements in B2B transactions. Ecommerce will radically change the conventional banking infrastructure with many other players keen to enter this lucrative area of the money business. • Ecommerce radically changes the services side of businesses and creates immediacy in people's expectations. This makes the provision of services by a business through the Internet model vital. Services include order progress, delivery progress, service advice, product problems, training and any other frequently asked questions (FAQ's) in respect of the business and its products or services. Increasingly the expectation of customers is "self-service". The customer goes to the supplier website to check on the status of your order; to the carrier website to check on delivery progress. The customer can also check out a product problem on the service information side of the website and can also submit a request for a service call out online and track its progress. We have covered some of the people interaction phase requirements of ecommerce. This has kick started the ecommerce revolution. But for many it is the program interaction phase of ecommerce that will have the largest impact. So what is the program interaction phase? Essentially the objective is to reduce the people involvement in business transactions. To have computer programs in one business communicating with those in another business with the minimum of people involvement. For example your stock system decides it needs to order some items because you have reached a minimum order level. Automatically the system places an order on a preferred supplier or goes out to the internet to seek out suitable suppliers. Conversely your supplier maybe authorised to manage the stocks of his goods in your business to set criteria. So within your business he manages all stocks of his goods and their replenishment. Essentially the computer systems are automatically monitoring and raising the ecommerce transactions as required. What ecommerce has done is to allow for the complete interaction between businesses based on a shared pool of data and agreed business logic. The most integrated version of program-to-program interaction is a new type of software called eMarket software. The arrival of the eMarkets The eMarkets are the ultimate automated environment for the interaction between buyers and sellers. Because they both operate within the same computer system the degree of integration is at its highest. With banks and carriers operating within the eMarket as well, a complete automated micro business environment exists. An eMarket is like having every player needed to support a business transaction ready and waiting to make the transaction happen. But the most exciting part of an eMarket is the bidding stage where 115 different sellers are encouraged to bid for the buyers business. These deals may extend over weeks but some can be completed in seconds. In fact the different ways of business being undertaken in an eMarket has almost become a science in its own right. So how do you enter an eMarket? You normally need to be accepted by an eMarket as a member. But once you are accepted as a member and have set up all your details as a buyer or seller within the eMarket the actual transactions become very simple. As a buyer: state what you want; review the offers by sellers; pick the deal and press the confirmation button. The deal is done. All the processes of delivery and payment just automatically proceed in line with what you have previously defined. As a seller just enter in the market what you want to sell and wait for the buyers. The eMarket is designed to operate in the same fast simple manner that any real market operates. But in cyberspace the membership set up processes are the keys to allowing the final transactions to be so swiftly undertaken. Just like real markets, relationships develop in eMarkets between buyers and sellers based upon mutual trust and the success of previous transactions. The eMarkets have developed their own rating systems for both buyers and sellers with the use of testimonials to allow for the trust assessment processes between new buyers and sellers. No business can afford to not understand the eMarkets that are evolving in their specific industry. What effect will ecommerce have on business in the future? Under the latest Internet thinking, whereas the business was made up of many departments, it is now only considered to consist of three departments. The "Sell Side Department", "Value Added Department" and the "Buy Side Department". The business is now established in a closely structured chain of businesses serving a specific marketplace. The role of the business is fully appreciated by both the customers and the suppliers. It is the value added aspect that ensures the business has a future. Ecommerce has made product and service so monitored that businesses are purely assessed on their value added capabilities. Global markets will make pricing operate under stock market supply and demand principles. So it is predicted that pricing will cease to be a major business differentiator. What you have to sell and justify is your value added capability. What effect does ecommerce have on business competition? Although the concepts of ecommerce are at first difficult to grasp, essentially because doing everything on a computer does not appeal to everybody, it will make life simpler. It's the transition over to ecommerce that will be difficult. This is because we are only at the start of the ecommerce revolution and many things attempted do not necessarily work first time. In particular the narrow bandwidth of the networks at present prevents it being fully effective. Suppliers of ecommerce software are also in their infancy and this is causing added confusion. Establishing where to get started and how to do it are proving too higher barriers to many businesses. The business model for many industries in respect of how ecommerce will operate has not been fully explored. Many industries, in particular those with existing distribution channels, are suffering from a fear of change and other vested interest issues. How should you determine an ecommerce strategy? It is important to appreciate that ecommerce is in its infancy and under frantic development. Business models are constantly changing with many of the more entrepreneurial businesses already seeking 116 out and gaining competitive advantage in this transition. The one mistake that many businesses are making is to consider the internet and ecommerce to be a passing fad. In this respect the ups and downs of the dotcom industry has not helped the reputation of ecommerce. But whilst the press debates the comings and goings of different dotcom businesses, behind the scenes many businesses are making major investments in e-commerce. To some degree the B2B ecommerce revolution is a silent revolution lacking much of the hype attached to the Business to Consumer (B2C) dotcoms. Without fanfare businesses are changing their technologies towards the Internet and ecommerce. Large corporations have changed their investment decisions towards the new economy with many investing in the new technologies. Ecommerce is proving the new area for consultancy companies to seek their revenues in assisting their clients with the necessary decision making processes in respect of business and technology strategy. Overnight the whole software supply industry has incorporated the magic "e" into all its solution offerings. The major industry software players have aligned their research and development strategies towards the creation of infrastructures that support the new Internet economy. Many different strategies are evolving some industry led, some company led and increasingly many are standards organization led. Standards form a key requirement if the objectives of ecommerce are to be satisfied in a global marketplace. The need for interoperability at both technical and business levels is a key requirement. Any business forming an ecommerce strategy needs to be aware of the initiatives currently being undertaken by a variety of standards bodies. One view is that this is best left to the software solution vendors to resolve with the businesses just purchasing the outcome of all their efforts. But unfortunately it is not that simple. As always proprietary interests are influencing even the standards industry since although publicly all vendors agree the need for international standards, in private many are still upholding their proprietary standards to retain or gain competitive advantage. The fact remains that each business needs to devise its own strategy since its position within its industry and its intentions within that industry need to form part of that strategy. Unfortunately with ecommerce, in order to devise a strategy, a business needs to acquire a huge amount of background information from which the strategy decisions can be formulated. Obtaining this information concisely and ensuring it is of an independent nature remains a major problem. Because ecommerce has evolved so quickly and it is still evolving it is very difficult to acquire the required background information from most of the normal information or training channels. E-business E-business: connecting critical business systems and constituencies directly via the Internet, Extranets or Intranets. It relates both to external and to company internal processes. Our understanding of the term "e-business" is such that it does not only describe external communication and transaction functions, but also relates to flows of information within the company, i.e., between departments, subsidiaries and branches. IBM, in 1997, was one of the first to use the term when it launched a campaign built around the term. Today, many corporations are rethinking their businesses in terms of the Internet and its capabilities. Companies are using the Web to buy parts and supplies from other companies, to collaborate on sales 117 promotions, and to do joint research. Exploiting the convenience, availability, and global reach of the Internet, many companies, both large and small have already discovered how to use the Internet successfully. E-marketing E-marketing is marketing that utilizes the Internet as a communications and distribution channel. This includes using email and the Web. There are of course far more elaborate definitions, but that’s it in a nutshell. (This simplistic definition is not entirely accurate. A more pedantic one would also mention other electronic channels, such as private wide area networks. However from a practical perspective the above definition is appropriate because virtually all eMarketing is via the Internet). E-marketing is Different and Yet the Same The Internet has been described as the world’s least expensive and most effective marketing tool, which is why so many businesses have embraced it. Much of eMarketing's appeal is due to some significant differences from mainstream marketing which uses traditional media. Key differences are: • • • e-Marketing’s lower cost its incredible degree of measurability and, most fundamentally, its unique interactive nature (unlike traditional media there is two-way interaction that the target audience controls). Despite these differences, the fundamental principals of marketing still apply to eMarketing. There are those who naively thought the "old rules" don't apply in the so called "New Economy". The same careful planning and considerations about the marketing mix that go into developing offline marketing plans must also be applied to online marketing. Marketing is not just about advertising or promotion - even though these are the most visible aspects of marketing. The same applies to online marketing. As with offline marketing, developing and implementing an e-Marketing strategy isn’t solely about using the Internet as an advertising medium. The key issue is to understand enough so you are aware of the options and marketing benefits the technology can deliver. You no more need to understand the technical intricacies of web hosting, email list servers, search engine algorithms, banner ad servers and the like any more than you need to know the in depth technical intricacies of printing or TV commercial production. It's more important to focus on what the technology can do for you, rather than the how. And whilst it’s important to harness and use online technologies, they shouldn't dictate your marketing strategies How do Internet marketing communications differ from traditional marketing communications? Internet marketing differs from conventional marketing communications because of the digital medium used for communications. The Internet and other digital media such as digital television, satellite and mobile phones create new forms and models for information exchange. A useful summary of the differences between these new media and traditional media has been developed by McDonald and Wilson (1999) which they describe the new valences of the emarketing mix’. Note that these can be used as a strategic analysis tool, but they are not used in this context here. This is useful since they highlight factors that apply to practical aspects of Internet marketing such as personalisation, direct response and marketing research, but also 118 strategic issues of industry restructuring and integrated channel communications. By considering each of these facets of the new media, marketing managers can develop marketing plans that accommodate the characteristics of the new media. This presentation is an interpretation of these factors using new examples to illustrate these concepts. III. Interactivity Deighton (1996) was one of the first authors to summarise the key characteristics of the Internet. He identifies the following characteristics inherent in a digital medium (Deighton, 1996): • the customer initiates contact; • the customer is seeking information (pull); • it is a high intensity medium – the marketer will have 100 per cent of the individual’s attention when he or she is viewing a web site; • a company can gather and store the response of the individual; • individual needs of the customer can be addressed and taken into account in future dialogues. IV. Intelligence The Internet can be used as a relatively low cost method of collecting marketing research, particularly about customer perceptions of products and services. In the competitions referred to above Nescafe are able to profile their customers on the basis of the information received in questionnaires. The Internet can be used to create two-way feedback which does not usually occur in other media. Financial services provider Egg (www.egg.com) collects information about their online service levels through a questionnaire that is continuously available in the customer service part of their site. What is significant is that the company responds via the web site to the main concerns from customer; if the length of time it takes to reply to customer service e-mails is seen as a problem it will explain what the organisation is trying to do to resolve this problem. A wealth of marketing research information is also available from the web site itself, since every time a user clicks on a link this is recorded in a transaction log file summarising what information on the site the customer is interested in. Since these log files quickly grow to be many thousands of lines long, analysis software tools are needed to summarise the information contained within them. Log file analysers, of which Webtrends (www.webtrends.com) is the most widely used, will highlight which type of products or promotions customers are responding to and how patterns vary through time. This enables companies to respond in realtime to buyer behaviour. UK e-tailer Jungle.com uses this technique to change the offers on its home page if customers are not responding to a special offer. V. Individualisation Another important feature of the interactive marketing communications referred to above is that they can be tailored to the individual unlike traditional media where the same message tends to be broadcast to everyone. The process of tailoring is also referred to as personalisation and is an important aspect of achieving customer relationship management online. Personalisation is often achieved through extranets which are set up with key accounts to manage the buying and after-sales processes. Dell (www.dell.com/premierpages) has set up ‘Premier Pages’ for key accounts such as the Abbey National where special offers and bespoke customer support are delivered. Another example of personalisation is that achieved by business-to-business e-tailer RS Components (www.rswww.com). Every 119 customer who accesses their system is profiled according to their area of product interest and information describing their role in the buying unit. When they next visit the site information will be displayed relevant to their product interest, for example office products and promotions if this is what was selected. This is an example of what is known as mass customisation where generic customer information is supplied for particular segments i.e. the information is not unique to individuals, but to those with a common interest. The online booksellers such as Amazon (www.amazon.co.uk) use this approach to communicate new books to groups of customers. Gardeners for instance, who have previously purchased a gardening book, will receive a standard email advertising the latest gardening tome. This is again mass customisation. VI. • The Internet can be used as a direct response tool enabling customers to respond to offers and promotions publicised in other media. • The web site can have a direct response or call-back facility built into it. The Automobile Association have a feature where a customer service representative will contact a customer by phone when the customer fills in their name, phone number and a suitable time to ring. • The Internet can be used to support the buying decision even if the purchase does not occur via the web site. For example, Dell has a prominent web-specific phone number on their web site that encourages customers to ring a representative in the call-centre to place their order. This has the benefits that Dell are less likely to lose the business of customers who are anxious about the security of online ordering and Dell can track sales that result partly from the web site according to the number of callers on this line. Considering how a customer changes from one channel to another during the buying process is referred to as mixed-mode buying. It is a key aspect of devising online marketing communications since the customer should be supported in changing from one channel to another. • Customer information delivered on the web site must be integrated with other databases of customer and order information such as those accessed via staff in the call-centre to provide what Seybold (1999) calls a ‘360 degree view of the customer’. Integration The Internet provides further scope for integrated marketing communications.. When assessing the success of a web site, the role of the Internet in communicating with customers and other partners can best be considered from two perspectives. First organisation to customer direction, how does the Internet complement other channels in communication of proposition for the company’ s products and services to new and existing customers with a view to generating new leads and retaining existing customers? Second customer to organisation, how can the Internet complement other channels to deliver customer service to these customers? Many companies are now considering how they integrate e-mail response and web-site callback into their existing call-centre or customer service operation. This may require a substantial investment in training and new software. Some practical examples of how the Internet can be used as an integrated communications tool are as follows: 120 • The Internet can be used to support customer service. For example EasyJet (www.easyjet.com), who receive over half their orders electronically, encourage users to check a list of frequently asked questions (FAQ) compiled from previous customer enquiries before contacting customer support via phone. Marketing Strategies Once your site offers something useful and important to an audience, you have to find a way to let them know it exists. Marketing generally consists of two elements: online promotion, and "offline" marketing done through other media. Online marketing tools There are a number of means to improve the likelihood that people on the web will find their way to your site. While many are straightforward, there are some tricks that can greatly improve each method's effectiveness. Some of the most popular sources of traffic to a site are: • search engine registration • placement in directories or indexes • placement in popular "guide" sites • mention in online media • email promotion • links from sites on related topics Search engine registration Many individuals use search engines, like Yahoo, Excite, and Google, to locate websites with information and features they want. Typically, a user enters a list of keywords, and the search engine uses these to return a list of websites that are likely to be relevant to those topics. Unless your organization focuses on very specific issues, it's likely that there are already dozens, hundreds, or thousands of sites on the web which focus on your topic areas. Entering keywords associated with your issues into a search engine is likely to yield a long list of results. It is increasingly important, and ever more difficult, to get a site into the coveted top results for a relevant keyword search on popular search engines. A top ranking in a key search engine can bring hundreds of new visitors each day. Getting good rankings is complicated by the fact that each search engine uses its own set of criteria to determine whether a site will be retrieved by a particular search, and where in the rankings it will appear. Some search engines are automated, and rankings are determined using complex software; in others, a human being reviews and considers each submission for inclusion. Because many search engines use information from the website itself to rank search results, you should resubmit any site on which you've made significant revisions, particularly to search engines where your site does not yet appear, or where it tends to be ranked poorly in relevant searches. The keys to getting the best possible rankings are to anticipate the search terms you would like to be associated with your site, and optimize your site so it will be accepted by the largest number of search engines. A good web developer should be able to do this for you. Some tips are included below. Search Engines and Directory Submission Search engines use different formulae to determine the rankings of their sites. Some engines use software to automatically incorporate and rank new sites, and others use human staff members who examine each site and determine its worthiness. For example, here are some common sites, and the basic criteria they use for ranking search results. (Search engines' heuristics are closely guarded secrets, and these descriptions are based on what is known about them.) 121 • Yahoo! - human judgment. Yahoo! is a very exclusive site that prides itself on • including sites that offer genuine value to users. • Direct Hit - popularity. Direct Hit tracks how many visitors click through to each site that is retrieved by a search. It continually refines its results to highlight the most popular sites accessed by visitors. • AltaVista - META tags (keywords and phrases inserted into the underlying code of the page) and page text. AltaVista ranks sites automatically based on the words used in their META tags and the text content of the page. • DMOZ (the Open Directory Project) - human judgment. DMOZ uses a system of categories maintained by "editors" drawn from the web at large. An editor evaluates a submission in his/her category for quality and for appropriateness to the specific topic. To optimize a site, you must address the needs of both automated and human based systems. First, you should carefully select a range of search terms that you'd like to associate with the site (i.e. a search on these words will bring up your site). With these in mind, some easy strategies can improve the likelihood of your site showing up in a particular search. You should carefully optimize not only on your front page, but also every major page on the site. In many cases, the web developer will prepare the site for search engine submission as it is built, but almost all sites can be optimized for search engines at any time. • Use key words and phrases, specific to the desired search terms, in the page text and title. • Use key words and phrases in the page's META tags -- both the descriptionand the keywords tags. For directory submissions, make sure your site is appropriate to the submission category, of immediate value as a resource, and likely to be appealing to the editor. Consider submitting a specific page within the site if your submission of the front page is not accepted. For automated search engine submissions, don't just submit the front page of the site. Submit individual pages that are rich in content in a particular topic area, and make sure these pages are all optimized for search engine submission. Keep in mind that few directories and fewer search engines will tell you when you've been accepted. The only way to determine the success of your registration is to keep trying searches and seeing if (and where) your site comes up. Some search engines take weeks to process submissions. Don't rush, and don't "spam" the engine with too many entries. Check back on the status of your submissions every six to eight weeks and keep submitting to the ones that don't yet include your site. There are many services that promise to register your site with dozens of search engines for a price. While this might save you some time, you also pay a price for automation: in many cases, the service can't match the care with which you would submit your site individually to each search engine. Visiting each engine, familiarizing yourself with the process of submitting, and taking the time to complete the submission process will make a big difference. Many web developers have 122 experience submitting sites, and can perform this task quickly and efficiently. Placement in Directories and Indexes A Directory (or Index) works something like a search engine, but the contents are organized into a hierarchy of categories. Most are also searchable, functioning much as a search engine. More directories have sprung up recently, and they are an increasingly important source of hits. Most directories are managed by a human editor who decides whether or not to include a submission. The key to a good placement in a directory is locating the category in which your site belongs. A site that is professional and easy to navigate is more likely to hold an editor's interest long enough for him/her to evaluate the quality of your resources. In some directories, each category is managed by an "editor" drawn from the web community. Anyone can apply to manage a category that doesn't currently have an editor, or suggest a new category and offer to edit it. A sneaky (but common) method of getting into a directory is to locate or suggest a category in which a site could be listed, and then become the editor of that category. If you are considering this, be aware that 1) editing a category can be a lot of work, 2) you'll be expected to be fair and reasonable about including other sites, and 3) the people who evaluate your application to become an editor are aware of this practice and tend to exclude people who are doing it out of blatant self interest. Only apply if you have a genuine interest and intend to be a fair editor. Placement in popular "guide" sites Some new sites promise to organize the complex web and link to only the "top" sites on various topics. These may be presented with some narrative or background information. This differs from a directory in that it is itself a source of information as well as links to other sites. About.com is an excellent example of this type of resource. Like a directory, it is organized into categories, but within each category an editor (or guide) provides structure and information that is designed to help visitors navigate intelligently around the web. Content is updated continually, and the editor inserts links to only the sites s/he determines to be of high merit. Getting listed in a resource can be very difficult, but it's often worth it. One key is locating the category that best fits your organization. Another is to insure that your site offers resources that will be useful and important for a key audience. You may also try to attract a guide's attention by sharing a news item that shows that your site focuses on issues that are of current interest. Finally, the human factor matters: your site may have a better chance at being listed if it is professional, easy to navigate, and has dynamic content that is consistently updated. As with online directories, you can also attempt to become a guide in a relevant topic. The same caveats apply. Being a guide is likely to be a far more demanding task than editing a category, because you will be expected to provide your own content and make regular updates. Mention in online media Media sites include the online versions of newspapers, magazine, and journals, as well as online-only publications like ezines. Like a "guide" site, many media sites see large numbers of visitors. Some stories in media sites include links to highlight relevant sites with more information. Getting cited as a resource can mean a short, but significant, increase in visitors to your site. You may seek to be identified as a resource by pitching a story to the online media, or locating an editor who covers your topic area and sending him/her more 123 information about your organization. If the publication accepts freelance material, consider submitting an article or op-ed to them. Email promotion If you have a mailing list, it can be used effectively to market a site or attract attention to a revised one. Because people may perceive a mass mailing to be spam, it's important to identify that it comes from your organization in the subject line. Keep the body of the message brief: summarize new features of the site and mention a handful of the most interesting resources there. Then provide a link to the front page of the site. You may prefer to run your email mailing list using software that will allow recipients to automatically remove themselves from the list. There are also websites that will allow you to host mailing lists or "listservs" (email discussion groups) in which members of the list can also email other members of the list automatically. In addition, you may consider developing an email list of individuals who indicate that they want to be apprised of new resources or information on your site. Visitors to the site should be able to sign up for this list online, and in turn receive regular mailings summarizing new content on the site and providing links directly to the mentioned pages. To encourage visitors to sign up for updates, you should develop and post a privacy statement assuring them that you won't sell or give out their contact information. You should clearly predefine the intervals in which you'll send updates - one every month is a good interval unless you plan to keep your site updated with new information on a much more rigorous schedule. Finally, users must see that they'll get something of value by participating, so include a couple lines about what kind of information they'll receive. Another related method of promotion is through participation in listservs. Joining and participating in an email discussion group is a good way to represent your organization's issues to others and generate interest in the kinds of materials your site offers. Adding the URL of your site to your signature every time you send an email or participate in a listserv allows others to follow up on their interests at your site. There are a number of sites that allow you to locate listservs on various topics. Links from sites on related topics Many colleague sites may have "Links" sections, which may or may not themselves receive a significant number of visitors. You may wish to focus first on the sites that are likely to receive high traffic, and those in which the "Links" section is a widely-used resource. This strategy may be productive if colleagues are your primary target audience. Email the webmasters of these sites and request that they include your site in their next update. Organizations frequently offer to place a link on their own site (if they have a "links" section) in exchange. Offline Marketing Through Other Media You can use additional materials and media to market your site in the "real world." The best strategies will be ones that your organization has already identified as effective in marketing its materials and presence to its target audience. Since these vary considerably, they are not described in detail here. Some possibilities include: • Printing your web address on all appropriate organizational documents, from business cards to stationary. 124 • Using postcards, palm cards, and other common advertising mechanisms. • Mentioning your site in all communications and outreach efforts, from speaking engagements to media contacts. • Advertising (paid or pro bono) in print media, on buses, on community bulletin boards, on television including public access cable, and in other places where your target audience is likely to see it. • Press releases to highlight unique features or capacities of your site. Email Marketing Permission Email Marketing: Single vs. Double Opt-In The best and most profitable way you can use Email Marketing is to develop personal one-on-one relationships with your clients and prospects. These personal relationships are the key to the long-term success of your business. Effective Email Marketing is based on two pillars: permission and respect for privacy. In order to send customers or prospects a message, you must first get their permission (they must opt-in to your mailing list). At the same time, you must agree to never sell or share your list with anybody else. Opt-in Email Marketing (also called Permission-Based Email Marketing) has proven to produce the best response rates compared to other marketing methods, such as direct traditional mail or banner advertisements. Opt-In Email comes in two forms: "single" opt-in and "double" opt-in. A "single" opt-in list is usually created by inviting members to join via a web form or by sending an email message to a "subscribe" email address. Once readers send the form or the email message, they are subscribed to the list. A "double" opt-in list, also called a "confirmed" opt-in list, requires the subscriber to reply to a confirmation message to activate the subscription. The advantage of the “single” opt-in method is that your list will grow faster. However, there are some pitfalls, like the fact that people may subscribe friends or family, who may not want to receive your messages and who could, in the worse case scenario, accuse you of spam. The advantage of the „double” opt-in method is that you will have a higher quality list (since only interested readers will take the time to go through your confirmation process). "Double" opt-in lists also command higher advertising rates because they get far better responses from readers. Double confirmation also makes list administration easier, by keeping the email list clean with valid addresses of willing subscribers (clean lists are also delivered faster, because the server doesn't spend time retrying bad addresses). The main disadvantage of "double" opt-in lists is that many people may not understand your confirmation message or may not want to go through the extra step. Some Email Marketing companies consider the percentage of people who fail to confirm to be as high as 50%. All things considered, we strongly recommend the "double" opt-in approach. It is not only the most ethical way to create a list, but the one that builds more valuable memberships. Also, with the current 125 increase of anti-spam legislation, double confirmation may soon become the only safeguard against being blacklisted by antispam organizations. Finally, a couple of suggestions on Opt-In Email Marketing etiquette: Always include a short line of text at the beginning of the message reminding your readers that they are receiving your email because they subscribed to your mailing list. This is important because we receive so much email these days that we may easily forget that we have subscribed to any particular list. Always include clear and easy-to-follow instructions to unsubscribe. You must not make your subscribers jump through hoops if they want to stop receiving your messages. You must either include an "unsubscribe link" (which most mailing list hosts will provide) or a "mailto link" where readers can send a blank message to unsubscribe. The Top Ten Tips for Designing Pretty Email 1) Think readability It might be pretty, but if the reader can't see it, you've defeated your purpose. Red fonts against a pink background to advertise your Valentine's Day sale -POOR idea! 2) Minimize the glare A recently received email contained turquoise fonts covered with a lime green highlight. Ouch! 3) Use images sparingly These images are bandwidth hogs. They take up much more bandwidth (and hence increase the download time) than text emails. If you're going to use images, make sure they are small -- both in dimensions and in the total number of bytes. 4) Be original A lot of business email messages are arriving with Outlook Express packaged stationery used for the background. "Ivy" and "Tiki Express" appear to be particular favorites. Using these pre-packaged backgrounds sends the message that you are inexperienced, and that's not the message you want to send. If you plan on using stationery, create your own. Outlook allows you to use images other than the ones that they have provided. 5) Avoid using all capitals In the Internet world, writing in all-caps is called "shouting." All-caps send the message that you are inexperienced or that you are "flaming." (Flames are hostile messages that are often sent in capital letters to indicate the sender's anger.) Moreover, messages sent in all capitals are difficult to read -- especially brightly coloured messages against an even brighter coloured background! 6) Use short lines of 55-66 characters Email messages that stretch the width of the screen are difficult to read and unpleasant to view. Remember that the email will display differently on the recipient's computer than it does on yours. For example, Eudora Pro allows you to choose the size of your email-viewing window. When you create a message, you will see it in whatever size window you have set up. BUT your recipient is likely to be using different software or to have the windows set at a different size. Most email software has a feature that allows you to wrap the text at approximately 55-66 characters. By wrapping, you know how wide your email will be when others receive it. 7) Use standard fonts that are installed on most computers 126 That wonderful font that you downloaded from FreeStuff.com will display nicely on your computer. However, the recipient's computer will discern that your great freebie font is not installed, and it will substitute another. To be sure you know what your message will look like when opened, play it safe with choices like Times, Times New Roman and Arial. 8) No unsolicited email attachments. Ever. Please 9) Take advantage of HTML's stronger functions For example, if you are publishing a newsletter, put a Table of Contents near the top. Use bookmarks so readers can click on an item in your TOC and jump directly to the linked spot in your newsletter. 10) Use white (or background) space appropriately Spaces between headings, between paragraphs and between images will make it easier for the eye to assimilate the content. However, be cautious of too much white space or white space that is unsymmetrical. To get a feel for appropriate use of white space, take a look at well-designed web sites. Notice how spacing can enhance readability. Case study Hamleys reaches new customers using the Internet Hamleys toy shop in London’s Regent Street seems quintessentially British, so it may come as a surprise to learn that the majority of the sales from its website are to the US. This is not an accident, however. The content and appearance of the shop’s e-commerce site have been carefully designed to attract a very particular kind of customer: those who have the money to spend on expensive toys, but little time to visit toy shops. While its London store stocks approximately 40,000 toys, the site offers only a small fraction of that number. There are already numerous toyshops online offering cheap, plentiful toys aimed at the mass market. Hamleys wanted to differentiate itself, so it called in Equire, an e-commerce company specialising in designing and hosting websites for retailers of luxury items, including Links of London and jewellers Van Peterson. Hamleys and Equire decided to use the website to sell goods it was difficult to obtain anywhere else: Steiff bears, die-cast figures and other collectors’ items. Apart from collectors, says Pete Matthews, Equire founder and chairman, customers tend to be parents and grandparents looking for unusual gifts. An article in the New York Times before Father’s Day, for example, resulted in the site selling a large number of gold-plated models of the James Bond Aston Martin. Because the brand name is crucial to the kind of customers Hamleys wants to attract, the look of the site (www.hamleys.com) is also distinctive, with numerous graphics and animations, a prominent Hamleys logo on each page and menu options with names such as Collectables, Exclusive and Executive. As well as designing and hosting the website, Equire manages all other aspects of the e-commerce operation, including holding the stock in its warehouse, taking care of orders and delivery, and running the customer care centre. Its financial arrangement with Hamleys is unusual: instead of charging a large fee for hosting the site, it charges a smaller fee and takes a cut of the revenue. The idea is that it has a stake in making sure the site works, giving the customer confidence that it will do the job well. It also means a smaller investment for the customer. 127 "The typical cost of implementing an infrastructure like ours would be in the many millions of dollars. Typically, Equire’s customers don’t contribute anything like that," says Mr Matthews. Because of the site’s target customers, speed of delivery is important. Some ecommerce sites have become notorious for not being able to fulfil orders quickly or efficiently. But Mr Matthews says most of the US orders are delivered within three days - and many in fewer than that. The Hamleys site uses the Broadvision ecommerce platform, which is integrated with the call centre, the fulfilment centre and Equire’s despatch partners, who allow online tracking of every parcel. "When an order comes in, it automatically informs the customer-care centre. At the same time, it tells the fulfilment centre an order has come in and needs to go out today. It gets picked, packed, gift-wrapped and despatched and is then tracked throughout its life via our despatch partners, UPS and Parcelforce," says Mr Matthews. Returns are low - less than two per cent. no depreciation or amortisation to consider, while we deliver them net incremental revenue, and we help to build brand franchise outside their immediate geography”. Source Financial Times (2000b) HAMLEYS: Where to buy a gold-plated model of James Bond’s Aston Martin. Financial Times; http://www.ft.com/ftsurveys/spbf9a.htm, By Kim Thomas Recently, Hamleys has announced a drop in profits. Part of its plan for drawing in more revenue is to expand the website to include a wider range of toys: 50 per cent of calls and e-mails to the customer care centre are inquiries about toys not stocked on the site. Instead of simply increasing sales to existing customers, the site has given Hamleys the opportunity to attract many new customers who, according to Mr Matthews, spend more on an average visit to the site than visitors to the London shop. Other planned improvements include greater emphasis on "personalisation", so that customers will be guided to their particular interests. Mr Matthews believes his company has a model that works. "Over a period of five years, we’re able to deliver a very healthy net margin, their revenues flow to the bottom line, they have 128 Risk and Portfolio management and optimization Slim GHORBEL Faculté des Sciences économiques et de gestion de Sfax, FSEG Sfax, Tunisie 129 Asset pricing theory includes the valuation of a wide range of financial assets and derivative securities. Modern financial theory is based on some standard assumptions regarding markets and investors. The theory has had an impact on the development of financial markets. Portfolio theory refers to the work of Markowitz (1952) on portfolio selection. Investors prefer to increase their wealth and to minimize the risk linked with the potential gain. It is not possible to obtain the maximum expected return and the minimum variance. The limitations of the standard portfolio theory and mainly its restrictive assumptions, lead to the extensions of the theory in several direction. The expected return from the investment can be computed as a weighted average of each uncertain return by its corresponding probability : n ∑ Pi Ri = 10,67%. E(R) = i =1 The variance is computed as the deviations around the mean : n σ2 = ∑ Pi[[Ri-E(R)]2]. i =1 Table 2 shows the procedure for the computation of the variance of returns in this context. Table 2 : Computing the variance I. The mean-variance framework The mean-variance framework refers to a risk-return trade-off. Table 1 shows an uncertain return and its corresponding probability. Table 1 : The probable results of the investment Rate of return R1 = 6% R2 = 8% R3 = 10% R4 = 12% R5 = 14% R6 = 16% Total Probability Pi Probability in %, Pi P1 = 1/12 8,33 P2 = 2/12 16,66 P3 = 4/12 33,33 P4 = 3/12 25 P5 = 1/12 8,33 P6 = 1/12 8,33 ∑ i =1 Pi = 1 ∑ i =1 Pi 1/12 2/12 4/12 3/12 1/12 1/12 Ri 6.00 8.00 10.00 12.00 14.00 16.00 E(R) 10.67 10.67 10.67 10.67 10.67 10.67 (Ri-E(R))2 21.78 7.11 0.44 1.78 11.11 28.44 Pi×(Ri-E(R))2 1.81 1.19 0.15 0.44 0.93 2.37 Hence σ2 = 6.89 (%) A. Risk and definitions return : some Risk is often defined as the deviations of the expected return with respect to the mean return. Pi = 100% Example : The variance for a portfolio with N assets When there are N assets, the matrix can be written as in Table 3. The sum of the probabilities equals one. m ∑ Pi = P1 + P2 + P3 + P4 + P5 + P6 = i =1 1/12 + 2/12 + 4/12 + 3/12 + 1/12 + 1/12 = 1 130 Table 3 : The variance-covariance matrix for N assets Action 1 2 3 4 . . N 1 X 2 2 1 1 X X 2 1 Cov(R ,R ) 2 1 X X 3 1 Cov(R ,R ) 3 1 X X 4 1 Cov(R ,R ) 4 1 . . X X N 1 Cov(R ,R ) N 1 2 3 4 ... N X X 1 2 Cov(R ,R ) 1 2 X X 1 3 Cov(R ,R ) 1 3 X X 2 3 Cov(R ,R ) 2 3 X X 1 4 Cov(R ,R ) 1 4 X X 2 4 Cov(R ,R ) 2 4 X X 3 4 Cov(R ,R ) 3 4 ... X X 1 N Cov(R ,R ) 1 N X X 2 N Cov(R ,R ) 2 N X X 3 N Cov(R ,R ) 3 N X X 4 N Cov(R ,R ) 4 N . . X 2 2 2 2 X X 3 2 Cov(R ,R ) 3 2 X X 4 2 Cov(R ,R ) 4 2 . . X X N 2 Cov(R ,R ) N 2 X 2 2 3 3 X X 4 3 Cov(R ,R ) 4 3 . . X X N 3 Cov(R ,R ) N 3 For example, when i = 3, j = 4, X4X3 and X3,X4 correspond to the fraction of the portfolio invested in the assets 3 and 4. The matrix is symmetric, i.e, XiXjCov(Ri,Rj) is equal to XjXi Cov(Rj,Ri). For a matrix with N elements in rows and columns, ... 2 4 ... . . X X N 4 Cov(R ,R ) N 4 . . ... X 2 4 X 2 N 2 N where ρAB is the correlation coefficient between A and B. When the two assets are perfectly correlated, ρAB = 1, and the variance of the portfolio is : σ 2p = X 2A σ 2A + X 2B σ 2B + 2X A X B σ A σ B 2 NxN = N . The number of variance terms is N on the diagonal. The number of covariance terms is N2-N. B. Portfolio selection and portfolio optimisation Portfolio theory is based on the concepts of risk and return. Consider a portfolio with a proportion XA of asset A and XB of asset B, with : RA < RB, σA < σB, XA + XB = 1. The expected return E P = X A R A + X B RB is : The is : variance σ 2p = X 2A σ 2A + X 2B σ 2B + 2X A X Bρ ABσ A σ B Or : σ 2p = (X A σ A + X B σ B ) 2 The standard deviation is : σp = XAσA + XBσB Using this system for different values of ρAB in the interval (-1,1), it is possible to generate point by point all the curves reflecting the relationships between the pairs (Rp,σp) of a portfolio. Consider the pairs (Rp,σp). There is a rate at which the investor can gain expected return by taking on variance, or reduce variance by giving up expected return”. For the case of a portfolio with two assets A and B where A is the risk-less asset, the expected return and the variance : RP = X A R A + X B RB 131 Risk Non systematic risk (diversifiable) σ 2p = X 2A σ 2A + X 2B σ 2B + 2X A X Bρ ABσ A σ B RP = X A R A + X B RB become and σ 2p = X 2B σ 2B Systematic risk Number of stocks When a riskless asset is used, it is possible to determine the “best” combination between the riskless asset and point C on the efficient frontier. Consider a portfolio comprising N assets in equivalent proportions (1/N). The assets have the same variance Var and covariance Cov. Ep In this case, the matrix for the variance of this portfolio is given in Table 4. C RF Table 4. Variance-covariance matrix of a portfolio with N assets B σp Action Figure 1. Introduction of a risk-free asset 1 Point C dominates all the other portfolios on the efficient frontier. It is often referred to as the market portfolio, M. The expected return and the variance of the market portfolio can be written as : 2 E (RM) = N 3 4 M . . i=2 N ∑ X iM E (Ri) and σ2(M) = N ∑ ∑ X iM X M j σi σj ρi,j i = 2 j= 2 M M With : X M 2 + X 3 + ... + X N = 1 C. Systematic risk and diversification : an introduction The diversification principle is based on a relationship between risk and the number of stocks to be included in a portfolio. The idea is illustrated in Figure 2. Figure 2 : Diversification principal 1 (1/N)2 Var (1/N)2 Cov (1/N)2 Cov (1/N)2 Cov 2 (1/N)2 Cov (1/N)2 Var (1/N)2 Cov (1/N)2 Cov 3 (1/N)2 Cov (1/N)2 Cov (1/N)2 Var (1/N)2 Cov N ... ... (1/N)2 Cov (1/N)2 Cov (1/N)2 Cov (1/N)2 Cov ... ... ... ... (1/N)2 Cov (1/N)2 Cov (1/N)2 Cov ... (1/N)2 Var For higher values of N, the total variance of a portfolio tends toward its covariance. Since there are N terms on the principal diagonal and N(N -1) covariance terms, the variance can be written as : Variance of a portfolio = N (1/N2)var + N(N-1) (1/N2) cov or : Variance of a portfolio = (1/N) var + [(N2N)/N2] cov or : Variance of a portfolio = (1/N) var + [1(1/N)] cov 132 When N tends to infinity, (1/N) approaches zero and (1 - (1/N)) becomes one. Hence, the variance is eliminated and only remain the covariance terms in the appreciation of the portfolio risk. This is the diversification principle. When investors hold the market portfolio, the contribution of each asset to the risk of a portfolio can be easily determined as in Table 5. Table 5. Variance-covariance matrix of the market portfolio Stock 1 2 3 4 . . N 1 2 2 1 1 X σ X X 2 1 Cov(R ,R ) 2 1 X X 3 1 Cov(R ,R ) 3 1 X X 4 1 Cov(R ,R ) 4 1 . . X X N 1 Cov(R ,R ) N 1 2 3 4 ... N X X 1 2 Cov(R ,R ) 1 2 X X 1 3 Cov(R ,R ) 1 3 X X 2 3 Cov(R ,R ) 2 3 X X 1 4 Cov(R ,R ) 1 4 X X 2 4 Cov(R ,R ) 2 4 X X 3 4 Cov(R ,R ) 3 4 ... X X 1 N Cov(R ,R ) 1 N X X 2 N Cov(R ,R ) 2 N X X 3 N Cov(R ,R ) 3 N X X 4 N Cov(R ,R ) 4 N . . 2 2 2 2 X σ X X 3 2 Cov(R ,R ) 3 2 X X 4 2 Cov(R ,R ) 4 2 . . X X N 2 Cov(R ,R ) N 2 2 2 3 3 X σ X X 4 3 Cov(R ,R ) 4 3 . . X X N 3 Cov(R ,R ) N 3 The variance of a portfolio can be written n n as : σ 2p = ∑ ∑ X i X jσ ij i =1j=1 where σi,j is the covariance of i and j when i is different from j. The contribution of asset i to the risk of the market portfolio weighted by its proportion in the portfolio is given by cov(Ri,RM). Since cov(Ri,RM) = ρi,M σiσM . The term cov(Ri,RM) can be divided by the market variance to obtain a direct measure of risk, the beta of the asset as : Cov( R i , R M ) σ βi = or β i = ρ iM i 2 σM σ (R ) M Hence the contribution of an asset to the risk of the market portfolio is measured by its covariance cov(Ri,RM) with the market portfolio and its beta. 2 2 4 4 X σ . . X X N 4 Cov(R ,R ) N 4 ... ... . . ... X 2 σ2 N N II. Capital market theory and capital asset pricing model, CAPM At equilibrium, there is a simple relationship between the expected return and risk, given by the beta of an asset. If we denote by Xi and Xm the weights of the risk-less asset and the market portfolio, by Y the portfolio comprising the market portfolio M and an asset i, then the expected return and variance of this portfolio are given by : E(RY) = Xi Ri + XM RM σ2(RY) = X i2 σ i2 + X 2M σ 2M + 2 Xi XM ρiM σi σM Xi + XM = 1 where : 133 • ρiM : the correlation coefficient • • between asset i and portfolio M, σM : standard deviation of M, Ri : expected return for asset i, • RM : expected return for the portfolio M, In equilibrium, we have : Ri = RA + σi σM ρi,M 2 RA)/σ Μ straight line from the risk free rate. The efficient portfolio can be determined by maximizing the following objective function : F = R p − R F σp ( under the constraint : This is the security market line. This linear relationship applies to all assets (efficient or non efficient). The main difference between the capital market line CML and the security market line SML is that the slope of the CML is given by :(RM - RA)/σM When there is a risk free rate in the economy, the relationship between the expected return and risk for a given asset is given by Ri - RF = βi [RM - Rf] 2 with : βi = σi σM ρi,M//σM where RF is the risk free rate and βi is a measure of risk for asset i. N ∑x i =1 i =1 ⎞ ⎛ N R F = ⎜ ∑ x i ⎟R F , the ⎝ i =1 ⎠ solution can be found using the Lagrange multiplier or by substituting the constraint into the objective function. Since (RM - ) R F = 1, Replacing R p, R F et σp into the objective function gives : ⎡ ⎤ N N N ⎢⎛ N 2 2 ⎞ ⎥ F = ∑ xi R i − R F ⎢ ⎜ ∑ xi σi ⎟ + ∑ ∑ xi x jσij ⎥ i =1 ⎠ i =1 j =1 ⎢ ⎝ i =1 ⎥ j≠ i ⎣ ⎦ ( ) The maximization of this function requires the partial derivatives to be zero or : ∂F δx1 = 0 , ∂F δx 2 = 0 , ∂F δx3 = 0 , . III. Portfolio optimization : General Techniques for the derivation of the efficient frontier This section shows how to obtain the efficient frontier in different contexts. A. The efficient frontier when investors can borrow and lend without short selling restrictions This is a very easy case. When short selling is allowed and there is a risk free asset in the economy, there is a risky portfolio which is preferred to the other portfolios. The efficient frontier corresponds to the tangency point of the . ∂F δx N = 0 , B. The efficient frontier when investors can borrow and lend in the presence of short selling restrictions In this case, we face the same problem, except the fact that the weights must be positive. The maximization problem becomes : ( ) F = R p − R F σp 134 − 0.5 under the constraint : N ∑x i =1 i =1 xi ≥ 0 Since the variance has terms in x2 and products xi xj, the solution can be found using the Kuhn-Tucker conditions. C. The efficient frontier when investors are not allowed to borrow and lend at the risk free rate in the presence of short selling restrictions In this case, we face the following maximization problem : F = ∑ x i σi + 2 2 N N ∑∑xxσ i =1 j =1 i j ij i≠ j under the constraint : N ∑x i =1 N i =1 ∑xR i =1 i i = Rp x i ≥ 0 for i = 1 …N The efficient frontier can be determined by varying Rp between the return on the minimum variance portfolio and the return on the portfolio with the maximum variance. Conclusion Markowitz (1952) shows how an investor should divide wealth between risky assets and a riskless asset. He shows that “ the proportionate composition of the non-cash assets is independent of their aggregate share of the investment balance. This fact makes it possible to describe the investor’s decisions as if there was a single non-cash asset, a composite formed by combining the multitude of actual non-cash assets in fixed proportions”. Tobin’s separation theorem shows that the allocation between risky assets and the riskless asset (the asset mix) should reflect the degree of risk aversion or risk tolerance of the investor. In equilibrium, the optimal portfolio should be independent of the risk preferences. Sharpe (1963) develops a simplified model for portfolio analysis by observing that stocks are likely to co-move with the market. The contributions of Markowitz and Sharpe were honored by the first Nobel Prize in financial economics in 1991. In 1997, Black, Scholes and Merton obtain the Nobel prize for their work on the pricing of derivative assets. Sharpe (1964) shows that “through diversification, some of the risk inherent in an asset can be avoided so that its total risk is obviously not the relevant influence on its price ...” Sharpe (1964) paper on the capital asset pricing model was supplemented by contributions from Lintner (1965). References Lintner, J., (1965), "Security Prices, Risk and Maximal gains from Diversification.", Journal of Finance, [1965], 587-516. Markowitz H.M., (1952), « Portfolio Selection», Journal of Finance, Vol 7, N 1, 77-91 Sharpe W., (1963), "A Simplified Model for Portfolio Analysis", Management Science 10, 277-93. Sharpe WF., (1964), "Capital asset prices: A theory of market equilibrium under conditions of risk", Journal of Finance 19, 425-44 135 Appendix 1 : Tables Appendix 2 : The partial derivatives are computed as follows. In fact, since F is of the form : N ( F = ( f )( g ) = ( f )( a + b )n f = ∑ xi R i − R F i =1 N ) 2 2 a = ∑ xi σi i =1 N N b = ∑ ∑ xix jσij i =1 j =1 j≠ i Recall that the partial derivative of ( f )( g ) = f' g + g' f and that of ( a + b )n = ( n − 1 )( a + b ) ( a + b )' where ‘ denotes the derivative. n −1 The partial derivative with respect to a given k is easy to find by considering all the other terms as constants : ( f' = R k − R F ) −3 ⎤2 ⎡ N N ⎥ ⎢N 2 2 g' = ( − 0.5 )⎢ ∑ xi σi + ∑ ∑ xi x jσij ⎥ i =1 j =1 ⎥ ⎢ i =1 j≠ i ⎦ ⎣ N ⎡ ⎤ 2 σ + σ 2 x 2 x ∑ ⎢ k k j jk ⎥ j =1 ⎣ ⎦ In the derivation with respect to k, we fix in the double sum i = k : ′ ′ ⎛ ⎞ ⎞ ⎛ ⎡ ⎡ ⎤ ⎤ ⎜ N ⎟ ⎜ ⎢ N ⎢ N ⎥ ⎥⎟ ⎜ ∑ x x σ ⎟ = ⎜x ⎢ ∑x σ ⎥⎟ = ⎢ ∑x σ ⎥ j kj k j kj ⎜⎜ j =1 k j kj ⎟⎟ j =1 ⎟⎟ ⎜⎜ ⎢ j =1 ⎢ ⎥ ⎥ ⎣ j≠ k ⎦ ⎦⎠ ⎝ ⎣ j≠ k ⎝ j≠ k ⎠ 136 When j = k, we have : ′ ′ ⎞ ⎛ ⎛ ⎡N ⎞ ⎤ ⎡N ⎤ N ⎟ ⎜ ⎜ ⎢ ⎟ ⎥ ⎢ ⎜ ∑ xi x kσik ⎟ = ⎜ x k ⎢ ∑ x kσik ⎥ ⎟ = ⎢ ∑ xiσik ⎥⎥ i =1 i =1 ⎜ ⎟ ⎟ ⎜ i =1 ⎦⎠ ⎣ i≠k ⎦ ⎝ ⎣ i≠k ⎠ ⎝ i≠k Since the indexes i and j are used only for the summation and since σik = σki , the sum of N these two last partial derivatives gives 2 ∑ x jσ jk . The partial derivative of F with respect to j =1 j≠ k a given k is : ⎡ N ⎡ N ⎤ 2 2 ∂F ∂x k = ⎢ ∑ x i R i − R F ⎥( − 0.5 )⎢ ∑ x i σi + ⎢ i =1 ⎣ i =1 ⎦ ⎣⎢ ( ) −3 ⎤2⎡ ⎤ N N N ⎥ ⎢ 2x σ 2 + 2 ⎥+ σ σ x x x ∑ ∑ ∑ k k j jk ⎥ i j ij ⎥ ⎢ j =1 i =1 j =1 j≠ k j≠ i ⎦⎥ ⎣⎢ ⎦⎥ ( ⎡ N 2 2 R k − R F ⎢ ∑ x i σi + ⎢ i =1 ⎢⎣ ) ⎤ x i x jσij ⎥ ∑ ∑ ⎥ i =1 j =1 ⎥⎦ j≠ i N −0.5 N Multiplying this equality by the term : ⎡ N ⎛ N N ⎞⎤ ⎜ ⎟ 2 2 ⎞ ⎢⎛ x i σi ⎟ + ⎜ ∑ ∑ x i x jσij ⎟ ⎥ ⎜ ∑ ⎢ ⎝ i =1 ⎠ ⎜ i =1 j =1 ⎟ ⎥⎥ ⎢⎣ j≠ i ⎝ ⎠⎦ 0.5 and denote by γ: γ = (R p − RF ) ⎡N ⎤ σ = ⎢∑ xi (Ri − RF )⎥ ⎣ i =1 ⎦ 2 p ⎤ ⎡N N N ⎢ x 2σ 2 + xi x j σ ij ⎥⎥ ∑∑ i i ⎢∑ i =1 j =1 ⎥⎦ ⎢⎣ i =1 j ≠i we have : N ⎡ ⎤ − ⎢γx k σ k2 − ∑ λx j σ kj ⎥ + (Rk − RF ) = 0 j =1 ⎣ ⎦ 137 Hence, the partial derivative of F with respect to xi gives : [ ] ∂F ∂xi = − γxiσ 1i + γxiσ 2i + γxiσ 3i + K + γxiσ i2 + γx N −1σ N −1,i + γx N σ N ,i + (Ri − RF ) = 0 This can be written as : (R i ) 2 − R F = y1σ1i + y2σ2i + K + yiσi + K + y N −1σN −1, i + y NσN, i ( ) with yk = λ x k . Since this equation is satisfied for each asset i, the following system must be : (R (R (R ) − R ) = yσ − R ) = yσ 2 1 2 N − R F = y1σ1 + y2σ21 + y3σ13 + K + y Nσ1N F F 2 1 12 + y2σ2 + y3σ23 + K + y Nσ2N 2 1 1N + y 2σ2N + y3σ3N + K + y Nσ N Since there are N equations and N unknowns, the optimal proportion to be invested in each asset k, x k = yk N ∑ y , is given by this system. i =1 i 138 L’impact des caractéristiques des dirigeants sur la croissance de l’emploi des P.M.E. : Etat de la question et étude empirique* Prof. Frank JANSSEN Titulaire de la Chaire Brederode en développement de l’esprit d’entreprise Université Catholique de Louvain Institut d’Administration et de Gestion 1, Place des Doyens, 1348 Louvain-la-Neuve, Belgique Tél. : +32 10 47 84 28 Fax : +32 10 47 83 24 Courriel : [email protected] Résumé L’étude de l’impact des caractéristiques du dirigeant sur la croissance de son entreprise a donné lieu à de nombreuses recherches empiriques. Toutefois, la plupart de ces travaux se sont concentrés sur l’analyse d’un ou d’un nombre réduit de prédicteurs. En outre, aucune recherche n’a répertorié de manière exhaustive l’ensemble des variables précédemment étudiées. Nous avons cherché à combler cette lacune et avons testé sur un échantillon de P.M.E. belges l’influence potentielle sur la croissance de l’emploi de 28 variables. Nous avons regroupé ces variables en 5 sous-catégories : les traits du dirigeant, son expertise et ses origines familiales, ses motivations, ses caractéristiques démographiques et la présence d’une équipe de dirigeants. Nos résultats montrent que la croissance de l’emploi au sein des P.M.E. est uniquement influencée par certaines variables liées à deux sous-groupes, à savoir l’expertise du dirigeant et ses caractéristiques démographiques. Ses caractéristiques psychologiques, ses motivations et la présence d’une équipe de dirigeants n’exercent aucun impact significatif sur les chances de croissance de l’emploi de l’échantillon de P.M.E. que nous avons étudiées. Abstract Many empirical studies have been dedicated to the impact of the manager’s characteristics on his firm’s growth. However, most of these studies have focused on one or a few predictors. Besides, no research has exhaustively listed the variables studied in former studies. We have tried to fill this gap and have tested on a sample of Belgian SMEs the potential impact on employment growth of 28 variables. We have classified our variables in five sub-classes : traits, expertise and family origins, motivations, demographic characteristics and the presence of a team. Our results show that workforce growth is only influenced by variables belonging to 2 sub-groups, i.e. expertise and demographic characteristics. The psychological characteristics of the manager, his motivations and the presence of a team of managers have no significant impact on the employment growth of the sample of SMEs we have studied. * Cette étude a été réalisée grâce au soutien financier de la BBL (Groupe ING) 139 Introduction Depuis la publication en 1979 des travaux de Birch, un nombre impressionnant d’études a été consacré au rôle des P.M.E. dans la création d’emploi. Les données et la méthodologie utilisées par Birch (1979) ont soulevé un certain nombre de critiques (Armington et Odle, 1982). La plus retentissante de ces critiques fut celle d’un autre économiste américain, Bennett Harrison (1997). Outre le fait que Birch n’établirait pas de différence entre P.M.E. et filiales de grandes entreprises, Harrison estime que Birch n’aurait reconnu que tardivement que la majeure partie des emplois est créée par une infime partie des entreprises, les entreprises en croissance. Birch constate toutefois ce phénomène dans un ouvrage paru en 1987. C’est d’ailleurs lui qui est à l’origine du terme « gazelles », communément utilisé pour désigner les entreprises à forte croissance (Birch, 1987). Plusieurs études, tant européennes qu’américaines, confirment ce phénomène. Dans une étude portant sur l’ensemble de ce qui était, à l’époque, encore appelé la Communauté Economique Européenne, Storey et Johnson (1987) constatent qu’en 12 ans, moins de 10 % des entreprises créées au début de la période croissent audelà de 20 travailleurs et moins d’1 % de celles-ci dépassent une taille de 100 salariés. Dans le même sens, une étude récente de l’OCDE (1999) démontre que, parmi les P.M.E. ayant entre 20 et 50036 employés en début de période, les entreprises dont l’emploi a doublé durant les dernières années ne représentent qu’entre 2 % et 10 % des firmes pérennes, mais ont généré entre 48 %37 et 88 38 % des nouveaux emplois créés par ce type de firmes en France, en Italie, aux PaysBas, en Espagne et au Québec. Ces tendances sont confirmées par des études 36 Entre 10 et 500 pour le Québec Italie 38 Espagne 37 portant sur l’Allemagne, la Grèce, et la Suède (Julien, 2000), l’Irlande (O’Farrel, 1984), les Etats-Unis (Dunkelberg et Cooper, 1982), le Canada (McMullan et Vesper, 1987) ou certaines régions du Royaume-Uni (Gallagher et Miller, 1991). Les entreprises à forte croissance sont donc relativement marginales (Deakins, 1996). Selon Starbuck (1965), la croissance n’est pas un phénomène spontané ni aléatoire, mais bien la conséquence d’une décision : la décision d’embaucher et/ou de ne pas licencier, la décision d’accroître l’output en réponse à un accroissement de la demande ou encore la décision de stimuler la demande. Il souligne que la croissance peut être un objectif en soi. Elle peut constituer un étalon de la réussite du dirigeant et de l’entreprise, ainsi que des « progrès » réalisés par cette dernière. La majorité des dirigeants de P.M.E. n’intègre toutefois pas la croissance parmi ses objectifs (Kolvereid, 1992 ; Davidsson, 1989 ; Hakim, 1989 ; Gibb et Scott, 1986 ; Chell, 1986). Au-delà d’une certaine taille, parfois appelée « stade de confort » (Perry, 1987), il deviendra, par exemple, impossible pour le dirigeant de contrôler directement l’ensemble des tâches effectuées au sein de l’entreprise. La croissance a été mesurée sur base d’un nombre impressionnant de variables, les deux indicateurs les plus largement utilisés par la littérature étant l’emploi et les ventes. Nous avons choisi de limiter cette communication à l’étude de la croissance de l’emploi. Outre le fait qu’elle soit une mesure de la croissance économique (Kirchoff, 1991), pour l’entrepreneur, elle peut constituer un indicateur de son succès et, pour la société dans son ensemble, elle est une mesure de la contribution économique de la firme au bien-être commun (Dunkelberg et Cooper, 1982). C’est pourquoi ce critère a été utilisé par de nombreux économistes et sociologues, 140 bien qu’au sein des entreprises-mêmes, il semblerait que le succès soit plus mesuré en termes de croissance des ventes (Hughes, 1998 ; Donckels, 1990) et que ce dernier critère ait été privilégié par les chercheurs en sciences de gestion (Weinzimmer, 1993). En outre, selon Child (1973), l’emploi est un critère adéquat pour mesurer la taille d’une organisation car ce sont avant tout des humains qui sont « organisés ». Enfin, dans la mesure où le dirigeant attendra en principe que la demande se stabilise avant de recruter du personnel, l’emploi est théoriquement une mesure moins volatile de la croissance que le critère des ventes (Delmar, 1997). Dans certains pays européens, comme la Belgique, la stabilité de ce critère est accrue par les rigidités présentes sur le marché du travail liées à une législation sociale contraignante. La croissance est parfois considérée comme la mesure de performance de l’entreprise la plus importante, la plus fiable et la plus facile d’accès (Wiklund, 1999 ; Delmar, 1997), bien que, étant donné qu’une croissance mal gérée est susceptible de conduire à la faillite, elle ne puisse pas nécessairement être considérée comme telle (St-Pierre, 1999). La croissance étant un phénomène complexe et multidimensionnel (Weinzimmer, 1993), il va de soi qu’une approche de type purement interne, se limitant à l’impact des ressources et, en particulier, aux déterminants liés au dirigeant, néglige le potentiel de prédiction des variables liées à l’entreprise, aux stratégies développées, à l’environnement et aux interactions entre ces différents types de variables (Janssen, 2002). Toutefois, dans le cadre restreint de cette communication, nous avons choisi de nous concentrer sur l’influence des facteurs relatifs au dirigeant39. Lorsqu’on les interroge sur les facteurs de succès d’une firme, les sociétés de capital à risque, les « business angels » et les 39 Pour l’analyse d’un modèle causal complet de la croissance, voir Janssen, 2002 dirigeants eux-mêmes estiment que l’entrepreneur est l’élément explicatif principal de la performance d’une entreprise (Herron et Robinson, 1993). Cette opinion est partagée par certains chercheurs tels que Sandberg (1986). L’analyse des relations entre les caractéristiques du dirigeant et la croissance de son entreprise a déjà donné lieu à de nombreuses études empiriques. Toutefois, la grande majorité des recherches sur la croissance s’est contentée d’étudier l’impact d’un nombre limité de variables. En outre, l’ancrage théorique de la plupart de ces travaux est relativement faible. Le concept-même de croissance n’y est que rarement fondé théoriquement. Ces recherches présentent un caractère hautement fragmenté accentué par une trop grande attention accordée au secteur manufacturier, par une importante hétérogénéité en termes de période de temps étudiée et d’opérationalisation de la mesure de la croissance. L’on peut en outre regretter qu’à l’exception de scientifiques suédois et surtout britanniques, peu de chercheurs européens se soient intéressés à cette problématique. Plusieurs auteurs (Grinyer et al., 1988 ; Miller Friesen, 1984) estiment qu’il est nécessaire de tester simultanément l’impact d’un grand nombre de variables afin d’aboutir à une image plus complète et réaliste du phénomène de croissance. A notre connaissance, aucune recherche n’a tenté de répertorier de manière exhaustive l’ensemble des variables indépendantes examinées par les études antérieures.Au départ d’un « état de l’art » de la recherche sur les déterminants de la croissance liés au dirigeant, nous avons développé 28 hypothèses. Ces hypothèses reprennent l’ensemble des déterminants que nous avons identifiés au sein de la littérature sur la croissance, ainsi qu’un certain nombre d’hypothèses originales issues de travaux théoriques. Plutôt que de porter des jugements de valeur sur l’importance relative de l’une ou l’autre variable, qui nous auraient conduits 141 à ne retenir qu’un nombre plus limité d’hypothèses, nous avons préféré tester l’ensemble de celles-ci, certains travaux empiriques récents ayant démontré l’importance surprenante que peuvent revêtir des facteurs qui, a priori, pourraient sembler mineurs (voir, par exemple, Gartner et Bhat, 2000). Ces hypothèses ont été testées sur un échantillon de P.M.E. belges. Les P.M.E. étant souvent caractérisées par une interpénétration entre les dirigeants et leur firme (Janssen, 1998), le pouvoir de décision stratégique y est fréquemment concentré entre les mains du ou des dirigeants (Dromby, 2000). Les déterminants relatifs aux dirigeants sont donc plus susceptibles d’avoir un impact sur la croissance d’une P.M.E. que sur celle d’une entreprise de plus grande taille. C’est pourquoi nous avons limité notre recherche à ce type d’entreprise. I. Les déterminants liés au dirigeant d’entreprise Nous avons classé les déterminants de la croissance relatifs aux caractéristiques du dirigeant en 5 groupes : les caractéristiques psychologiques du dirigeant, son expertise et son historique familial, ses motivations, ses caractéristiques démographiques et la présence d’une équipe de dirigeants. A. Les caractéristiques psychologiques Les recherches sur le lien entre les caractéristiques psychologiques du dirigeant et la croissance de son entreprise trouvent leur source dans des études antérieures portant sur les « traits »40 qui permettraient de différencier les entrepreneurs des autres groupes professionnels. 40 Les traits peuvent être définis comme étant les caractéristiques durables de la personnalité qui se manifestent par un comportement relativement constant face à une grande variété de situations (Herron et Robinson, 1993). Ces recherches ont, par exemple, visé à démontrer qu’une des caractéristiques principales du comportement entrepreneurial réside dans le besoin d’accomplissement, c’est-à-dire le besoin d’exceller et de réaliser un certain but dans un objectif d’accomplissement personnel (McClelland, 1961). A ce jour, il n’a cependant pas été démontré qu’il existerait une relation causale entre un important besoin d’accomplissement et le fait de diriger et posséder une entreprise (Brockhaus, 1982). En ce qui concerne la croissance, Murray et al. (1995) ont constaté que les dirigeants d’une entreprise en phase de croissance ont un besoin de réalisation plus semblable à celui des managers de grandes entreprises qu’à celui des créateurs d’entreprises. Une étude de Miller et Toulouse (1986) portant sur un échantillon de 97 P.M.E. québécoises n’observe aucun lien entre le besoin de réalisation et la performance des entreprises, mesurée à la fois subjectivement par rapport à la performance moyenne de l’industrie et objectivement sous la forme de la croissance des ventes, des revenus nets et du ROI. Une autre caractéristique psychologique mise en avant par la recherche a trait au lieu de contrôle du destin, concept issu d’une théorie développée par Rotter dans les années 60 (Rotter, 1966). L’entrepreneur aurait un lieu de contrôle de son destin interne, c’est-à-dire qu’il percevrait les conséquences de ses actions comme dépendantes de son propre comportement. Les travaux empiriques visant à valider cette théorie n’ont toutefois pu établir qu’une corrélation positive modeste entre ce trait et l’entrepreneur (Perry et al., 1986 ; Brockhaus, 1982) ou ont conclu à une absence de relation entre ces variables (Hull et al., 1980). Miller et Toulouse (1986) observent toutefois une relation positive entre ce trait et la performance de l’entreprise, mais contingenté en fonction de l’environnement dans lequel se trouve la firme. Kalleberg et Leicht (1991) 142 constatent, eux, une absence de lien entre la croissance et le fait que l’entrepreneur ait un lieu de contrôle de son destin interne41. De nombreuses recherches ont également été menées afin de déterminer si la propension à prendre des risques peut être considérée comme l'une des caractéristiques fondamentales de l'entrepreneur (Brockhaus, 1982). Force est de constater que les auteurs sont loin d’être unanimes quant à cette notion (Timmons et al., 1985; Hull et al., 1980). Gasse (1987) relève que certains la rejettent purement et simplement, que d’autres estiment que l’entrepreneur prendrait des risques modérés, tandis que d’autres encore estiment que la propension à prendre des risques est l’essence même de l’activité entrepreneuriale. En ce qui concerne la croissance, Siegel et al. (1993) constatent une absence de relation entre cette dernière et la volonté de prise de risques. D’autres encore se sont penchés sur le lien entre la croissance et la flexibilité du caractère du dirigeant ou son QI (Delmar, 1996 ; Miller et Toulouse; 1986), sans aboutir à des résultats tranchés. L’analyse des traits de l’entrepreneur a donné lieu à des résultats équivoques ne permettant pas d’isoler avec certitude les caractéristiques psychologiques qui permettraient de distinguer les entrepreneurs susceptibles de mieux réussir que les autres (Chell, 1985). De même, les recherches relatives à l’impact des traits de personnalité sur la croissance n’ont, à ce jour, pas révélé de relation significative entre ces variables (Snuif et Zwart, 1994). Delmar (1996) souligne que ces traits ne permettent d’expliquer qu’une partie mineure des différences de performance 41 Un sentiment de confiance globale dans le chef du dirigeant semble également stimuler la croissance, au contraire d’une volonté de sécurité et de protection (Ivanaj et Géhin, 1997). Une étude plus ancienne observe toutefois une absence d’influence sur la croissance du degré de confiance exprimé par le dirigeant (Kalleberg et Leicht, 1991). entre entreprises. Cet auteur attribue le caractère décevant de ces résultats à des problèmes tant théoriques que méthodologiques. Premièrement, les tenants de cette école n’ont pas été capables d’aboutir à un consensus quant à l’importance des nombreux traits étudiés, ni quant à la façon dont ils varient en fonction des situations. Deuxièmement, ces chercheurs postulent généralement que les caractéristiques de l’entrepreneur et de son environnement sont stables. Or, l’environnement est changeant et les traits seuls ne permettent pas d’expliquer un comportement entrepreneurial. Enfin, les méthodologies utilisées sont dépassées au vu de la psychologie moderne. Ainsi, par exemple, la personnalité d’un individu n’est plus mesurée de manière unidimensionnelle. La recherche de Miller et Toulouse (1986) ayant toutefois conclu à une relation ténue, mais positive, entre la performance et un lieu de contrôle du destin interne, nous retiendrons cette variable et testerons l’hypothèse suivante : Hypothèse 1 : la croissance est positivement influencée par un lieu de contrôle du destin interne dans le chef du dirigeant B. L’expertise du dirigeant et son historique familial En dehors des traits, les chercheurs en entrepreneuriat ont étudié d’autres facteurs incubateurs du comportement entrepreneurial chez un individu, tels que l'expérience professionnelle, le système scolaire ou le contexte familial. Au-delà de son influence sur l’entrepreneuriat au sens large, de nombreux auteurs se sont attachés à rechercher l’impact de l’expertise du dirigeant sur le développement de son entreprise. Cette expertise du dirigeant peut résulter d’une expérience fonctionnelle antérieure, d’une expérience de création d’entreprise ou en tant qu’indépendant, d’une 143 connaissance du secteur dans lequel opère l’entreprise, ou provenir de connaissances acquises dans le cadre de ses études ou au sein de sa famille. Hypothèse 2 : la croissance est positivement influencée par une expérience antérieure de management ou de supervision Selon Gasse (1982), l’impact de l’expérience de l’entrepreneur peut être positif ou négatif. L’expérience peut aider le dirigeant à éviter ou à solutionner plus facilement des problèmes rencontrés antérieurement. Elle pourrait toutefois également inhiber sa créativité et son degré d’adaptabilité en le poussant à se raccrocher à des solutions ayant fait leurs preuves dans le passé. Or, un style de management conservateur, qui se limite aux produits et aux approches managériales qui ont déjà fait leur preuve, inhibe la croissance (Grinyer et al., 1988). Hypothèse 3 : la croissance est positivement influencée par une expérience antérieure dans le domaine du marketing, de la vente ou de la R&D L’expérience fonctionnelle antérieure permet en principe le développement d’une expertise susceptible de favoriser la croissance. Il ressort de certaines études empiriques qu’une expérience antérieure de management (Storey et al., 1989) ou de supervision (Dunkelberg et Cooper, 1982) a un impact positif sur la croissance de l’entreprise. Une expérience antérieure dans le domaine du marketing semble également stimuler la croissance (Storey, 1994). Des fonctions liées à l’output, c’està-dire dans le domaine du marketing, de la vente ou de la R&D sont, en effet, supposées mettre l’accent sur la croissance (Hambrick et Mason, 1984). Nous présumons que le fait que le dirigeant ait précédemment travaillé dans la consultance lui procure également une certaine expertise dans un grand nombre de domaines de gestion susceptible d’accroître le développement de son entreprise. Par contre, le fait que le dirigeant soit issu d’un institut d’enseignement supérieur semble inhiber la croissance (Westhead, 1995). Bien que l’influence de l’expérience fonctionnelle antérieure ne soit pas confirmée par l’ensemble des chercheurs (Brush et Changati, 1998; Dunkelberg et Cooper, 1982), nous formulons l’hypothèse d’un lien positif entre ces variables. Hypothèse 4 : la croissance est positivement influencée par une expérience antérieure dans le domaine de la consultance Hypothèse 5 : la croissance est négativement influencée par une expérience antérieure au sein d’un institut d’enseignement supérieur La taille de l’entreprise dans laquelle était exercé l’emploi précédent peut également avoir un impact sur la croissance. Le fait d’avoir travaillé au sein d’une entreprise d’une certaine taille a pu permettre au dirigeant de se familiariser avec des techniques de gestion propices à la croissance. Westhead et Birley (1995) observent une relation positive entre le fait que le dirigeant ait précédemment travaillé dans une grande entreprise et la croissance. Plusieurs auteurs relèvent que les fondateurs de sociétés de haute technologie à forte croissance sont fréquemment issus de grandes entreprises, voire de sociétés cotées (Feeser et Willard, 1989 ; Cooper et Bruno, 1977). L’étude de Dunkelberg et Cooper (1982), par contre, constate que la taille de l’entreprise dans laquelle le dirigeant était précédemment employé ne semble pas exercer d’influence sur la croissance, si ce n’est si le dirigeant travaillait dans une entreprise de moins de 100 personnes, auquel cas l’influence sur la croissance est négative. Cette étude étant relativement isolée, nous émettons l’hypothèse d’une relation positive : 144 Hypothèse 6 : la croissance est positivement influencée par le fait que le dirigeant ait une expérience antérieure dans une grande entreprise Certains auteurs se sont interrogés sur l’influence du fait que le dirigeant ait déjà une expérience de création d’entreprise (Dahlqvist et al., 1999). Ces auteurs observent une influence positive de cette variable sur la croissance. D’autres études, par contre, ne détectent aucun impact d’une expérience de création d’entreprise antérieure dans le chef du dirigeant (Brush et Changati, 1998 ; Siegel et al., 1993). Ces recherches constatent également que le nombre d’années d’expérience professionnelle au sens large n’est pas déterminant pour la croissance. Dans le même ordre d’idées, il n’y aurait aucun lien entre le fait de posséder une expérience antérieure en tant qu’indépendant et la croissance (Kalleberg et Leicht, 1991). Afin de confirmer ou d’infirmer ces conclusions, nous testerons l’hypothèse d’une relation positive : Hypothèse 7 : la croissance est positivement influencée par une expérience antérieure de création d’entreprise Hypothèse 8 : la croissance est positivement influencée par une expérience antérieure en tant qu’indépendant Hypothèse 9 : la croissance est positivement influencée par le nombre d’années d’expérience professionnelle antérieure à la création de l’entreprise Une expertise sectorielle peut également revêtir une certaine importance. Siegel et al. (1993) constatent que la connaissance du secteur a un impact positif important sur la croissance. Des études comparatives entre des sociétés de haute technologie à forte croissance et des sociétés du même secteur ayant quitté le marché ou connu une croissance plus lente montrent aussi que les premières sont plus susceptibles d’utiliser la même technologie et de desservir les mêmes marchés que les entreprises dont sont issus les créateurs (Feeser et Willard, 1990 ; Feeser et Willard, 1989 ; Cooper et Bruno, 1977). Dunkelberg et Cooper (1982) constatent que le fait de produire le même produit ou de fournir le même service que durant l’emploi précédent a une influence positive sur la croissance. Bien que deux autres recherches concluent à une absence de lien entre l’expérience sectorielle et la croissance (Brush et Changati, 1998 ; Kalleberg et Leicht, 1991), nous testerons donc l’hypothèse d’un lien positif : Hypothèse 10 : la croissance est positivement influencée par une expérience antérieure à la création d’entreprise au sein du même secteur La relation entre le nombre d’entreprises possédées et/ou dirigées par le dirigeant et la croissance a également donné lieu à certaines recherches. Selon Storey (1994), de nombreux propriétaires-dirigeants posséderaient plus d’une entreprise. La multicréation constitue en fait un mode particulier de croissance. Westhead (1995) observe que le fait qu’un dirigeant possède et/ou dirige plus d’une entreprise a un impact négatif sur la croissance de l’entreprise isolée. Cet impact négatif peut être dû au fait qu’il consacre moins de temps à cette dernière s’il possède plusieurs entreprises. Une étude américaine confirme cette relation, mais uniquement pour les entreprises dirigées par des femmes (Kalleberg et Leicht, 1991)42. Nous émettons donc l’hypothèse d’une influence négative sur la croissance : Hypothèse 11 : la croissance d’une entreprise particulière est négativement influencée par le fait que le dirigeant possède plusieurs entreprises 42 Cette variable serait sans effet sur la croissance des firmes dirigées par des hommes. 145 Le fait que, lors de la création, le dirigeant ne se consacre pas de manière permanente à la nouvelle entreprise pourrait influencer positivement sa croissance ultérieure. En effet, selon Storey (1994c), un tel dirigeant a eu la possibilité d’évaluer ses qualités entrepreneuriales de manière peu risquée. Cette formule peut donc être considérée comme une forme d’apprentissage. direct avec les activités de l’entreprise, une formation en gestion d’entreprise ou une formation à la création d’entreprise44 contribuent au développement de celle-ci. Hypothèse 14 : la croissance est positivement influencée par le niveau d’éducation du dirigeant Hypothèse 15 : la croissance est positivement influencée par le fait que le dirigeant ait suivi des études ayant un lien avec l’activité de l’entreprise Hypothèse 12 : la croissance est positivement influencée par le fait que, lors de la création de l’entreprise, le dirigeant ait exercé d’autres activités Etrangement, l’impact d’un premier échec entrepreneurial sur la croissance d’une seconde entreprise créée par le même dirigeant n’a, à notre connaissance, pas été testé empiriquement. Pour des raisons liées à une perception négative de cette expérience ou à une prise de conscience des limites de ses aptitudes managériales dans le chef du dirigeant, on pourrait penser que ce facteur devrait influencer négativement la croissance. Inversement, cet échec pourrait également constituer un facteur d’apprentissage propice au développement d’aptitudes stimulant la croissance. Nous supposons toutefois que l’aspect inhibiteur prédominera. Hypothèse 16 : la croissance est positivement influencée par une formation en gestion Hypothèse 17 : la croissance est positivement influencée par une participation à une formation à la création d’entreprise De nombreuses recherches constatent que le niveau d’éducation du dirigeant a un impact positif sur la croissance (Julien, 2000 ; Hall, 1995 ; Westhead, 1995 ; Storey et al., 1989 ; Dunkelberg et Cooper, 1982)43. Le fait que le dirigeant soit détenteur d’un diplôme d’études supérieures, voire de diplômes complémentaires, semble stimuler la croissance de son entreprise. On peut également supposer que le type d’études poursuivies aura un impact sur la croissance. Nous émettons donc, en outre, l’hypothèse que des études ayant un lien Curieusement, l’impact de l’historique familial sur la croissance n’a retenu l’attention que de peu de chercheurs. Pourtant, l’hypothèse de l’influence d’un héritage intergénérationnel sur l’entrepreneuriat et, plus particulièrement sur la création d’entreprise, est loin d’être neuve (voir Bolton, 1971). Certaines études constatent que plus de 50 % des entrepreneurs ont un parent entrepreneur lui-même (Gasse, 1987). En ce qui concerne la croissance, on pourrait supposer qu’un dirigeant issu d’une famille comptant un ou plusieurs propriétairesdirigeants bénéficiera de l’expérience de ceux-ci et pourra compter sur un financement familial. En conséquence, on peut émettre l’hypothèse que cette variable influencera positivement la croissance (Storey, 1994). Julien (2000) observe effectivement un lien positif entre une origine familiale entrepreneuriale et la croissance. À l’inverse, la famille pourrait freiner la croissance de manière à ne pas perdre le contrôle de l’entreprise ou à éviter une prise de risques trop importante (Gibb et Davies, 1990). Nous supposons 43 44 Hypothèse 13 : la croissance est négativement influencée par un échec entrepreneurial antérieur Brush et Chaganti (1998) observent toutefois une absence de lien. Bien que Dahlqvist et al. (1999) constatent une absence de lien entre des deux variables. 146 toutefois que prédominera : le premier aspect Hypothèse 18 : la croissance est positivement influencée par une origine familiale entrepreneuriale Enfin, plusieurs auteurs ont examiné la relation entre le type de lien unissant le dirigeant au fondateur de l’entreprise, d’une part, et la croissance, d’autre part. Dunkelberg et Cooper (1982) observent que les firmes qui ont à leur tête un dirigeant ayant succédé au fondateur croissent moins que celles qui sont toujours dirigées par la première génération. Selon ces auteurs, ce phénomène pourrait être dû au fait que les dirigeants de la seconde génération ne sont pas caractérisés par la même volonté de réalisation que leurs aînés. Une étude européenne constate également un lien positif entre le fait qu’une entreprise soit dirigée par son créateur et sa croissance (Delmar, 1997). Dans le même ordre d’idées, McCarthy et al. (1993) montrent que la croissance des actifs des entreprises dirigées par leur créateur est plus importante que celles d’autres entreprises. Par ailleurs, l‘étude de Dunkelberg et Cooper (1982) constate que les firmes dirigées par des dirigeants externes ont généralement un taux de croissance assez important. Ces dirigeants sont vraisemblablement des managers professionnels. Il est généralement admis que les entreprises à forte croissance doivent faire face à une série de problèmes, comme des problèmes de délégation ou de « leadership », requérant des qualités managériales que le fondateur ne possède pas nécessairement (Willard et al., 1992 ; Hambrick et Crozier, 1985). Ces dirigeants externes sont, en principe, moins enclins à conserver un statu quo. Willard et al. (1992) ont comparé les performances d’un échantillon d’entreprises de haute technologie à forte croissance dirigées par leur fondateur à celles d’entreprises du même type gérées par des managers professionnels externes. Ils n’observent toutefois aucune différence significative entre les performances des deux catégories de firmes. Une étude multisectorielle suédoise aboutit à la même conclusion (Delmar, 1999). Sur base des résultats antérieurs, nous testerons les deux hypothèses suivantes : Hypothèse 19 : la croissance est positivement influencée par le fait que l’entreprise soit dirigée par un manager externe plutôt que par son créateur Hypothèse 20 : la croissance est négativement influencée par le fait que l’entreprise ait à sa tête un dirigeant familial ayant succédé au fondateur C. Les motivations Selon Delmar (1996), les motivations du dirigeant sont des déterminants importants de la croissance. Ces motivations peuvent être du type « pull » ou « push ». Les motivations de type « pull » sont des facteurs intrinsèques que le dirigeant contrôle, tandis que les motivations « push » sont des facteurs extrinsèques sur lesquels le dirigeant n’a que peu d’emprise (Walker et al., 1999). Plusieurs recherches révèlent l’existence d’un lien positif entre la croissance de l’entreprise et la présence d’une motivation de type « pull » ou « positive » dans le chef du dirigeant au moment de la création, telle que la perception d’une opportunité de marché (Storey et al., 1989 ; Kalleberg et Leicht, 1991), la réalisation personnelle ou la recherche d’un certain statut social (Stratos Group, 1990 ; Kolvereid, 1991). Par contre, la croissance ne serait pas influencée par des motivations pécuniaires (Davidsson, 1989). Julien (2000) observe toutefois que des objectifs de profit et de réalisation d’un défi favorisent une croissance plus forte. Plus fondamentalement, une motivation de croissance dans le chef du dirigeant semble stimuler la croissance réelle de l’entreprise (Delmar, 1999). De rares études concluent cependant à une absence de lien entre les 147 variables motivationnelles et la croissance (Dahlqvist et al., 1999 ; Brush et Changati, 1998). Dans la mesure où la majorité des études observe un lien positif entre la croissance et des motivations du type « pull », nous émettons l’hypothèse suivante : Hypothèse 21 : la croissance est positivement influencée par des motivations de type « pull » dans le chef du dirigeant au moment de la création, telles que la perception d’une opportunité de marché, la réalisation d’un défi, la réalisation personnelle, l’indépendance, l’amélioration du statut social, la recherche du profit ou un objectif de croissance Selon certains auteurs, les perspectives de croissance sont moins importantes au sein d’une entreprise créée au départ d’une motivation de type « push », ou « négative », telle qu’une situation de chômage (Storey, 1994b ; Wynarczyk et al., 1993). On peut supposer que celle-ci devrait résulter en une perte de contacts professionnels ainsi qu’en une détérioration des aptitudes professionnelles (Dahlqvist et al., 1999). Logiquement, il devrait en aller de même en cas de création d’entreprise suite à une expérience professionnelle antérieure peu satisfaisante. Pourtant, dans une étude empirique comparant des entrepreneurs à succès à des entrepreneurs ayant échoué, Brockhaus (1980) constate que les premiers expriment un mécontentement plus important que les seconds par rapport à leur emploi antérieur. Comme le note cet auteur, ce phénomène pourrait être lié au fait que ces entrepreneurs aient été plus motivés à développer une activité à succès afin de ne pas devoir réintégrer leur ancienne fonction ou un emploi similaire. Elle pourrait également être le résultat d’une dissonance cognitive, c’est-à-dire le désir de rendre congruents des faits apparemment contradictoires. L’étude de Dunkelberg et Cooper (1982) n’observe aucun lien significatif entre les raisons pour lesquelles le dirigeant a quitté son emploi précédent ou ses objectifs et la croissance. Une étude suédoise constate que la motivation de type « push » liée au chômage n’affecte pas la performance de la firme (Dahlqvist et al., 1999). Plusieurs études constatant un lien négatif, nous formulons l’hypothèse suivante : Hypothèse 22 : la croissance est négativement influencée par des motivations de type « push » dans le chef du dirigeant au moment de la création, telles qu’une situation antérieure de chômage ou une expérience professionnelle antérieure peu satisfaisante D. Les variables démographiques Des variables démographiques, comme l’âge et le sexe de l’entrepreneur ou son appartenance à une minorité ethnique, ont également donné lieu à certaines recherches. L’âge est généralement associé à un comportement plus conservateur supposé exercer un impact négatif sur les performances de l’entreprise pour trois raisons (Hambrick et Mason, 1984). Premièrement, un dirigeant plus âgé est en principe moins enclin à adopter un comportement novateur ou à adhérer à une idée nouvelle. Deuxièmement, un tel dirigeant serait plus attaché à un certain statu quo organisationnel. Enfin, des objectifs de sécurité salariale et professionnelle engendrent un comportement plus prudent. Un dirigeant plus jeune serait par contre plus enclin à prendre des risques (Hambrick et Mason, 1984). Dans le même sens, certains constatent que des valeurs, c’est-à-dire des principes guidant la vie d’un individu, telles que le conformisme et la tradition ont un impact négatif sur les performances de l’entreprise (Delmar, 1996). Plusieurs études (Delmar, 1997 ; Weinzimmer, 1993 ; Dunkelberg et Cooper, 1982) observent effectivement un impact négatif de l’âge du dirigeant ou de l’âge moyen de l’équipe de dirigeants sur 148 la croissance. Notre hypothèse va donc également dans ce sens : E. La présence d’une équipe de dirigeants Hypothèse 23 : la croissance est négativement influencée par l’âge du ou des dirigeant(s) Selon Vesper (1990), la présence d’une équipe de dirigeants signifie une quantité de travail plus importante, ainsi qu’une plus grande variété et un plus grand équilibre d’aptitudes et de ressources susceptibles de déboucher sur des synergies. Chaque dirigeant apportera sa propre expertise. Cela permet également de partager les risques. De plus, Vesper souligne que, dans ce cas, l’entreprise peut se permettre de croître de manière plus importante qu’une entreprise dirigée par une seule personne avant de devoir faire appel à des managers extérieurs. En outre, le fait que le fondateur initial ait rassemblé une équipe autour de lui constitue un signal de sa capacité à attirer et à gérer d’autres personnes, tandis qu’une incapacité ou une réticence à constituer une équipe pourrait, aux yeux d’investisseurs potentiels, être symptomatique d’une absence des qualités managériales requises pour croître. Enfin, Vesper estime que le recrutement des membres de l’équipe dirigeante peut mener à une première évaluation de l’idée à la base de la création de l’entreprise et de son potentiel de succès. Toutefois, la présence de plusieurs dirigeants risque également de ralentir le processus décisionnel (Feeser et Willard, 1990). Le sexe et l’ethnicité peuvent contribuer à déterminer les opportunités d’emploi et d’accès à des réseaux professionnels d’un individu (Dahlqvist, 1999). Les femmes qui se lancent dans une carrière d’indépendant, par exemple, seraient désavantagées par rapport aux hommes par l’existence de barrières liées à l’éducation, à la pression familiale et à l’environnement professionnel (Kalleberg et Leicht, 1991). En outre, une femme dont le comportement s’éloignerait des normes de comportement socialement acceptées en fonction du sexe d’un individu s’expose à une désapprobation sociale, tandis qu’un comportement anticonformiste ou innovateur est toléré, voire encouragé chez les hommes (Papalia et Olds, 1981). Une étude menée par Dahlqvist et al. (1999) sur les entreprises nouvellement créées en Suède observe un lien négatif entre le fait que l’entrepreneur soit de sexe féminin et la croissance. Cette étude constate également que le fait que l’entrepreneur soit une personne immigrée influence négativement la croissance. D’autres études, par contre, n’observent aucun lien significatif entre le sexe du dirigeant et la croissance (Delmar, 1999). De même, une étude portant spécifiquement sur la survie et les performances comparées des entreprises dirigées par des hommes ou des femmes conclut à une absence quasiment générale de différences (Kallleberg et Leicht, 1991). Sur base des arguments théoriques, nous émettons toutefois l’hypothèse d’un lien négatif Hypothèse 24 : la croissance est négativement influencée par le fait que le dirigeant soit de sexe féminin Hypothèse 25 : la croissance est négativement influencée par le fait que le dirigeant soit une personne immigrée Plusieurs études montrent que les entreprises créées et possédées par plusieurs personnes sont plus enclines à croître que les entreprises n’ayant qu’un seul propriétaire (Siegel et al., 1993 ; Weinzimmer, 1993 ; Feeser et Willard, 1990 ; Dunkelberg et al., 1987 ; Woo et al., 1989). Par ailleurs, il semblerait également que les entreprises de haute technologie à forte croissance aient généralement été fondées par plusieurs personnes (Cooper et Bruno, 1977). Une étude observe toutefois une absence de lien entre le fait qu’une entreprise ait plus d’un propriétaire et les décisions de réinvestissement, mesurées par la croissance des actifs (McCarthy et al., 1993). Cette étude étant isolée, nous émettons l’hypothèse d’un lien positif : 149 Hypothèse 26 : la croissance est positivement influencée par le fait que l’entreprise soit dirigée par une équipe Au-delà de la taille du groupe de dirigeants à proprement parler, l’hétérogénéité du groupe, en termes d’expérience sectorielle et/ou fonctionnelle des dirigeants, a également fait l’objet de plusieurs études. L’homogénéité est susceptible de mener à un phénomène appelé « pensée de groupe » (Eisenhardt et Schoonhoven, 1990) c’est-àdire une détérioration du processus décisionnel entraînée par un désir trop important d’unanimité au sein du groupe (Kreitner et Kinicki, 1992). L’hétérogénéité est toutefois également susceptible de provoquer des crises au sein de l’équipe et, par conséquent, de compliquer la mise en œuvre des décisions (Ensley et al., 1998). Einsenhardt et Schoonhoven (1990) observent un impact positif de l’hétérogénéité des expériences sectorielles antérieures des membres de l’équipe dirigeante sur la croissance. De même, Weinzimmer (1993) constate qu’une hétérogénéité, à la fois fonctionnelle et sectorielle, influence positivement la croissance. Bien qu’une étude isolée observe un impact négatif de l’hétérogénéité en termes d’expérience sectorielle, fonctionnelle et de formation sur la croissance et la performance (Ensley et al., 1998), nous formulons donc l’hypothèse d’un lien positif entre cette hétérogénéité et la croissance : Hypothèse 27 : la croissance est positivement influencée par le fait que l’entreprise soit dirigée par une équipe hétérogène en termes d’expérience fonctionnelle, sectorielle et/ou de formation Une expérience de travail antérieure commune est également susceptible d’accélérer le processus décisionnel. Cette expérience commune permettrait d’accroître l’efficacité du processus décisionnel (Eisenhardt et Schoonhoven, 1990). Cette hypothèse a été confirmée empiriquement (Eisenhardt et Schoonhoven, 1990). Nous formulons donc une hypothèse identique : Hypothèse 28 : la croissance est positivement influencée par le fait que l’entreprise soit dirigée par une équipe de personnes dont certains membres ont une expérience de travail antérieure commune. II. Méthodologie A. Population, représentativité échantillon et Pour déterminer la population de P.M.E. à analyser, au départ d’une base de données, constituée par la BBL, reprenant toutes les entreprises établies en Belgique ayant déposé leurs comptes annuels à la Centrale des Bilans de la Banque Nationale, nous avons retenu toutes les entreprises actives sur l’ensemble de la période étudiée (de 1994 à 2000), pour lesquelles nous disposons de données en termes d’emploi pour 1994 et 2000 et qui, en 1994, correspondaient à la définition de la P.M.E. donnée par la Commission de l’Union Européenne45. Dans la mesure où, en 45 Selon la Recommandation de la Commission du 3 avril 1996 (JOCE, L 107/4, 1996), doivent être considérées comme P.M.E., les entreprises : - employant moins de 250 personnes ; le nombre de personnes employées correspond au nombre d'unités de travail-année. - dont, soit le chiffre d'affaires n'excède pas 40 millions EUR., soit le total du bilan annuel n'excède pas 27 millions EUR. - qui respectent un critère d'indépendance. Sont considérées comme indépendantes, les entreprises qui ne sont pas détenues à hauteur de 25 % ou plus du capital ou des droits de vote par une ou plusieurs grandes entreprises. Nous n’avons pas utilisé ce critère dans la mesure où l’une de nos hypothèses présupposait que le fait qu’une entreprise soit dépendante d’une autre entreprise influencera positivement la croissance de la première. La Commission établit également une distinction entre entreprises moyennes, petites entreprises et micro-entreprises. La petite entreprise est celle qui emploie moins de 50 personnes, qui respecte le critère d'indépendance défini ci-dessus et dont, soit le chiffre d'affaires annuel n'excède pas 7 millions d'EUR., soit le total du bilan annuel n'excède pas 5 150 Belgique, de nombreuses entreprises sont créées pour des raisons purement fiscales46et n’exercent pas réellement d’activités, nous avons éliminé les entreprises déjà actives en 1994, mais qui emploient toujours moins de 5 personnes en 2000. Sur base de ces critères, la population était composée de 11.481 entreprises. Nous avons sélectionné aléatoirement 788 entreprises, tout en veillant à avoir des proportions d’entreprises de très petite taille (moins de 10 personnes), de petite taille (entre 10 et 49 personnes) et de taille moyenne (entre 50 et 249 personnes) identiques à celles de la population totale. De manière à permettre une analyse dynamique, ce critère de taille était vérifié au début de la période étudiée, soit en 1994. Nous avons également conservé des proportions d’entreprises issues des trois régions du pays (Flandres, Wallonie, Bruxelles) identiques à celles de la population. Parmi les 788 entreprises, 331 ont refusé de participer à l’enquête et 186 n’étaient pas disponibles durant la période des interviews. Pour 121 autres entreprises, le numéro de téléphone contenu dans la base de données était erroné ou correspondait à un numéro de fax. Notre étude a donc porté sur un échantillon de 150 entreprises47. la moyenne de croissance48 des entreprises de l’échantillon à celle des entreprises de la population49 sur base d’un test t bilatéral. L’une des conditions d’application soustendant ce test sur deux échantillons indépendants est l’homogénéité des variances (Howell, 1998). Nous avons donc préalablement testé l’homogénéité des variances à l’aide du test de Levene. Après avoir constaté que les variances ne sont pas significativement différentes (F = 1,476 et sign. = 0,224), nous avons testé la différence entre les moyennes de la croissance de l’emploi des deux groupes. Les résultats du test t bilatéral (t = -0,823 ; d.l. = 11.479 ; sign. = 0,411) indiquent que la moyenne de croissance de l’emploi des entreprises de notre échantillon n’est pas significativement différente de celle des entreprises de la population. Notre échantillon ayant été constitué sur base de contraintes de taille et d’appartenance régionale issues des caractéristiques de la population, il n’est plus nécessaire d’examiner la représentativité de l’échantillon par rapport à la population relativement à ces deux critères. Enfin, nous avons également examiné les pourcentages d’entreprises indépendantes au sein de la population et de l’échantillon. Ceux-ci sont également identiques (66,7%). Ces éléments de comparaison ont été choisis car ils figurent dans la base de données. Afin de déterminer la représentativité de notre échantillon par rapport à la population originale, nous avons comparé millions d'EUR. Est considérée comme microentreprise, celle qui emploie moins de 10 salariés. 46 Le régime fiscal des sociétés est, en effet, plus avantageux que le régime des personnes physiques. 47 Selon Harris (1985), la taille de l’échantillon doit excéder le nombre de prédicteurs d’au moins 50. Un échantillon de 150 observations respecte donc cette règle. Selon d’autres auteurs (Bernard, 1999), il faudrait un minimum de 10 observations par prédicteur. Harris (1985) souligne que ce principe ne repose sur aucune preuve empirique. D’autres suggèrent des règles plus libérales que celle d’Harris et estiment que le nombre d’observations ne doit excéder le nombre de variables que de 40 (voir Howell, 1998). B. Méthode de collecte des données et mesure de la variable dépendante Les données publiées par les entreprises ne permettent pas de tester la très grande majorité des hypothèses développées dans notre recherche. A cet effet, nous avons opté pour une enquête téléphonique50. 48 Pour la mesure de celle-ci, voir le point 3.2. Dont nous avons préalablement retiré les entreprises appartenant à l’échantillon interrogé. 50 Le grand avantage de cette méthode par rapport aux enquêtes personnelles et par correspondance est sa rapidité d’exécution. En comparaison avec un entretien personnel, elle présente en outre un risque plus faible de biais lié à la personne de l’enquêteur 49 151 Nous avons préalablement établi un questionnaire constitué de questions fermées que nous avons pré-testé auprès de plusieurs dirigeants d’entreprises. Les dirigeants de 150 P.M.E. ont été interviewés téléphoniquement au mois de novembre 2001. La valeur de la variable dépendante a été recueillie au départ de la base de données. Le choix d’un indice approprié de mesure de la croissance a donné lieu à de nombreuses discussions théoriques (Wooden et Hawke; 2000; OCDE, 1998; Birch, 1986). Aucun indice n’étant neutre (Julien et al., 1998), nous avons opté pour une mesure simple, à savoir la variation relative « (Et - Et-1) / Et-1) », celle-ci étant l’indice le plus fréquemment utilisé dans les études sur les déterminants de la croissance (Delmar, 1997). Afin d’effectuer une régression logistique (voir infra), ces variables dépendantes ont été dichotomisées en « forte croissance » (encodée 1) et « faible croissance, stagnation ou régression » (encodée 0). Nous avons défini la « forte croissance » comme une croissance supérieure ou égale à 50 % sur la période étudiée. 34,3 %. des entreprises de notre échantillon peuvent être considérées comme ayant connu une forte croissance. Les études antérieures diffèrent fortement en termes de période de temps étudiée. Afin d’identifier des tendances irrégulières de court terme et de permettre une estimation fiable des performances organisationnelles (Weinzimmer et al., 1998), le période de temps étudiée devrait être d’au moins 5 ans. Sur base des contraintes de notre base de données, nous avons mesuré la croissance sur une période de 7 ans s’étendant de 1994 à 2000. De manière à éviter des mesures statiques, alors que la croissance est un phénomène dynamique par essence, nous avons exclu (Lambin, 1990). Enfin, elle permet l’encodage immédiat des réponses, ce qui réduit les risques d’erreur. les entreprises créées durant la période étudiée. C. Traitement des données Afin de tester nos hypothèses, nous avons réalisé une régression logistique binomiale à l’aide du logiciel SPSS. Cette méthode présente certains avantages par rapport à la régression multiple standard qui est soumise à des conditions d’application plus restrictives (Garson, 2001 ; Howell, 1998)51. Parmi ces avantages, on peut notamment citer le fait que, contrairement à la régression standard, la régression logistique ne présuppose pas une relation linéaire entre la variable dépendante et les variables indépendantes, et ne requiert pas une distribution normale des variables. Or, nous avons constaté que notre variable dépendante ne présentait pas une distribution normale. La régression logistique permet en outre d’intégrer au sein d’un même modèle des prédicteurs de type dichotomique ou polytomique et de type métrique. Chaque modalité d’une variable d’origine a donné lieu à une variable auxiliaire codée 1 si la caractéristique est réalisée et 0 dans le cas inverse. Afin d’éviter une liaison linéaire entre les variables indépendantes, pour chaque variable d’origine, une des variables binaires créées est exclue du modèle. En cas de « filtrage », c’est-à-dire lorsqu’une partie de l’échantillon n’est pas concernée par une question, nous avons créé une variable auxiliaire composée des entreprises non concernées. III. Présentation discussion des résultats et 51 Celle-ci présente également certains avantages par rapport à l’analyse discriminante qui peut aussi être utilisée lorsque la variable dépendante est dichotomisée. Outre le fait que l’analyse discriminante implique une distribution normale des variables, elle peut donner lieu à des probabilités de succès « impossibles » car situées en dehors de la plage 0-1 (Howell, 1998). 152 Préalablement à la régression, nous avons comparé les moyennes de croissance des entreprises ayant répondu à notre enquête à celles des entreprises ayant refusé d’y répondre sur base d’un test t bilatéral. Les moyennes de croissance de l’emploi et du chiffre d’affaires des entreprises n’ayant pas répondu à l’enquête ne sont pas significativement différentes de celles des entreprises ayant refusé d’y répondre. Nous avons ensuite comparé la taille, l’indépendance et la localisation des entreprises des deux groupes à l’aide de tests de χ2 de Pearson. Le fait que l’entreprise ait ou non répondu à l’enquête est indépendant de sa taille en début de période, du fait quelle soit indépendante ou dépendante et de son appartenance régionale. Les résultats statistiquement significatifs au seuil de 5 % de la régression logistique de la croissance de l’emploi sur les variables liées au dirigeant sont les suivants : Tableau n° 1 : prédicteurs statistiquement significatifs de la régression logistique binomiale de la croissance de l’emploi sur les variables liées au dirigeant d’entreprise Variables indépendantes Hypothèse 3 : expérience de marketing, de vente ou de R&D Hypothèse 4: expérience de consultance Hypothèse 12 : autres activités lors de la création Hypothèse 15 : études en rapport avec les activités de l’entreprise Hypothèse 24 : dirigeant de sexe féminin Hypothèse 25 : dirigeant immigré Coeff. E.S. Wald D.L. Sig. Exp. (b) - 4,453 1,569 8,051 1 0,005 0,012 3,092 1,425 4,706 1 0,030 22,023 4,574 2,221 4,242 1 0,039 96,969 3,237 1,283 6,361 1 0,012 25,446 - 4,948 2,178 5,161 1 0,023 0,007 3,626 1,408 6,630 1 0,010 35,571 χ2 du modèle : 51,890 Sign. : 0,015 Degré de concordance entre les valeurs prédites et les valeurs observées : 85,9 % Six variables liées au dirigeant influencent significativement la croissance de l’emploi. Parmi les cinq catégories de variables indépendantes liées au dirigeant que nous avons étudiées lors de la formulation des hypothèses, trois groupes n’exercent aucune influence significative sur la croissance de l’emploi. Il s’agit de la variable liée aux caractéristiques psychologiques, des motivations et de la présence d’une équipe de dirigeants. Quatre variables ayant un effet significatif sur la croissance de l’emploi sont liées à l’expertise du dirigeant. Deux de ces variables sont liées à son expérience fonctionnelle. Les résultats relatifs au fait que le dirigeant ait une expérience de marketing, de vente ou de R&D infirment notre hypothèse 3. Alors que, selon Hambrick et Mason (1984), des fonctions liées à l’output sont supposées mettre l’accent sur la croissance, nous constatons que cette expérience influence négativement la croissance de l’emploi. On peut supposer que cette expérience conduira le dirigeant à se focaliser sur ces fonctions au détriment d’autres, ce qui pourrait être préjudiciable à la croissance de l’emploi. Elle pourrait également le mener à privilégier la croissance du chiffre d’affaires au détriment de celle de l’emploi. A l’inverse, conformément à notre hypothèse 4, le fait que le dirigeant ait précédemment travaillé dans le domaine de la consultance semble bien lui procurer une expertise susceptible d’accélérer le développement de son entreprise. Cette expérience est en effet un prédicteur statistiquement significatif des chances de croissance de l’emploi. L’influence de cette variable sur la croissance n’avait pas encore fait l’objet d’études empiriques. Comme nous l’avons présupposé dans notre hypothèse 12, le fait que, lors de la création, le dirigeant ne se consacre pas de manière permanente à la nouvelle entreprise influence positivement sa croissance ultérieure. Cette formule peut être considérée comme une forme d’apprentissage permettant au dirigeant d’évaluer ses qualités entrepreneuriales tout en n’étant pas tributaire des seuls 153 revenus générés par son entreprise (Storey, 1994c). Conformément à l’hypothèse 15, le fait que le dirigeant ait suivi des études ayant un lien direct avec les activités de l’entreprise contribue positivement au développement de celle-ci. Cette constatation est intéressante en ce que cette variable n’avait pas encore fait l’objet d’études empiriques. Par contre, ni le niveau des études, ni le fait qu’il ait suivi une formation en gestion ou une formation à la création d’entreprise n’influencent significativement la croissance de l’emploi. Enfin, deux variables sur les trois variables démographiques étudiées ont un impact significatif sur la croissance de l’emploi. Il s’agit du sexe du dirigeant et du fait qu’il soit issu de l’immigration. Seul l’âge ne constitue pas un déterminant significatif. A l’instar d’une étude menée en Suède (Dahlqvist et al. (1999) et conformément à notre hypothèse 24, il ressort des résultats de la régression que le fait que le dirigeant soit de sexe féminin diminue les chances de croissance de l’emploi de son entreprise. Cette constatation est conforme aux arguments théoriques relatifs aux désavantages sociaux relatifs des femmes qui se lancent dans une carrière entrepreneuriale (Kalleberg et Leicht, 1991). Une étude américaine (Kalleberg et Leicht, 1991) a toutefois constaté une absence de différences en termes d’impact des variables indépendantes sur la croissance des entreprises selon que ces dernières soient dirigées par des hommes ou des femmes. Ces différences entre entreprises américaines et européennes pourraient être le fruit de différences culturelles, l’Europe étant, à cet égard, plus conservatrice. Enfin, contrairement à Dahlqvist et al. (1999), dont l’étude portait également en partie sur la croissance de l’emploi, et à notre hypothèse fondée sur les résultats de cette étude, nous constatons que le fait que le dirigeant soit issu de l’immigration influence positivement la croissance de son entreprise. L’entrepreneuriat peut être un facteur d’intégration sociale (Wtterwulghe, 1998). Dès lors, une explication potentielle du lien positif entre la croissance et le fait que le dirigeant soit une personne immigrée pourrait résider dans le fait que la croissance de l’entreprise renforcerait ce phénomène d’intégration. Conclusion L’étude de l’impact des caractéristiques du dirigeant sur la croissance de son entreprise a donné lieu à de nombreuses recherches empiriques. Toutefois, la plupart de ces travaux se sont concentrés sur l’étude d’un ou d’un nombre réduit de prédicteurs. En outre, aucune recherche n’a répertorié de manière exhaustive l’ensemble des variables précédemment analysées. Nous avons cherché à combler cette lacune et avons testé l’influence potentielle sur la croissance de l’emploi de 28 variables, que nous avons regroupées en 5 sous-catégories, à savoir les caractéristiques psychologiques52, l’expertise et les origines familiales du dirigeant, ses motivations, les variables démographiques et la présence d’une équipe de dirigeants. Nos résultats montrent que la croissance de l’emploi au sein des P.M.E. est uniquement influencée par certaines variables liées à deux sous-groupes, à savoir l’expertise du dirigeant et ses caractéristiques démographiques. Ses caractéristiques psychologiques, ses motivations et la présence d’une équipe de dirigeants n’exercent aucun impact significatif sur les chances de croissance de l’emploi de l’échantillon de P.M.E. belges que nous avons étudiées. Quatre variables ayant un effet significatif sur la croissance de l’emploi sont liées à l’expertise du dirigeant. Deux de ces variables sont liées à l’expérience fonctionnelle, à savoir le fait d’avoir une expérience dans le domaine du marketing, 52 Rappelons que nous n’avons émis qu’une seule hypothèse relative aux caractéristiques psychologiques du dirigeant. 154 de la vente ou de la R&D et le fait d’avoir une expérience dans le domaine de la consultance. Le signe de la relation n’est toutefois pas nécessairement celui qui nous avions présumé. Le fait que le dirigeant ait exercé d’autres activités professionnelles lors du démarrage de son entreprise influence également significativement la croissance de l’emploi. La quatrième variable liée à l’expertise est liée à l’éducation du dirigeant. Il s’agit du fait qu’il ait suivi des études en rapport avec les activités de son entreprise. Par contre, les autres variables liées à l’expérience fonctionnelle (expérience de direction ou de supervision, expérience au sein d’une université, expérience en grande entreprise, expérience de création ou d’indépendant) n’exercent aucune influence significative. Il en va de même de l’expérience sectorielle, du nombre d’années d’expérience professionnelle, du fait de posséder plusieurs entreprises, de l’échec entrepreneurial antérieur, de l’origine familiale entrepreneuriale, des autres variables liées à l’éducation (formation en création d’entreprise, formation en gestion et niveau d’éducation) et des circonstances qui ont amené le dirigeant à la tête de l’entreprise. Enfin, deux variables démographiques sont également des prédicteurs significatifs de la croissance de l’emploi. Il s’agit du sexe du dirigeant et du fait qu’il soit issu de l’immigration. L’âge ne constitue pas un déterminant significatif. Les conclusions de notre recherche sont sujettes à certaines limitations. Tout d’abord, celle-ci porte exclusivement sur des entreprises individuelles. Or, certaines organisations sont susceptibles de croître au travers de la création de nouvelles firmes ou de franchises par leur dirigeant. Notre unité d’analyse n’étant pas le groupe, ce type de croissance est nécessairement ignoré dans le cadre de nos résultats. Par ailleurs, nous mesurons la croissance sur base de données relatives au début et à la fin de période. Or, la croissance n’est pas nécessairement régulière. Le processus de développement peut, en effet, être « en dents de scie ». Notre étude ne permet toutefois pas de rendre compte de ce phénomène car elle ne tient pas compte des données intermédiaires. En outre, le type d’enquête réalisée et de questions posées empêche d’obtenir des données longitudinales pour un certain nombre de variables. Enfin, notre choix méthodologique de tester simultanément le plus grand nombre de variables et de ne pas exclure des facteurs qui pourraient, a priori, sembler mineurs dilue en principe la contribution potentielle des différents prédicteurs. Une telle enquête pourrait être répliquée sur un échantillon de taille plus importante. Une autre piste de recherche qui permettrait de surmonter ce problème consisterait en l’adoption d’une démarche plus sélective basée sur les résultats de la présente recherche. Bibliographie Armington, C. et Odle, M. (1982), «Small business: how many jobs ? », Brookings Review, n° 20, p. 14-17 Bernard, P.-M. (1999), Régression logistique, Cours EPM-64312, Doctorat en épidémiologie, Université de Laval, http://w3.res.ulaval.ca/cours-epm64312/Default.htm Birch, D. (1987), Job creation in America : how our smallest companies put the most people to work, New York, Free Press Birch, D. (1986), « The job generation process and small business », in Julien, P.A., Chicha, J. et Joyal, A. (éd.) (1986), La P.M.E. dans un monde en mutation, Québec, Les Presses de l’Université du Québec Birch, D. (1979), The job generation process, Cambridge (Mass.), MIT program on neighborhood and regional change Bolton, J.E. (1971), Report of the Committee of inquiry on small firms, Cmmd. 4811, Londres, HMSO 155 Brockhaus, R.H. (1982), « The psychology of the entrepreneur », in Kent, C.A., Sexton, D.L. et Vesper, K.H. (ed.), Encyclopedia of Entrepreneurship, Englewoods Cliffs (N.J.), Prentice- Hall, p. 39-57 Brush, C.G. et Chaganti, R. (1998), « Business without glamour ? An analysis of resources on performance by size and age in small service and retail firms », Journal of Business Venturing, 14, p. 233-257 Chell, E. (1986), « The entrepreneurial personality : a review and some theoretical developments », in Curran, J., Stanworth, J. et Watkins, D., The survival of the small firm, vol. 1, The economics of survival and entrepreneurship, Aldershot, Gower, p 102-119 Chell, E. (1985), « The entrepreneurial personality : a few ghosts laid to rest », International Small Business Journal, vol. 3, n° 3, p. 43-54 Child, J. (1973), « Predicting and understanding organizational structure », Administrative Science Quarterly, 18, p. 168-185 Cooper, A.C. et Bruno, A.V. (1977), « Success among high-technology firms », Business Horizons, Avril, p. 16-22 Dahlqvist, J., Davidsson, P. et Wiklund, J. (1999), « Initial conditions as predictors of new venture performance: a replication and extension of the Cooper et al. study », 44th World Conference of the International Council for Small Business, Naples, 20-23 juin Davidsson, P. (1989), « Entrepreneurship and after ? A study of growth willingness in small firms », Journal of Business Venturing , 4 , p. 211-226 Deakins, D. (1996), Entrepreneurship and small firms, Londres, McGraw-Hill Delmar, F. (1999), « Entrepreneurial growth motivation and actual growth – A longitudinal study », in RENT XIII (1999), Research on Entrepreneurship, Londres, 25-26 novembre Delmar, F. (1997), « Measuring growth : methodological considerations and empirical results », in Donckels, R. et Miettinen, A. (ed.) (1997), Entrepreneurship and SME research : on its way to the next millennium, Aldershot, Ashgate Delmar, F. (1996), Entrepreneurial behavior and business performance, Thèse de doctorat, Stockholm School of Economics Donckels, R. (éd.) (1990), Les leviers de croissance de la P.M.E., Bruxelles, Fondation Roi Baudouin, Roularta Books Dromby, F. (2000), « Les déterminants de la volonté de croissance chez les dirigeants français de P.M.E. Proposition d’un modèle intégrant les aspects économiques et sociaux », Actes du Congrès de l’Association Internationale de Management Stratégique, Montpellier, 2426 mai Dunkelberg, W.G., Cooper, A.C., Woo, C. et Dennis, W.J. (1987), « New firm growth and performance », dans Churchill, N.C., Hornaday, J.A., Kirchoff, B.A., Krasner, C.J. et Vesper, K.H. (éd.), Frontiers of entrepreneurship research, Boston (Mass.), Babson college. Dunkelberg, W.G. et Cooper, A.C. (1982), « Patterns of small business growth », Academy of Management Proceedings, p. 409-413 Ensley, M.D., Carland, J.W. et Carland, J.A. (1998), « The effect of entrepreneurial team skill heterogeneity and functional diversity on new venture performance », Journal of Business and Entrepreneurship, vol. 10, n° 1, p. 1-14. 156 Eisenhardt, K. M. et Schoonhoven, C.B. (1990), « Organizational growth : linking the founding team strategy, environment, and growth among U.S. semiconductor ventures, 1978-1988 », Administrative Science Quarterly, 35, p. 504-529 Feeser, H. R. et Willard, G. E. (1990), « Founding strategy and performance : a comparison of high and low growth tech firms », Strategic Management Journal, 11, p. 87-98 Feeser, H.R. et Willard, G.E. (1989), « Incubators and performance : a comparison of high- and low-growth hightech firms », Journal of Business Venturing, 4, p. 429-442 Gallagher, C.C. et Miller, P. (1991), « New fast-growing companies create jobs », Long Range Planning, vol. 24, n° 1, p. 96101 Garson, G.D. (2001), Logistic Regression, North Carolina State University, http://www2.chass.ncsu.edu/garson/pa765/ logistic.htm Gartner, W.B. et Bhat, S. (2000), « Environmental and ownership characteristics of small business and their impact on development », Journal of Small Business Management, vol. 38, n° 3, p. 14-26 Gasse, Y. (1987), « L’entrepreneur, son profil et son développement », Gestion 2000, 5, sept.-oct., 27-41 Gasse, Y (1982), « Elaborations on the psychology of the entrepreneur », in Kent, C.A., Sexton, D.L. et Vesper, K.H. (ed.), Encyclopedia of Entrepreneurship, Englewoods Cliffs (N.J.), Prentice- Hall, p. 57-71 Gibb, A. et Davies, L. (1990), « In pursuit of the frameworks of growth models of the small business », International Small Business Journal, vol. 9, n° 1, p. 15-31. Gibb, A. et Scott, M. (1986), « Understanding small firm growth », in Scott, M., Gibb, A., Lewis, S. et Faulkner, T., Small firm growth and development, Aldershot Grinyer, P. H., McKiernan, P. et YasaiArdekani, M. (1988), « Market, organizational and managerial correlates of economic performance in the U.K. electrical engineering industry », Strategic Management Journal, 9, p. 297-318 Hakim, C. (1989), « Identifying fast growth small firms », Employment Gazette, January, p. 29-41 Hall, G. (1995), Surviving and prospering in the small business sector, Londres, Routledge Hambrick, D.C. et Crozier, L.M. (1985), « Stumblers and stars in the management of rapid growth », Journal of Business Venturing, 1, p. 31-45 Hambrick, D.C. et Mason, P.A. (1984), « Upper-echelons : the organization as a reflection of its top managers », Academy of Management Review, vol. 9, n° 2, p. 193-206 Harris, R.J. (1985), A primer of multivariate statistics, seconde édition, New York, Academic Press Harrison, B. (1997), Lean and mean: Why large corporations will continue to dominate the global economy, seconde édition, New York, Guilford Herron, L. et Robinson, R.B. Jr. (1993), « A structural model of the effects of entrepreneurial characteristics on venture performance », Journal of Business Venturing, 8, p. 281-294 Howell, D.C. (1998), Méthodes statistiques en sciences humaines, Bruxelles, De Boeck Université Hull, D.L., Bosley, J.J. et Udell, G.G. (1980), « Renewing the hunt for the heffalump: identifying potential entrepreneurs by personality 157 characteristics », Journal of Small Business Management, vol.18, n° 1, p. 11-18 Hughes, A. (1998), « Growth constraints on small and medium-sized firms », Working Paper n° 107, ESRC Centre for Business Research, University of Cambridge, novembre Ivanaj, V. et Géhin, S. (1997), « Les valeurs du dirigeant et la croissance des P.M.E. », Revue Internationale P.M.E., vol. 10, 3-4, 81-108 Janssen, F. (2002), Les déterminants de la croissance des P.M.E.: analyse théorique et étude empirique auprès d’un échantillon d’entreprises belges, Thèse de doctorat, Université Jean Moulin – Lyon 3 Janssen, F. (1998), « L'influence de l'interpénétration du dirigeant et de son entreprise sur l'endettement des P.M.E. et sur leurs relations avec les banques », Cahiers de recherche de l'Institut de Recherche sur les P.M.E., Université du Québec à Trois-Rivières, n° 98-07 Julien, P.-A. (2000), « Les P.M.E. à forte croissance : les facteurs explicatifs », Actes du Congrès de l’Association Internationale de Management Stratégique, Montpellier, 24-26 mai Julien, P.-A., Morin, M. et Gélinas, J. (1998), « L’importance des P.M.E. à forte croissance au Québec de 1990 à 1996 », Cahiers de Recherche de l’Institut de recherche sur les P.M.E., Université du Québec à Trois Rivières, 97-15-C. Kalleberg, A.L. et Leicht, K.T. (1991), « Gender and organizational performance: determinants of small business survival and success », Academy of Management Journal, vol. 34, n° 1, p. 136-161 Kirchhoff, B.A. (1991), « Entrepreneur’s contribution to economics », Entrepreneurship Theory and Practice, vol. 16, n° 2, p. 93-112 Kreitner, R. et Kinicki, Organizational Behavior, Homewood, Irwin A. (1992), sec. éd., Kolvereid, L. (1990), « Growth aspirations among Norwegian entrepreneurs », Journal of Business Venturing, 7, p. 209-222 Lambin, J.-J. (1990), La recherche marketing: analyser, mesurer, prévoir, Paris, Ediscience International McCarthy, A.M., Schoorman, D.F., Cooper, A.C. (1993), « Reinvestment decisions by entrepreneurs : rational decision-making or escalation of commitment », Journal of Business Venturing, 8, p. 9-24 McClelland, D.C. (1961), The achieving society, Princeton (New Jersey), Van Norstand McMullan, W. E. et Vesper, K. (1987), « New ventures and small business innovation for economic growth » , R&D Management, vol. 17, n° 1, p. 3-13 Miller, D. et Friesen, P.H. (1984), Organizations : a quantum view, Englewood Cliffs, Prentice-Hall Miller, D. et Toulouse, J.M. (1986), « Chief executive personality and corporate strategy and structure in small firms », Management Science, vol. 32, n° 11, p. 1389-1409. Murray, S., Brandt, M. et Van Susteren, T. (1995), « Predictors of management success in growing businesses », th Proceedings of the 25 European Small Business Seminar, Cyprus, 20-22 septembre, vol. I, p. 225-234 OCDE (1999), « High growth firms and employment », Rapport préparé pour la réunion d’Helsinki du groupe de travail sur les P.M.E., 20-21 mai, DSTI/IND/P.M.E.(99)6, cité par Julien et al. (2000) OCDE (1998), Les P.M.E. à forte croissance et l’emploi : évaluation des 158 pratiques exemplaires des pouvoirs publics, rapport présenté à la réunion d’Athènes les 26-28 avril, Paris, OCDE, OCDE DSTI/IND/P.M.E.(98)11, cité par Julien (2000) O’Farrel, P. N. (1984), « Small manufacturing firms in Ireland : employment performance and implications », International Small Business Journal, vol.2, n° 2, p. 48-61 Papalia, D.E. et Olds, S.W. (1981), Human development, New York, McGraw-Hill Book co., cité par Kalleberg et Leicht (1991) Perry, C. (1987), « Growth strategies for small firms: principles and case studies », International Small Business Journal, vol. 5, n° 2, p. 17-25 Perry, C., MacArthur, R., Meredith, G. et Cunnington, B. (1986), « Need for achievement and locus of control of Australian small business owner-managers and super-entrepreneurs », International Small Business Journal, 4, p. 55-64 Rotter, J.B. (1966), « Generalized expectancies for internal versus external control of reinforcement, Psychological Monographs Sandberg, W.R. (1986), New venture performance : the role of strategy and industry structure, Lexington, D.C. Heath & Co. Siegel, R., Siegel, E. et MacMillan, I.C. (1993), « Characteristics distinguishing high-growth ventures », Journal of Business Venturing, 8, p. 169-180 Snuif, H.R. et Zwart, P.S. (1994), « Modeling new venture development as a path of configurations », in Small business and its contribution to regional and international development, Proceedings of the 39th ICSB world conference, Strasbourg, p. 263-274 St-Pierre, J. (1999), La gestion financière des P.M.E. : théories et pratiques, SainteFoy, Presses de l’Université du Québec Starbuck, W. H. (1965), « Organizational growth and development », dans March, J. G. (éd.) (1965), Handbook of organizations, Chicago, Rand McNally Storey, D. J. (1994), Understanding the small business sector, Londres-Boston, International Thomson business press. Storey, D. J. (1994b), « The role of legal status in influencing bank financing and new firm growth », Applied Economics, vol. 26, p. 129-136 Storey, D.J. (1994c), « New firm growth and bank financing », Small Business Economics, vol. 6, n° 2, p. 139-150 Storey, D. J. et Johnson, S. G. (1987), Job creation in small and medium sized enterprises, vol. 1, Luxembourg, Office for the Official Publications of the European Community Storey, D., Watson, R. et Wynarczyk, P. (1989), « Fast growth small businesses : case studies of 40 small firms in northern England », Department of employment, Research paper n° 67, cité par Storey (1994) Stratos Group (1990), Strategic orientation of small European business, Aldershot, Avebury-Gower Timmons, J.A., Smollen, L.E. et Dingee, A.L.M. (1985), New venture creation, seconde édition, Homewood (Ill.), Irwin Vesper, K.H. (1990), « New venture strategies » (Revised edition), Englewood Cliffs (NJ), Prentice Hall Walker, E., Loughton, K. et Brown, A. (1999), « The relevance of non-financial measures of success for micro business owners », 44th World Conference of the International Council for Small Business, Naples, 20-23 juin 159 Weinzimmer, L. (1993), Organizational growth of U.S. corporations : environmental, organizational and managerial determinants, Thèse de doctorat, University of Wisconsin – Milwaukee, Ann Arbor, U.M.I. Weinzimmer, L.G., Nystrom, P.C. et Freeman, S.J. (1998), « Measuring organizational growth : issues, consequences and guidelines », Journal of Management Studies, vol. 24, n° 2, p. 235262 une entreprise humaine, Bruxelles, De Boeck Université. Wynarczyck, P., Watson, R., Storey, D., Short, H. and Keasey, K. (1993), The managerial labour market in small and medium sized enterprises, Londres, Routledge. Westhead, P. (1995), « Survival and employment growth contrasts between types of owner-managed high-technology firms », Entrepreneurship Theory and Practice, Fall, p. 5-27 Westhead, P. et Birley, S. (1995), « Employment growth in new independent owner-managed firms in Great Britain », International Small Business Journal, vol. 13, n° 3, p. 11- 34 Wiklund, J. (1999), « The sustainability of the entrepreneurial orientationperformance relationship », Entrepreneurship Theory and Practice, vol. 24, n° 1, p. 37-48 Willard, G.E., Krueger, D.A. et Feeser, H.R. (1992), « In order to grow, must the founder go : a comparison of performance between founder and non-founder managed high-growth manufacturing firms », Journal of Business Venturing, 7, p. 181-194 Woo, C.Y, Cooper, A.C., Dunkelberg, W.C., Daellenbach, U. et Dennis, W.J. (1989), « Determinants of growth for small and large entrepreneurial start-ups », Babson entrepreneurship conference Wooden, M. et Hawke, A. (2000), « Unions and employment growth : panel data evidence » ; Industrial Relations, vol. 39, n° 1, p. 88-107 Wtterwulghe, R. (1998), avec la collaboration de Janssen, F., La P.M.E., 160 Coûts de transaction et dynamique non-linéaire des prix des actifs financiers : une note théorique Fredj JAWADI Professeur au Groupe Sup de CO Amiens-Picardie, chercheur associé à EconomiX, [email protected])+ Slim CHAOUACHI Université de Val de Marne Paris12, ERUDITE Résumé Le débat d'actualité concerne la place occupée par les modèles non-linéaires au sein des formalisations des séries financières. Pour justifier la non-linéarité inhérente à la dynamique de ces séries, nous explorons les effets de la microstructure du marché financier et les enseignements de la théorie de finance comportementale (i.e. coûts de transaction, asymétrie d'information, hétérogénéité des intervenants sur le marché, mimétisme). Nous montrons que la présence de coûts de transaction dissuade l’arbitrage, limite les transactions, prive les prix de s’ajuster linéairement et continuellement et induit des déviations des cours asymétriques et persistantes. Mots clés : Coûts de transaction, mésalignements de prix, Ajustement non-linéaire, asymétrie et persistance. JEL : G12, G14 + ESC Amiens School of Management, 18 place Saint Michel, 80000 Amiens cedex, Tél : +33 (0)3 22 82 24 41. 161 Introduction « Les phases de contraction sont plus violentes (de plus grande intensité) mais plus brèves (de plus courte durée) que les phases d'expansion », Keynes (1936), Théorie Générale de l’Emploi, de l’Intérêt et de la Monnaie (p.314). Les marchés financiers constituent des systèmes dynamiques ouverts soumis à l'influence de leur environnement économique, politique et social. Leur rôle est d'allouer les ressources productives à l'économie. L'observation des distributions de séries financières montre que ces données sont caractérisées par des mouvements cycliques (Sercu et al.(1995)), des fluctuations asymétriques (Escribano et Mira (1997)), des ruptures de tendance, des irrégularités dans les mouvements (Teräsvirta et Anderson (1992)), un caractère leptokurtique (Jawadi et Koubaa (2006), et une variabilité excessive ( Shiller (1981)). L'asymétrie des séries financières peut être signe de la présence de non-linéarité dans le processus d'évolution de ces séries. Or, les modèles linéaires ne peuvent générer qu'un comportement symétrique de la série et ne peuvent pas donc rendre compte des phénomènes d'asymétrie. Les modèles non-linéaires peuvent ainsi nous permettre de réconcilier les notions d'asymétrie et de non-linéarité. Conviés à chercher des spécifications adéquates pour reproduire les dynamiques des prix des actifs financiers, plusieurs travaux ont mis l'accent sur les insuffisances des processus linéaires et ont montré l'inadaptation des modèles linéaires. Dès lors, se sont développées de nouvelles voies de modélisation qui ont fait appel aux notions de non-linéarité, de non stationnarité et d'instabilité structurelle. La recherche s'est essentiellement concentrée sur la définition de la forme fonctionnelle du processus sous-jacent à la dynamique d’ajustement des prix et sur le développement des différentes classes de modèles nonlinéaires permettant de décrire ce type de dynamique. Mais, peu de travaux se sont intéressés à la justification économique de la nonlinéarité et à l’étude des différentes hypothèses comportementales qui sont à l'origine de la non-linéarité des dynamiques financières. Par exemple, Benning et Protopapadakis (1988), Dumas (1992), Sercu et al.(1995), Michael, Nobay et Peel (1997), et Obstfeld et Taylor (1997) ont expliqué la non-linéarité inhérente à la dynamique d'ajustement des taux de change par l'existence des coûts de transaction. Krugman (1991) a attribué cette non-linéarité à la présence des zones cibles. Teräsvirta (1994), De Grawe et Grimaldi (2001) ont retenu quant à eux l'hétérogénéité des anticipations des investisseurs comme source de nonlinéarité. En effet, suite à l’arrivée d’une nouvelle information, les agents peuvent réagir instantanément mais pas nécessairement au même temps et ce, en raison de la différence au niveau de la compréhension de l'information et du degré d'aversion au risque. Jawadi (2006) a expliqué la non-linéarité caractérisant les dynamiques boursières par la présence de coûts de transaction, l’interaction entre investisseurs informés et investisseurs mal informés, l’existence d’anticipations différenciées et la tendance à suivre des comportements mimétiques. Les comportements mimétiques constituent une source de non linéarité puisqu’ils peuvent provoquer la création de séquences d'achats ou de ventes et peuvent amener les investisseurs à réagir - à tort- de la même manière lors de la publication d'informations53. Selon Orléan, le marché 53 « En de multiples occasions, le marché se comporte plus comme une foule que comme un ensemble de monades calculatrices », Orléan (1990), (p.841). 162 financier est assimilé à un système ouvert à l'influence de deux forces : Une force interne, mettant en évidence la psychologie du marché, les mouvements collectifs, les comportements mimétiques, et une force externe, reflétant l'environnement économique du marché, les chocs aléatoires, les nouvelles informations54. D’où le caractère déstabilisant de la spéculation. Mais, quoi qu'il en soit, ce travail aura pour objet d'étudier de manière rigoureuse l'impact des coûts de transaction sur la dynamique des prix des actifs financiers, de réconcilier les concepts de coûts de transaction et de non-linéarité et de tenir compte de l'éventuelle interaction entre ces deux concepts pour expliquer et justifier les éventuels mésalignements des prix des actifs financiers. A cette fin, le présent travail s'articulera autour de cinq sections. La deuxième sera consacrée à la présentation des limites de la modélisation linéaire et des raisons nous permettant de croire aux modèles nonlinéaires. La troisième section exposera un bref panorama de la littérature consacrée à la réconciliation entre les coûts de transaction et la non-linéarité. La quatrième section présentera brièvement la théorie de coûts de transaction et justifiera la non-linéarité de l'ajustement du prix par rapport à l'équilibre par la présence des coûts de transaction. La cinquième section conclura. I. Insuffisances économiques économétriques de la linéarité et A. Insuffisances économiques de la linéarité 54 Selon la théorie des News, les informations nouvelles sont des inputs qui activent le système de détermination des cours; toute hausse ou baisse des cours est proportionnelle à l'information nouvelle. La linéarité était depuis A.Smith la coutume en matière de modélisation économique. Les modèles linéaires gaussiens ont dominé le développement de la modélisation des séries temporelles depuis plus de soixante ans. Cette phase a débuté avec les processus autorégressifs, pour se généraliser à la classe des modèles ARMA. Cette catégorie de modèles a été couramment utilisée dans plusieurs applications pour reproduire les phases du cycle économique du fait que l'hypothèse de linéarité est facile à adopter et qu'elle admet un traitement mathématique simple. Les modèles linéaires ont connu ainsi une utilisation quasi-systématique. Du fait de leurs nombreux avantages, ils ont été fréquemment retenus pour le traitement des relations économiques et financières. En effet, l'hypothèse de linéarité reflète un compromis entre les propriétés de maniabilité et de réalisme que tout oscillateur économique est censé comporter. De plus, les méthodes d'estimation linéaire (Moindres Carrés Ordinaires (MCO) et Moindres Carrés Généralisé (MCG)) sont plus simples que les méthodes d'estimation non-linéaires (i.e. Moindres Carrés Non Linéaires (MCNL), Maximum de Vraisemblance (MV)). C'est notamment, le critère de simplicité qui a conduit au recours aux modèles linéaires. En effet, la difficulté d'ordre méthodologique, l'absence d'outils quantitatifs performants et la faiblesse d'outils mathématiques ont amené les économètres à adapter la théorie des oscillations linéaires aux phénomènes économiques. Néanmoins, l'aspect dominant de ces processus linéaires ne doit pas nous faire oublier les limites et les inconvénients qui ont été attribués à cette catégorie de modèles linéaires. En effet, plusieurs études ont montré que la classe des modèles linéaires est inadaptée et que ces modèles risquent de dissimuler les propriétés importantes des fluctuations cycliques des séries telle que les 163 oscillations auto-entretenues, la variabilité excessive de certaines séries financières, les changement de régime, les ruptures de tendance et l'asymétrie du cycle, qui fait que les phases d'expansion et de récession n'ont ni les mêmes durées, ni les mêmes amplitudes. De plus, ces modèles contraignent les oscillateurs économiques à être périodiques et à se produire à l'identique d'une période à une autre (symétrie). Or, il est évident que les phases de récession durent plus longtemps que les phases d'expansion et que les chocs défavorables ont des conséquences plus importantes et plus durables que les chocs favorables. Escribano (1986), Dumas (1992), Balke et Fomby (1997), Escribano (1997), Michael, Nobay et Peel (1997), Michael, Peel et Taylor (1997), Escribano et Pfann (1998), Peel et Taylor (2000) et Dufrénot et Mignon (2002) ont mis en évidence les phénomènes d'asymétrie ainsi que les mouvements irréguliers caractérisant les marchés financiers (marché boursier, marché monétaire, marché de change)55. Ces auteurs ont mis l'accent sur les difficultés du modèle linéaire à apporter un soutien empirique à la dynamique des prix à long terme et à prévoir le retour du prix vers l'équilibre. Ils ont retenu les modèles à correction d'erreur non linéaires et ont montré que les séries macroéconomiques et financières peuvent être générées de façon endogène à partir d'un mécanisme à correction d'erreur non-linéaire. terme. Par exemple, Dumas (1992) a analysé la dynamique des processus d'ajustement des taux de change réel en présence des coûts de transaction et a montré que les déviations du taux de change par rapport à la PPA (Parité des Pouvoirs d'Achat) suivent un processus non-linéaire dont la vitesse d'ajustement par rapport à l'équilibre est une fonction de l'ampleur de l'écart du cours par rapport à l'équilibre. Michael, Nobay et Peel (1997), Michael, Peel et Taylor (1997), Peel et Taylor (2000) ont également montré que l'ajustement vers un équilibre fondamental ne se fait pas nécessairement de façon symétrique et qu'il dépend de l'ampleur de l'écart par rapport à l'équilibre. Outre ces limités économiques de la linéarité, des insuffisances économétriques peuvent justifier le recours aux modèles non-linéaires. B. Insuffisances économétriques de la linéarité La linéarité constitue une hypothèse trop restrictive pour pouvoir décrire des évènements tels que les krachs et les fortes variations caractéristiques des périodes turbulentes typiques des marchés boursiers. Elle a été considérée comme étant une hypothèse qui restreint les dynamiques possibles du cycle économique. D'après le théorème de Wald, tout processus ARMA peut s'écrire sous la forme d'un processus de moyenne mobile infinie de type : ∞ En effet, ces auteurs ont suggéré que l'ajustement des prix peut ne pas se faire d'une façon continue, linéaire et à vitesse constante et ont montré que l'estimation du modèle à correction non-linéaire peut apporter une information supplémentaire permettant de reproduire l'asymétrie de l'ajustement des prix vers la cible de long 55 Les cotations des actifs sur les marchés financiers n'ont aucune raison d'être régulières vu que l'intervalle de temps séparant deux cotations dépend de la volonté des agents d'acheter et de vendre. X t = ∑ β i ε t −i (1) i=0 En ce sens, le passé ne fournit aucune information relative au comportement futur de la série. En outre, cette formulation se limite à engendrer des phases d'expansion et de récession similaires. D’où l'incapacité des modèles ARMA à prendre en compte les phénomènes d'asymétrie ainsi que les ruptures de forte amplitude. En effet, les processus ARMA ne prennent en considération que les moments d'ordre 164 deux de la série induisant ainsi une exploitation incomplète de l'information contenue dans la série. Dans le même ordre d’idées, Frank et Stengos (1989) ont souligné l'incapacité des tests classiques de bruits blancs (i.e. test de Box-Pierce et test de Ljung-Box) à détecter la dépendance temporelle inhérente aux séries générées par des processus non-linéaires. Leur étude est intéressante, car particulièrement révélatrice de l'inadéquation des tests classiques de dépendance temporelle en analyse des séries temporelles, lorsqu'ils sont appliqués à des données générées par des processus non linéaires. En effet, elle montre que tout observateur peut être induit en erreur par ces tests et conclut tout de suite au caractère de bruit blanc d'un processus alors même qu'il est issu d'une loi d'évolution dont la dépendance temporelle est non-linéaire. Froot et Rogoff (1995) et Lothian et Taylor (1996) ont mis en évidence le fait que les tests traditionnels (tests de racine unitaire, tests de cointégration) ainsi employés durant les années 1980 pour examiner la stabilité du taux de change réel peuvent avoir une très faible puissance pour rejeter l'hypothèse nulle d'instabilité du taux de change réel. En effet, l'argument tient au fait que la vérification du taux de change réel sur cette période ne produit pas assez d'information pour détecter un retour vers la PPA. Mais, même en disposant de plus d'informations ou en étalant la période, la puissance du test n'augmente que très légèrement (au maximum autour de 11% sur la vue la plus optimiste de la vitesse de retour à l'équilibre56. 56 « ... Même avec un siècle de données pour le taux de change réel livre sterling-Dollar américain, on aura pourtant une faible chance de rejeter l'hypothèse de racine unitaire », Lothian et Taylor (1996, pp. 950-951). Ces limites montrent que les modèles linéaires ne peuvent pas rendre compte de l'asymétrie des phases du cycle économique et rendent nécessaire le recours aux modèles non-linéaires en économie et en Finance. En outre, nous comprenons qu'appliquer les tests traditionnels peut conduire à réfuter certaines hypothèses théoriques pourtant avérées. Ceci ne peut que nous inciter à rechercher quels sont les moyens de détecter la présence de termes nonlinéaires au sein des processus temporels. Mais, si la linéarité conduit à une vision très affaiblie de l'évolution des systèmes, si elle semble être une hypothèse excessive et si elle doit être isolée, faut-il encore préciser pourquoi doit-on faire recours à la non-linéarité ? Quels sont les fondements théoriques de la non-linéarité ? Quels sont les facteurs de comportement qui peuvent créer de la non-linéarité ? Pour répondre à ces questions, le troisième paragraphe justifie le recours aux processus non-linéaires en réconciliant la notion de non-linéarité et les hypothèses comportementales sur le marché financier et en s’inspirant de la microstructure des marchés financiers (i.e. asymétrie d'information, rigidité des prix, hétérogénéité des agents, coûts de transaction). C. Pourquoi faut-il croire modèles non-linéaires ? aux Plusieurs travaux ont essayé d'expliquer la très forte persistance des déviations des prix des actifs financiers. Ces études ont distingué plusieurs limites empêchant le prix d'un actif de se fixer au voisinage de sa valeur d'équilibre. Ces limites sont multiples : d'ordre physique (coûts de transport), juridique (interdiction pour un investisseur de passer des ordres de transaction sur d'autres marchés), commercial (politique commerciale). L'existence de ces limites rend difficile l'étude des dynamiques des séries 165 financières par des modèles linéaires standards et laisse penser aux modèles non-linéaires. La classe des modèles nonlinéaires apparaît pertinente pour expliquer les irrégularités constatées dans l'évolution des séries financières. Elle tient compte de la présence des coûts de transaction, de l’existence de comportements et réactions hétérogènes, du phénomène d'asymétrie entre les phases d’un cycle, de la variabilité excessive des séries financières et des effets de rigidités des prix. De ce fait, une littérature empirique récente des travaux centrés sur l’étude des prix des actifs financiers a découvert l'importance des non-linéarités. Les coûts de transaction ont été identifiés en tant qu'une des sources les plus significatives de cette nonlinéarité. En effet, la présence de ces coûts dans le marché de changes induit une bande d'inaction à l'intérieur de laquelle les déviations du cours par rapport à la PPA ne sont pas corrigées puisque les frais de transaction sont assez larges pour qu'ils soient couverts (voir section 4). L'hétérogénéité des agents a été retenue pour expliquer la très forte persistance des déviations des prix et justifier le recours aux modèles non-linéaires. Le mimétisme, défini comme l'action qui consiste pour un opérateur à imiter les autres intervenants sur les marchés financiers, est également une explication possible de cette nonlinéarité. En effet, les comportements mimétiques des investisseurs sont des facteurs de création de séquences d'achats et de séquences de ventes vu que l'agent, comme le note Orléan (1990) est indécis, influençable, perpétuellement soumis aux rumeurs qui circulent à l'emprise des regards des autres. Ce type de comportement peut amener les agents à réagir de la même manière lors de la publication d'information. Or, la réaction des agents vis-à-vis de l'arrivée d'une nouvelle information est étroitement liée au degré de compréhension de l'information et à leur aversion vis-à-vis du risque. De ce fait, les anticipations des agents risquent de ne plus refléter leurs propres opinions, mais plutôt leur capacité à prévoir la psychologie du marché et les croyances des autres opérateurs sur le marché. L'individu ne cherchera donc plus à anticiper la valeur fondamentale du titre mais l'opinion moyenne des participants au marché. Les opérateurs vont alors spéculer non seulement sur leur informations privées mais également sur les croyances des autres investisseurs. Ce qui risque d’affecter négativement les prix des actifs financiers en ajoutant de la variance à la variance normale des actifs57. Faut-il ajouter également que l'asymétrie d'information sur les marchés financiers qui se traduit par une différence entre la fourchette affichée et celle réalisée constitue une source des non-linéarités des dynamiques boursières. En effet, en présence d'asymétrie d'information, nous distinguons deux types d'investisseurs : les investisseurs informés et les investisseurs mal ou non-informés. Or, plus l'accès à l'information est facile, plus les agents sont incités à augmenter leur participation au marché financier. Ainsi, ceci peut engendrer une réduction totale du nombre des non-informés dans le marché et peut se traduire par une réaction plus rapide et un ajustement instantané des prix. En revanche, la présence d’investisseurs noninformés peut créer des fluctuations dans la demande, dans le degré d'aversion vis-à-vis du risque et au niveau des prix. L'existence de limites à l'arbitrage contribue- entre autres- à la rigidité des prix sur les marchés financiers. De telles rigidités peuvent, d'une part, remettre en cause l'ajustement instantané et symétrique des prix et être à l'origine d'un surajustement ou sous-ajustement réel 57 “It is efficient for me to imitate the others as long as they are better informed thanIi am, but it becomes inefficient if they are also imitators”. Orléan et Tadjeddine (2000). 166 persistant des prix. Les trajectoires suivies par les prix des actifs financiers ne sont pas indépendantes des régimes observés à chaque période et leurs dynamiques sont asymétriques et le plus souvent causées par ces rigidités. D'autre part, ces rigidités peuvent imprimer une inertie dans les prix des actifs lorsque ceux-ci tentent de rejoindre leurs valeurs d'équilibre de long terme. Ces effets d'inertie, la lenteur des prix des actifs financiers à rejoindre la valeur de long terme et les phénomènes de dépendance de long terme sont capturés par des spécifications non-linéaires (Michael et al.(1997)). En effet, la non-linéarité reflète la complexité des fondamentaux économiques et l'irréversibilité inhérente aux trajectoires des prix des actifs financiers. Elle constitue une manière visant à tenir compte des causes structurelles de rigidités pour expliquer la lenteur de l'ajustement des prix des actifs financiers vers l’équilibre et reproduire l'ajustement lisse et asymétrique vers les fondamentaux économiques. A ce sujet, plusieurs travaux théoriques et empiriques ont étudié l'effet de rigidités sur la dynamique des taux de change et ont montré que cette rigidité, combinée à la très forte volatilité de taux de change nominaux, conduit à d'amples variations des taux de change réels et à une forte persistance des déviations par rapport à la PPA. Les déviations peuvent être gouvernées par un processus d'ajustement non-linéaire plutôt que d'être modélisées en utilisant un modèle linéaire. En effet, à court terme le cours peut avoir tendance à s'éloigner de son niveau d'équilibre mais une fois qu'il devient de plus en plus mésaligné avec les fondamentaux économiques, les forces de marchés tendent à le ramener au voisinage de l'équilibre. Mais, si les représentations non-linéaires permettent d'autoriser la reproduction de fluctuations irrégulières et de représenter mieux le cycle que le linéaire, faut-il encore préciser dans quelle mesure la présence des coûts de transaction peut créer de la non-linéarité. La section suivante dresse un panorama des principaux travaux empiriques appliqués aux marchés financiers (marché boursier, marché de changes) et réconciliant les concepts de coûts de transaction et de nonlinéarité. Elle se limite, plus particulièrement, aux travaux empiriques ayant eu recours aux modèles à seuil et à la théorie des coûts de transaction pour justifier ce type de non- linéarité. II. Une brève revue empirique des travaux sur l’étude de l’ajustement nonlinéaire des prix des actifs financiers Nous ne cherchons pas ici à produire un recensement exhaustif de la littérature sur les modèles non-linéaires. Mais, nous nous proposons plutôt de sélectionner parmi l'énorme masse de travaux disponibles ceux qui nous paraissent les plus à même d'être d'un intérêt particulier pour les séries financières. Les travaux relatifs à la recherche des sources de non-linéarité et des justifications de la présence d'éventuelles non-linéarités dans les cycles sont relativement rares dans la littérature. En effet, le caractère leptokurtique et la nonlinéarité inhérents aux dynamiques boursières ont été souvent attribués à l'arrivée de nouvelles informations et aux phénomènes de coexistence et d'interaction entre les opérateurs. Par exemple, Artus et Kaabi (1992) ont formalisé les comportements d'imitation et ont montré que l'imitation peut avoir des effets déstabilisants car si les nouveaux arrivants sont dépourvus de l'information alors ils vont copier immédiatement et au hasard les autres opérateurs, ce qui peut déstabiliser le marché surtout s'ils se copient mutuellement. 167 Heckscher (1916) fut le premier auteur à avoir étudié le taux de change en présence des coûts de transaction. Il a montré qu'il peut y avoir des déviations significatives par rapport à la loi du prix unique (LPU), dues essentiellement à la présence des coûts de transaction dans les marchés spatialement séparés. Plus récemment, Benninga et Protopapadakis (1988), Dumas (1992), MacDonald et Taylor (1994), Sercu, Uppal et Van Hulle (1995), Lothian et Taylor (1996), Peel et Taylor (2000) et Taylor, Peel et Sarno (2001) ont étudié l’ajustement des taux de change d'équilibre en présence des coûts de transaction et ont montré que la présence de ces coûts peut induire des effets d’inerties dans les prix, des discontinuité dans l’arbitrage et des non-linéarités dans l’ajustement des cours. Michael, Nobay et Peel (1997) et Michael, Peel et Taylor (1997) ont étudié la nature d’ajustement des taux de change réels vers l’équilibre en utilisant des modèles non-linéaires. Les auteurs ont justifié la non-linéarité par la présence de coûts de transaction et ont montré que les déviations des taux de change par rapport à l’équilibre sont caractérisées par des traces de non-linéarité et qu'il est possible de les reproduire en générant les données par un modèle de type ESTAR. Quant à Dumas (1992), il a considéré le cas de deux pays produisant un bien homogène qui peut être consommé, investi, ou transféré à l'étranger. Les deux pays sont dotés avec des technologies de production identiques mais avec des chocs d'output (de productivité) non corrélés. Le transfert des biens et/ou de capital physique est coûteux : si une unité de bien est transportée, seulement (1 - s) de ce bien arrive actuellement58. L'objectif de ce modèle est de résoudre l'équilibre commun dans les marchés de bien et de capital pour obtenir le capital transféré entre les pays (équilibre d'échange), la consommation, l'investissement et le taux de change réel (le prix relatif du capital physique entre les pays). En pratique, il est optimal pour les agents de rééquilibrer les biens après chaque choc d'output aléatoire. Or, en présence des coûts de transaction, aucun rééquilibre n'aura lieu jusqu'à ce que le profit marginal excède son coût marginal. Donc, la présence de ces coûts peut donner apparition à une zone de non-échange appelée « bande d'inaction ». A l'intérieur de cette bande, aucun arbitrage n'aura lieu et aucun transport ne se présentera. Dès lors, le taux de change réel peut dévier de sa valeur de parité et les déviations du taux de change par rapport à la PPA seront persistantes et pourront ne pas être corrigées. En revanche, à l'extérieur de cette bande d'échange, le taux de change réel permettra un retour à la moyenne pour des larges déviations par rapport à la PPA59, mais « passera la plupart du temps loin de sa parité, proche de la situation frontière où aucun transfert de capital d'un pays à un autre n'aura lieu », Dumas (1992, p.154). Dumas (1992) a analysé la dynamique de ce processus d'ajustement des taux de change réels dans des marchés spatialement séparés en présence des coûts de transaction proportionnels et en supposant que la consommation est une fraction variable. Il a montré qu'en présence de ces coûts variables, les déviations du taux de change par rapport à la PPA suivent un processus non-linéaire. L'ajustement des prix n'est ni continu, ni constant. Le mouvement des prix est positif si les déviations par rapport à la PPA sont négatives et négatif si ces dernières sont positives. Les prix admettent alors un ajustement non-linéaire dont la vitesse d'ajustement varie en fonction de l'ampleur de l'écart du prix par rapport à l'équilibre. En effet, à l'intérieur de la 59 58 s désigne les coûts de transaction, avec s ∈ [ 0,1]. Plus la déviation par rapport à la PPA est grande, plus la tendance de retour à l'équilibre est élevée. 168 bande de transaction, où aucun échange n'a lieu, le processus d'ajustement diverge, de telle sorte que la plupart du temps, le taux de change n'est pas à sa parité. Les écarts par rapport à la PPA- et donc au modèle monétaire- peuvent perdurer longtemps et se comporter de manière non linéaire. Ce qui expliquerait non seulement les mauvaises performances empiriques du modèle monétariste mais aussi la difficulté d'un soutien empirique à la PPA à long terme. transaction60. Par contre, à l'extérieur de cette bande, les déviations peuvent être corrigées car une fois que le différentiel des prix excède les coûts de transaction, les forces de marché s'activent et auront tendance à ramener le taux de change à sa valeur d'équilibre engendrant un phénomène de « Mean Reversion ». Autrement dit et comme l'illustre le graphique 1 présenté en annexes, il y aura exportation du pays étranger quand En revanche, Macdonald et Taylor (1994) ont réexaminé le modèle monétaire à prix flexible pour le taux de change livre-dollar et ont trouvé un soutien empirique à une relation de cointégration entre le taux de change, les offres relatives de monnaie, la production industrielle et les taux d'intérêt qui implique un ajustement linéaire, continu et à vitesse constante. Quoi qu’un peu plus tard, Flood et Taylor (1996) ont montré que l'ajustement des prix vers un équilibre peut ne pas être continu, mais dépendre, par exemple, de l'ampleur de l'écart du prix par rapport à l'équilibre ainsi que de la variation des fondamentaux économiques sous-jacents. aura exportation du pays domestique. Par Dans le même ordre d’idées, Sercu, Uppal et Van Hulle (1995) ont développé un modèle de détermination de taux de change réel d'équilibre, défini par l'utilité marginale relative de consommation en présence des coûts de transaction et ont montré que l'ajustement du taux de change vers la PPA suit nécessairement un processus non- linéaire. Les auteurs ont montré que la présence de ces coûts implique une convergence non-linéaire des déviations des cours par rapport à la PPA. ⎡ q 2 (t) ⎤ .⎥ ≥ k ⎢ ⎣ q1( t ) ⎦ , alors que pour contre, pour 1 ⎡ q 2 (t) ⎤ .⎥ ≤ k , ≤⎢ k ⎣ q1 ( t ) ⎦ ⎡ q 2 (t) ⎤ 1 .⎥ < ⎢ ⎣ q1 ( t ) ⎦ k , il y il n' y aura pas d'échange. C'est-à-dire qu'en présence des coûts de transaction et à cause de l'arbitrage fait par les agents économiques, les forces du marché ne s'activent que par sous-période. Taylor et David Peel (2000), quant à eux, ils ont utilisé une approche monétaire du taux de change et ont souligné le fait que les déviations du taux de change nominal par rapport au niveau suggéré par les fondamentaux monétaires peuvent être gouvernées par un processus d'ajustement non-linéaire. Pour des petites déviations, cette relation n'est pas activée. Mais, une fois que le taux de change devient de plus en plus mésaligné avec les fondamentaux économiques, les forces de marché s'activent et tendent à le ramener au voisinage de l'équilibre fondamental. Un tel raisonnement intuitif met en en 60 suit La bande d’inaction est définie comme . / ∂c2 ⎡ c2(t ) ⎤ ∂U [] ⎥ : ⎡⎢ 1 ⎤⎥ ≤ Z(t )≡ 2 =⎢ ⎣ 1+ s ⎦ . / ∂c1 ⎢⎣ c1 (t ) ⎥⎦ ∂U1 [] −η ≤[1+ s ] , soit de 1 En effet, à l'intérieur de la bande d’inaction les déviations par rapport à la PPA ne sont pas corrigées puisqu'elles ne sont pas assez larges pour couvrir les coûts de manière équivalente : 1 ⎡ 1 ⎤ η ⎡ q 2 (t) ⎤ ⎢ 1 + s ⎥ ≤ ⎢ q ( t ) .⎥ ≤ [1 + s]η ≡ k ⎣ ⎦ ⎣ 1 ⎦ Où : z(t) désigne le taux de change réel, qi(t) désigne la dotation du bien de consommation du pays i, ∀ i = 1,2, ci désigne la consommation du pays i, η désigne le degré d’aversion vis-à-vis du risque, 169 évidence la discontinuité de l'arbitrage dans le marché des biens et prévoie l’existence de vitesses d’ajustement différenciées qui augmentent avec l’ampleur des déviations des cours par rapport à l'équilibre. Jawadi (2006) s’est focalisé sur l’étude de la dynamique d’ajustement des cours boursiers des pays du G7 par rapport à leurs valeurs fondamentales. Il a montré l’existence de mécanismes d’ajustement non-linéaires des cours des sept pays vers les fondamentaux qu’il les a justifié par l’existence de coûts de transaction hétérogènes et la présence d’anticipations différenciées. Formellement, l’auteur a retenu les modèles STECM (Smooth Transition Error Correction Models) pour spécifier la dynamique des déviations des cours par rapport à l‘équilibre et pour définir deux indicateurs statistiques permettant de repérer les périodes de sous et sur-évaluation des indices et de mesurer l’intensité de correction des mésalignements des cours ainsi que leurs vitesses d’ajustement. III. Coûts de transaction et ajustement non-linéaire des prix A. Les frais de transaction La littérature empirique récente relative à l'analyse des mésalignements des prix a découvert l'importance de la non-linéarité dans la dynamique d'ajustement des prix. Cette non-linéarité a été attribuée, comme nous l’avons noté, aux anomalies des marchés financiers (hétérogénéité des intervenants sur les marchés financiers, asymétrie d'information, interaction et contagion des opinions, mimétisme, coûts de transaction,...etc.). Mais, les coûts de transaction ont été, plus particulièrement, identifiés en tant qu'une des sources les plus significatives de la non-linéarité. L'impact de la présence des coûts de transaction sur la structure et la performance des marchés financiers a fait dès lors l'objet d'un thème central dans la littérature des systèmes d'information depuis une dizaine d'années (Clémons et Row (1992) et Clémons et Weber (1994)). Par définition, les frais de transaction ont une composante explicite qui apparaît sur les avis d'opéré et une composante implicite qui dépend de l'arrondi des cotations, de la fourchette et de l'impact de l'ordre de transaction sur les prix. La composante essentielle des frais de transaction est la fourchette ou écart entre les cours acheteurs et vendeurs. Les frais explicites dépendent du circuit par lequel l'ordre transite et de la taille de cet ordre. Ils se décomposent en commission, courtage, TVA, impôt de bourse et les frais de gestion du compte titres (droits de garde, frais d'encaissement de coupons de dividendes et coûts d'accès aux services télématiques de gestion de titres). Ces frais de transaction permettent de pénaliser souvent les transactions. Ils sont compris entre 0.15% (transaction importante avec commissions affichées ) et 12% (transaction passée par un réseau pratiquant des coûts fixes)61. De plus, les différences entre les organisations du marché ont un impact sur la valeur de fourchette, sur les modalités d'affichage et sur les prix. En effet, la valeur de fourchette observée est liée aux modalités d'organisation des marchés, au degré de concurrence entre les intermédiaires, à la liquidité du marché et à l'intensité des asymétries d'information entre les donneurs d'ordre. Ce qui explique la différence entre la valeur de la fourchette effectivement réalisée et celle initialement affichée. 61 Le NYSE est le marché où les frais sont les moins élevés. Les frais moyens estimés d'intervention sur les actions du CAC 40 sont d'environ 1% : plus du double du marché américain mais moins cher que les titres du London Stock Exchange. 170 B. Les coûts de transaction : une source de la non-linéarité Les coûts de transaction peuvent affecter la dynamique des prix des actifs financiers en agissant sur la demande et l'offre des titres ainsi que sur les intervenants du marché financier62. La présence de ces coûts peut engendrer une réduction du bien être social même si les agents sont parfaitement rationnels. Elle se traduit dès lors par une augmentation du nombre des gens non informés ou mal informés et elle implique par ailleurs une augmentation du risque du marché et une diminution de l'efficience de l'efficacité du marché. En pratique, l'impact des coûts de transaction sur les prix a été étudié et testé et différents résultats souvent controversés ont vu le jour. Nous distinguons ainsi deux types d'approches. La première considère que les coûts de transaction inférieurs sont bénéfiques et interprète les réductions de ces coûts comme étant des économies de coûts. Ce sont donc les résultats d'une meilleure gestion des coûts de l'agence et d'une meilleure coordination entre les organisations existantes qui permettent de créer de nouvelles structures de marché plus efficientes (Clémons et Row (1992)). Une diminution de ces coûts se traduit par une augmentation des participations directes des agents moins informés63, par une sur-efficacité totale du marché financier et par une diminution dans les marges des intermédiaires. De plus, la réaction des agents vis-à-vis de l'arrivée d'une nouvelle information est étroitement liée au niveau des coûts de transaction. En effet, plus les coûts de transaction sont faibles, plus l'accès à l'information est 62 Selon Dumas (1992), il y a toujours un coût associé aux ordres de transaction passés sur le marché. En effet, si un titre fait l'objet d'un ordre de transaction à un prix pt, seulement 1/(1+s) arrive réellement, Autrement dit, pour acheter une unité d'une action X à un prix pt, l'actionnaire doit payer (1+s) * pt. 63 Plus les coûts de transaction diminuent, plus les agents augmentent leur usage du marché. facile et plus les investisseurs sont incités à augmenter leur participation au marché financier. Ceci engendre une réduction totale du nombre des non-informés dans le marché et peut se traduire par une réaction plus rapide et un ajustement instantané des cours boursiers. En revanche, plus ces coûts sont faibles, plus les prix sont volatils car, d'une part, plus ces coûts diminuent, plus les individus auront tendance à multiplier les ordres d'achat et de vente des titres. D'autre part, la présence de ces investisseurs moins informés peut créer des fluctuations dans la demande, dans le degré d'aversion vis-à-vis du risque et dans les prix. La deuxième approche tient aux travaux de Clémons et Weber (1994). Elle suppose que la réduction des coûts de transaction a des effets négatifs, notamment, en terme d'intermédiation car la réduction des coûts de transaction peut créer des coûts sociaux. Mais quoi qu'il en soit, les frais engagés par les intermédiaires sont répercutés sur leurs clients. Cette répercussion se matérialise par des frais explicites ou par la pratique d'un prix acheteur systématiquement différent du prix vendeur (prix incitatif). La pratique des prix incitatifs peut être économiquement significative (afin de résorber le stock des titres), mais risque de réduire la fourchette réalisée qui sera inférieure à celle initialement affichée et d'avoir des prix plus rigides. Ces rigidités peuvent rejeter l’hypothèse d'ajustement instantané et symétrique des prix et peuvent être à l'origine d'un sur ou sous-ajustement réel persistant des prix. D'ailleurs, les dynamiques asymétriques sont le plus souvent causées par des rigidités liées au fonctionnement des marchés. De plus, elles peuvent créer une inertie dans les prix des actifs lorsque ceux-ci tentent de rejoindre leur valeur d'équilibre de long terme. En effet, à court terme, le cours peut avoir tendance à s'éloigner de son niveau d'équilibre mais lorsqu’il s’en écarte 171 durablement les forces de marchés tendent à le ramener à son niveau d'équilibre. Ainsi, nous comprenons que la présence des frais de transaction peut affecter la nature de l'arbitrage. En effet, plus les coûts de transaction sont élevés, plus la demande des titres diminue, moins les agents vont faire de l'arbitrage et plus les effets d'inertie et la lenteur des prix à rejoindre la valeur d'équilibre seront importants64. En revanche, plus les frais de transaction diminuent, plus le nombre des informés augmente et plus l'ajustement des prix est rapide. Sercu, Uppal et Van Hulle (1995) ont montré que plus les coûts de transaction sont élevés, plus les prix ont tendance à s'éloigner de leur valeur d'équilibre mais leur déviation est moins proportionnelle que celle des coûts de transaction. Or, en présence des coûts de transaction, il est difficile voire impossible de corriger en même temps tous les mésalignements des cours boursiers à l'intérieur des différentes places financières car l'agent économique rationnel doit comparer les coûts assumés aux profits espérés et il n'a intérêt à réagir que lorsqu'il anticipe que les gains attendus peuvent compenser les coûts associés à ces titres. Autrement dit, il ne sera pas optimal de corriger chaque déséquilibre dans les différentes places financières à chaque date. En effet, les titres sont échangés entre les différentes places financières seulement quand le déséquilibre dans les utilités marginales de consommation est assez grand pour compenser les coût de transaction qui leur sont associés. Ainsi, nous pourrions identifier, comme nous l’avons noté, deux zones : Une zone 64 Plus il est coûteux de passer un ordre de transaction sur un actif dans une autre place financière, plus il sera optimal d'acheter une action seulement lorsqu'on anticipe un gain espéré suffisamment plus élevé. de non échange (bande de non arbitrage)65 marquée par un écart durable entre le cours et son prix d'équilibre et par des déviations importantes du cours par rapport à sa valeur fondamentale. A l’intérieur de cette zone, les coûts de transaction génèrent une région pour laquelle les déviations par rapport l'équilibre ne sont pas corrigées puisque les coûts de transaction sont assez larges pour qu'ils soient couverts. Elles sont divergentes et elles admettent une racine unitaire car à l'intérieur de cette région, aucun arbitrage n'est possible et aucun ajustement n'a lieu. Les prix peuvent fluctuer mais sans que l'arbitrage exerce sa force de rappel. La seconde zone est une zone d'échange à l'intérieur de laquelle, le prix fluctue au voisinage de sa valeur d'équilibre et les déviations admettent un phénomène de « Mean Reversion » lorsque le différentiel des prix excède les coûts de transaction. A l'intérieur de cette zone, l'arbitrage devient possible et l'ajustement peut avoir lieu mais de façon discontinue et non-linéaire (Michael et al.(1997)). En effet, on peut s'attendre à ce que les agents réagissent ou non aux écarts des cours par rapport à l'équilibre selon que les coûts de transaction associés à leurs échanges soient élevés ou non relativement aux rendements issus des déviations des cours. Par exemple, de faibles écarts à l'équilibre peuvent être jugés peu importants par les opérateurs sur le marché. La présence de ces coûts implique alors un ajustement non-linéaire des prix des actifs financiers dont la vitesse d'ajustement est d'autant plus élevée que l'écart à l'équilibre est important. Selon Bessec (2002), il existe des vitesses de convergence différenciées des séries suivant l'amplitude du déséquilibre. Les déviations du prix par rapport à l'équilibre sont alors gouvernées par un ajustement non-linéaire dont la vitesse de retour vers l'équilibre est fonction de l'ampleur des déviations par rapport à l'équilibre. Cette 65 Cette bande sera d'autant plus large que le coût de l'arbitrage sera élevé. 172 non-linéarité dans l'ajustement reflète la complexité des fondamentaux économiques et l'irréversibilité inhérente aux trajectoires des prix des actifs financiers. Elle constitue une manière visant à tenir compte des causes structurelles de rigidité pour expliquer la lenteur de l'ajustement des prix des actifs financiers vers la valeur de long terme. C. Ajustement des prix en présence des coûts de transaction : Méthodologie adoptée La présence des coûts de transaction dans le passage des ordres se traduit par la lenteur des prix des actifs financiers à rejoindre la valeur de long terme. Elle limite l'arbitrage et elle génère des effets d'inertie dans la dynamique des prix. En conséquence, l'ajustement des prix est discontinu, asymétrique et non-linéaire avec une vitesse de convergence qui est fonction de l'ampleur de l'écart par rapport à l'équilibre. Parmi les processus nonlinéaires, un modèle à transition lisse de Transition type STAR (Smooth Autoregressive Models) peut paraître approprié pour représenter la dynamique d'ajustement des prix en présence des coûts de transaction pour plusieurs raisons. D'abord, comme le suggèrent Dumas (1994) et Teräsvirta (1994), même si le saut vers le régime stationnaire est brutal, l'agrégation temporelle des données tend à lisser la transition entre les régimes. Par ailleurs, les marchés financiers sont marqués par la présence des coûts de transaction et sont composés d'agents hétérogènes. Les agents sont caractérisés par des mécanismes d'anticipation différenciés et des effets d'apprentissage plus ou moins longs. Il est donc probable qu'ils changent simultanément de stratégie d'achat. Pour toutes ces raisons, les prix ont plus de chance de s'ajuster graduellement qu'instantanément. linéarité est indispensable pour reproduire les effets d'inertie et que ces phénomènes de dépendance de long terme sont capturés par des spécifications non-linéaires. Ils ont étudié, plus particulièrement, la dynamique d'ajustement du taux de change vers les fondamentaux économiques et ont utilisé le cadre des modèles ESTAR pour représenter les mésalignements des taux de change par rapport à leur équilibre fondamental. Donc, la représentation nonlinéaire ESTAR de Granger et Teräsvirta (1993) et Teräsvirta (1994) constitue un cadre idéal pour détecter les périodes de sur- et sous-évaluation des prix des actifs financiers et s’avère plus adéquate que la classe des modèles linéaires pour étudier la dynamique d’ajustement des prix. Conclusion L'objectif de ce papier a été double. Le premier a consisté à chercher toute une panoplie d'arguments théoriques et de raisons économiques à l'origine du rejet de l'hypothèse de linéarité. Le deuxième objectif a été d'expliquer la non-linéarité souvent détectée dans la dynamique d'ajustement des prix des actifs financiers par la présence des coûts de transaction, et de mettre en avant l'intérêt des formalisations non-linéaires (i.e. Modèles à seuil) pour reproduire la dynamique des séries financières. La multiplicité des outils mis à la disposition pour la modélisation des séries financières est une preuve de l'intérêt porté à ce domaine de recherche, mais également apparaît comme une conséquence de l'absence des résultats fiables concernant la nature de la dynamique de l'ajustement des prix des actifs financiers. En pratique, Michael et al.(1997) et Peel et Taylor (2000) ont montré que la non- 173 Bibliographie Artus P. et Kaabi M.(1994a), « Mimétisme : un modèle théorique simple et une application au cas de la structure des taux d’intérêt », Revue économique, n.3, mai pp.613-624. Balke N.S. et Fomby T.B. (1997), « 'Threshold Cointegration », The Review of Economics and Statistics, 5, pp.629-645. Dufrénot G. et Mignon V. (2002), Recent Developments in Nonlinear Cointegration With Applications to Macroeconomics and Finance, Kluwer Academic Publishers, 299 pages. Dumas B. (1992), “ Dynamic Equilibrium and the Real Exchange Rate in a Spatially Separated World ”, The Review of Financial Studies, Vol.5, N°2, pp.153-180. Benninga, S., and A.A. Protopapadakis, 1988, ''The Equilibrium Pricing of Exchange Rates and Assets When Trade Takes Time'', Journal of International Economics, Vol. 7, pp. 129-49. Dumas B. (1994), “ Partial Equilibrium Versus General Equilibrium Models of the International Capital Market”, dans Van der Ploeg F., The Handbook of Macroeconomics, Blackwells, Oxford, pp.301-347. Bessec M. (2002), « Taux de change réels de 1973 à 2000 : une mesure non-linéaire des mésalignements », Working Paper, EUREQua, Université de Paris 1Panthéon-Sorbonne. Escribano A. (1986), “Identification and Modelling of Economic Relationships in a Growing Economy, PhD Dissertation (chapter4), university of california san diego. Clémons E.K and Row M.C. (1992), “ Information Technology and Industrial Cooperation : The Changin Economics of Coordination and Ownership”, Journal of Management Information Systems, pp.928. Escribano A. (1997), “ Nonlinear Error Correction : the Case of Money Demand in the U.K. (1878-1970) 3 Working Paper, université carlos III, Madirid. Clémons E.K and Weber B.W. (1994), “ Segmentation, Differentiation, and Flexible Pricing : Experience with Information Technology and Segment- Tailored Strategies”, Journal of Management Information Systems”, (11:2). Constantinides G. M.(1986), “Capital Market Equilibrium with Transaction Costs”, Journal of Political Economy, 94, pp.842-862. De Grauwe P. et Grimaldi M. (2003), “ Heterogeneity of Agents, Transaction Costs and the Exchange Rate”, Actes de la Conférence Internationale de l’Association d’Econométrie Appliquée (AEA), 6 et 7 mars, Marseille. Escribano A. et Pfann G.A. (1998), “ Nonlinear Error Correction, Asymmetric Adjustment and Cointegration”, Economic modelling, 15, pp.197-216. Escribano A. et Mira S. (1997), “ Nonlinear Error Correction Models”, Working Paper n°97-26, Department of Statistics, Universidad Carlos III, Madrid. Flood R. et Taylor M.P. (1996), “ Exchange Rate Economics: What’s Wrong with the Conventional Macro approach?”, in J.A Frankel, G. Galli et A.Giovannini (eds), The Microstructure of Foreign Exchange Markets, Chicago, University of Chicago Press for National Bureau of Economic Research. 174 Frank M. et Stengos T. (1989), “ Measuring the Strangeness of Gold and Silver Rates of Return ”, Review of Economic Study, 56 (4), pp.553-568. Froot, K.A., and K. Rogoff, 1995, “Perspective on PPA and Long-Run Real Exchange Rates,'' in K. Rogoff and G. Grossman, eds., Handbook of International Economics (Amsterdam: North Holland). Jawadi F. (2006), « Ajustements nonlinéaires des cours boursiers dans les pays du G7 : Essai de modélisation », Thèse de doctorat, Université de Paris 10-Nanterre. Jawadi F. et Koubaa Y.(2006), « Dynamique d'ajustement à seuil des rentabilités boursières des pays G7 : Application des modèles STECM, Euro Mediterranean Economics and Finance Review, Vol.1, n°2, Mars, pp.151-163. Lothian J., et Taylor M.P. (1996), “Real Exchange Rate Behavior: the Recent Float from the Perspective of the Past Two Centuries”, Journal of Political Economy, 104, p 488-509. MacDonald R., Taylor M.P. (1994), “The Monetary Model of Exchange Rate : Long Run Relationship, Short Run Dynamics and How to Beat a Random Walk”, Journal of International Money and Finance, vol.13, pp. 276-290 . Michael P., Nobay A. R., Peel, D. A., (1997), “Transaction costs and Nonlinear Adjustment in Real Exchange Rates : An emprical Investigation”, Journal of Political Economy, Vol.105, n°4. Michael P., Peel D.A. et Taylor M.P. (1997), “ Ajustement non linéaire vers le taux de change d’équilibre- le modèle monétaire revisité ”, Revue économique, Vol 48, N.3 , pp.653-659. Obstfeld M., Taylor A. (1997), “ Nonlinear Aspects of Good-Market Arbitrage and Adjustment : Hecksher's Commodity Point Revisited”, Journal of the Japanese and International Economies, pp.441-479. Orléan A. (1990), “ Le rôle des influences interpersonnelles dans la détermination des cours boursiers ”, Revue économique, Vol.41, n.5, pp.839-868. Peel D. A. et Taylor M. P.(2000), “ Nonlinear Adjustment, Long-run Equilibrium and Exchange Rate Fundamentals”, Journal of International Money and Finance, 19, pp.33-53. Sercu P., Uppal R. et Van Hulle C. (1995), “ The Exchange in the Presence of Transaction Costs : Implication for tests of Purchasing Power Parity “, Journal of Finance, 50, pp.1309-19. Shiller R. (1981), “ Do Stock Prices Move Too Much to be Justified by Subsequent Changes in Dividends”, The American Economic Review, Vol.71, n.3, pp.421436. Taylor, M.P., Peel, D.A. and L. Sarno (2001), “Nonlinear Mean Reversion in Real Exchange Rates towards a Solution to the Purchasing Power Parity Puzzles, International Economic Review, 4, 10151041. Teräsvirta T. (1994), “ Specification, Estimation and Evaluation of Smooth Transition Autoregressive Models ”, Journal of the American Statistical Association, Vol.89, pp.208-218. Teräsvirta T. et Anderson H.M. (1992), “ Characterizing Nonlinearities in Business Cycles using Smooth Transition Autoregressive Models”, in Nonlinear Dynamics, Chaos and Econometrics, Edited by Pesaran M.H.and Potter S.M., pp.111-128. 175 Annexes Graphique 1 176 The Interaction between Economic Reforms and FDI in MENA Countries Anis KHAYATI Ph.D. ,Nagoya City University, UMLT Tunisie Abstract An examination of the amount of FDI in the Middle East and North Africa (MENA) shows that it remains below the potential of the region et is well behind FDI in other regions, notably in Asian and South-American countries. In order to explore the causes of this situation, this paper uses a game-theoretical framework to examine the strategic interaction between economic restructuring in MENA countries and the participation of foreign firms in the restructuring process of these economies. The paper points to the need for increased credibility of reform efforts by MENA governments. It shows that contribution of FDI to economic restructuring is only as effective as the commitment of these governments to initiate and especially to maintain high paces of economic reforms. Since a “fast track” economic restructuring is difficult to succeed without adequate external financial support, higher foreign aid is also essential to reduce costs of reform through social safety nets and elevate MENA countries out of the present equilibrium with low restructuring-oriented FDI. Keywords: MENA countries, economic restructuring, FDI, foreign firms, game theory. 177 Introduction The recent decade in several countries of the Middle East and North Africa (MENA) region has been marked by an economic restructuring aiming at transforming these economies into market-oriented ones. A vital element of reform in the region was liberalization of investment and trade. FDI was seen as a vehicle for economic restructuring by providing valuable investment funds as well as much needed technical and managerial know-how. In previous literature, analyses of where and how firms are likely to invest in the region have relied mainly on evidence from country studies in combination with transaction-cost or resource-based approaches. However, such efforts to look at the determinants of FDI do not explicitly address the problem of dependency between economic restructuring in the host country and the contribution of FDI to competition and efficiency. The interdependence of restructuring by host governments and foreign firms in the MENA region is interesting because reform policies in these economies over the past decade have resulted in progress but the amount of FDI remained low comparatively to other regions. It is of interest therefore to investigate whether reforms initiated by either the host country itself or prescribed by the World Bank and the IMF would serve to encourage the type of inward FDI that contributes to efficient economic restructuring. This paper uses a game-theoretical framework to examine the interdependency between economic restructuring in the host country and enterprise restructuring by foreign firms. When a government and a foreign firm interact strategically in a static setting, two equilibriums arise: In one, the government is committed to rapid economic reform and restructuring, and the foreign firm contributes to such restructuring through the acquisition of an existing enterprise. In another equilibrium, the host government chooses a gradual approach to reform and the firm chooses to minimize operational uncertainties by playing only a mediating role in economic restructuring through the indirect transfer of technical and managerial know-how. When players are allowed to learn from the experiences of their predecessors in a dynamic setting, the model’s equilibriums take on the interpretation of long-run conventions about the modality of investment. The paper is structured as follows: Section two presents an outlook of progress with reform in some MENA countries and highlights trends in FDI in the region. Section three develops the game-theoretical model. First, the static framework is considered, and then is extended to a dynamic setting. Section four concludes. I. Some Features of Market Reforms and FDI Trends in MENA Countries During the last decade, several MENA countries faced a colossal challenge of stabilizing the economy, restructuring production capacities, while at the same time maintaining employment levels and a social consensus for reform. Indeed, national debts accumulated since the 1980s posed constraints on the ability of countries to raise new capital 178 for market reforms. Specifically, in view of the debt situation, foreign private banks were reluctant to continue lending, and for many countries, the main source for financial assistance became multilateral institutions such as the World Bank and the IMF. Due to the interdependence of reforms on the micro and macroeconomic levels, funding was in most cases contingent on the implantation of a reform package with four components: (1) macroeconomic stabilization; (2) price liberalization; (3) easing of trade and investment barriers and (4) privatization of state-owned enterprises. The speed and extensiveness of reform implementation, however, was not uniform across the region due to differences in initial conditions and social costs across countries. Some countries chose to implement all reform components simultaneously, while in others, the scope of reforms placed emphasis on some of the components only (see Nabli and Véganzonès (2004)). The key components of reform that may serve to encourage entry by foreign firms into MENA are the liberalization of investment and privatization. While the essential laws required by foreign investors were implemented in most MENA countries66, the application of investment frameworks varied significantly with respect to foreign ownership, approval requirements, effectiveness of profit repatriation and 66 Such laws include: (1) a basic investment protection act that allows for compensation to the investor in case of expropriation; (ii) a company act allowing for the establishment of joint-stock companies: (iii) profit repatriation laws; and (iv) a tax code that simplifies the rules and procedures for corporate taxation. tax codes; and they remained incomplete in different areas. The part of reform that concerns privatization of state-owned enterprises has proven to be the most politically challenging and time-consuming. In most countries where privatization has been slow or stalled, the main difficulty for governments has been to reconcile the political and social aspect with the economic objectives of privatization. Catering to political objectives is therefore, in conflict with the aim of attracting foreign equity. Table 1 illustrates the reluctance in privatization in some countries67. In general, indicators compiled in the ERF report provide a useful measure of progress with market-oriented reforms in general areas such as: (1) enterprise reform (including progress in privatization and governance); (2) progress in the development of markets and trade; (3) progress in developing financial institutions; and (4) legal reform (measuring both the extensiveness and effectiveness of laws). Observation does not reveal any high pace of reforms in these fields. To illustrate the success individual countries have had in attracting FDI, the data in Table 2 summarizes the distribution of FDI flows to MENA economies for the period 1995-2003. 67 This story too: “Urged on by the International Monetary Fund, Tunisia in 2000 published on list of 41 companies to be sold, but by the end of March 2000, only 22 firms had been privatized. The government said of the combined assets of the 41 companies was 1.84 billion Tunisian dinars. However, a number of companies the government had previously earmarked for privatization appeared neither on official list of companies sold nor on any other list”; ERF report (2002), Chap. 2; p. 39-40. 179 The countries that have been relatively leaders in reforms attracted the highest share of FDI flows if we take the market size into consideration. The table clearly shows that cumulative FDI flows in MENA countries have grown much slower than the potential of the region would have suggested, and is still low in comparison to other regions. In view of the above considerations regarding the pace of reforms and the flow of inward FDI, it is therefore important to frame the problem in a learning environment where the interaction between host governments and foreign investors is strategically interdependent. II. A Model of Strategic Dependence in Restructuring Efforts This section aims to present the problem of strategic dependency between host governments and foreign firms within a game-theoretical framework. The main features of an interaction motivate a game which allows for (i) multiple equilibriums, (ii) changing players in a dynamic setting, and (iii) adaptive learning by agents. The model is developed in two parts. As a first step, the players, their actions, and payoffs are introduced in a static setting. Here the possibility of multiple equilibriums is discussed and some attention is devoted to the equilibrium selection mechanism called risk dominance (due to Harsanyi and Selten, 1988). Second, the dynamics of the game are developed using a recurrent game framework. The way in which players make decisions in the dynamic setting is formally introduced through a learning-type mechanism called adaptive play (due to Young, 1998). The discussion here focuses on how the formation of conventions can determine which of the game’s equilibriums is on average more likely to emerge as a long-run outcome of the FDI game. A. FDI as a Static Coordination Game Consider a game played by the government undertaking reforms and a foreign firm. The players, their actions, and payoff functions are defined as follows. The host country can either pursue a fast track approach to reform, or a gradualist approach. The actions available to government are therefore denoted FT (for a fast track regime) and GR (for a gradualist regime). The actions available to the firm are an expansion via FDI modes68 or an expansion via non-FDI modes69. The FDI game Γ has two players each of which has two actions. The first player is the government in a restructuring economy which either undertakes a fast-track regime or a gradualist regime. The second player is the foreign firm, which can undertake an investment in the host country either through an FDI mode (we take acquisition AC as reflecting an FDI mode of expansion) or a non-FDI mode (we take international subcontracting IS as reflecting a non-FDI mode of expansion). The strategy spaces for the government and the firm are denoted g ∈{FT,GR}and f ∈{AC, IS} respectively. 68 The most important forms are acquisitions and greenfield investments (UNCTAD, 2005). 69 That includes subcontracting, licensing, franchising, call centers, representative offices, etc… 180 The payoff functions of the government and the firm capture the consequences that any given choice of actions has for each player. It is assumed that players have complete information, so that once a pair of actions is chosen, the objective function for each player maps these into a payoff. The payoff functions are as follows: The government undertaking reforms cares about efficiency and employment70 : G= E (g,f) + L (g,f) (1) Both terms in equation (1) are functions taken by the firm, f∈{AC, IS}, and the government, g ∈{FT,GR}. The first term, E(g,f), represents the gains in economic efficiency from restructuring by the firm and/or the transfer of technical/managerial know-how. The second term, L(g,f) represents the impact of the foreign firm’s actions on employment. The objective function of the firm is essentially a profit function that captures the costs and benefits from undertaking an investment project in the host country: Π= π (g,f) – C(g,f) (2) The first term in equation (2), π (g,f), is a standard operating profit function which gives the discounted present value of profits from future production. The second term, C(g,f), represents the transaction costs associated with entry into the host country such as searching for suitable targets, analyzing their 70 A reduced form representation of government objectives has been used in several studies of endogenous protection. For instance, Grossman and Helpman (1994) take a similar approach when modelling political contributions on trade policy. economic viability, negotiating with managers and owners, and fulfilling conditions imposed by governments. A government and a firm that are matched to play the FDI game will choose a best response to the action they expect their opponent to take. Specifically, a player’s action is considered a best response if it optimizes his expected payoff given the action taken by the other player. To determine the strategic interaction between the government and the firm in this game, a description of what constitutes a best response for players is considered next. Best responses for the Government: Suppose the firm enters through the acquisition of an existing enterprise. Post-acquisition restructuring will have a positive effect on production efficiency through upgrades in production technologies and implementation of corporate governance structures. At the same time, reduction in overstaffing will have a positive effect on efficiency but a negative effect on employment. If the government imposes a fast track regime, the rapid privatization of state-owned enterprises reduces the probability of lengthy acquisition negotiations and allows for speedy post-acquisition restructuring by the foreign firm. On the other hand, if the government imposes a gradualist regime, delays in privatization increase the probability of a lengthy acquisition process. In addition, requirements for employment guarantees can delay reduction in labour. Such setbacks imply that the efficiency gains from the FDI under a gradualist regime may be lower than those with a fast-track approach, 181 E(FT,AC) ≥ E(GR,AC), with comparable reduction of overstaffing under both regimes, L(FT,AC) = L(GR,AC). Given these effects, a government that wishes to maximize its payoff when the firm enters via an acquisition is better off choosing a fasttrack over a gradualist regime: E(FT,AC) + L(FT,AC) ≥ E(GR,AC) + L(GR,AC) (3) The firm may also choose to enter through a subcontracting agreement. Production efficiency can be higher relative to the surrounding economy due to the indirect transfer of technical and managerial know-how by the foreign firm which benefits the host country equally under both a gradualist and a fast-track regime, E(GR, IS) = E(FT,IS). In addition, the firm employs (and often trains) local labour force, which results in gains to the government through the employment term in its payoff function. Job creation under both regimes is associated with political dividends to the host government but positive social sentiments toward subcontracting are likely to be more pronounced under a gradualist regime. Higher political dividends from higher employment under a gradualist regime implies, L(GR, IS) ≥ L (FT, IS). Thus, a best response for the government when the firm expands through subcontracting is to choose a gradualist regime over a fast-track one: E(GR, IS) + L(GR, IS) ≥ E(FT, IS) + L(FT,IS) (4) Best Responses for The best response for the firm is to choose an acquisition over subcontracting. Intuitively, the firm’s goal is to minimize costs as ∂Π/∂C<O and maximize the discounted present value of future profits as ∂Π/∂π> 0. An acquisition allows for speedy entry since the foreign firm inherits established supply/distribution networks and/or taps into the established customer base for the products of the acquired enterprise: π (FT, AC)> π (FT, IS). In addition, the transaction costs that the firm faces with an acquisition can be reasonable under a fast-track regime, but quite high under a gradualist regime. This inequality when combined with the relationship between profits under both modes of entry implies: π (FT, AC) – C (FT, AC) > π (FT, IS) – C (FT, IS) (5) The government can also choose a gradualist regime. In general, Evidence shows that it is not uncommon for firms to choose other forms of expansion over an acquisition out of sheer frustration from setbacks in negotiating an acquisition. Indeed, when the institutional framework in the host country is relatively undeveloped, the discounted value of future profits is likely to be higher with subcontracting, π (GR, AC) < π (GR, IS). A subcontracting agreement is likely, therefore, to be a best response by the firm when the regime is gradualist: π (GR, AC) - C (GR, AC) < π (GR, IS) – C (GR, IS) (6) Firm: Equilibriums Suppose the government imposes a fasttrack regime. Assuming that a target enterprise exists in the host country, a of the FDI Game: In the FDI game above, players’ give a best response to what they expect their 182 opponent to do. This motivates Nash equilibrium (due to Nash, 1950) as the solution concept employed in this model. Figure 1: The Static Investment Game Gov. FT GR FDI Firm AC G11 , Π11 G21, Π21 IS G12 , Π12 G22, Π22 Figure 1 shows the payoff for each player. The discussion of best responses above suggests it is possible that the government’s payoffs are related through the inequalities G11 ≥ G21 and G22 ≥ G12, and the firm’s payoffs are related through the inequalities Π11 > > Π21. With these Π12 and Π22 restrictions on the players’ payoffs, the FDI game has two Nash equilibriums, which lie on the diagonal of the payoff bi-matrix: (FT, AC) and (GR, IS). Such a configuration makes the FDI game a coordination game, i.e. each player has the same number of actions, which can be indexed so that it is a strict Nash equilibrium to play actions having the same index. The existence of two equilibriums poses an equilibrium selection problem since in the absence of some convention about how the game should be played, it is not clear which equilibrium should be expected. Fortunately, analyses of equilibrium refinement in coordination games provide various sets of conditions that make it possible to predict whether one equilibrium is more likely to be selected than another. The selection criterion that turns out to be important here is risk dominance (due to Harsanyi and Selten, 1988). In this case, an equilibrium is risk dominant if and only if the product of the losses from unilateral deviation by the government and the firm is maximized at that equilibrium. Equilibrium (FT, AC) is risk dominant if and only if (G11 – G21) (Π11 – Π12) ≥ (G22 – G12) (Π22 – Π21) and equilibrium (GR, IS) is risk dominant if and only if (G11 – G21) (Π11 – Π12) ≤ (G22 – G12) (Π22 – Π21). The losses from unilateral deviation in the FDI game can be defined as follows. The loss incurred by the government if it chooses GR over FT when a foreign firm makes an acquisition is positive, (G11 – G21) ≥ 0, and a strictly positive loss to the foreign firm results from the choice of IS over AC when the government implements a fast-track regime, (Π11 – Π12) > 0. The loss to the government from choosing FT over GR when the firm chooses subcontracting can be either positive or zero, (G22 – G12) ≥ 0. The loss to the foreign firm from choosing AC over IS when the government chooses a gradualist regime is strictly positive, (Π22 – Π21) > 0. B. Recurrent Game Adaptive Learning with The FDI coordination game can now be extended to a dynamic setting. To account for the fact that every period71 either the government or the firm or both may be different from the ones that played last period, it is useful to adopt a recurrent game framework. In this framework, the agents playing the game may be changing over time, but what they all have in common are the actions available to them when it is their turn to 71 Time is measured in periods, each interaction between two players marks a new period. 183 play. It is therefore convenient to think of the game as having two roles rather than two players. Thus, the FDI game now has a role called “Government” and a role called “Firm”. For each role, there exists a non-empty population of individuals eligible to play that role. The population of governments is denoted by PG and the population of firms is denoted by PF. It is assumed that these populations are disjoint and that within each class, all players are equally likely to be drawn to play the FDI game. Intuitively, the requirement that the two populations are disjoint simply says that an agent from the population of government cannot play in the role of a firm and vice versa. The pure strategy space for the player in role “Government”, as before, contains two elements which can be interpreted as publicly observable actions: g ∈{FT, GR}. Similarly, the pure strategy space for the player in role “Firm” is f ∈{AC, IS}. The payoff functions, G and Π are also as before. The elements (g, f, G, Π, PG, PF) constitute a recurrent game, which is played as follows. In period t, t = 1, 2, …., a government and a firm are drawn at random from each of the two populations to play the FDI game. As before, a pair of actions, known as the record (or play) at time t72, is chosen independently. At the end of period t, the history of the game consists of α records. The value of α determines how far back in time the players are able (or willing) to look. It is assumed that the government and the firm are not 72 Note that t captures all instances of interaction between governments and foreign firms, which makes it reasonable to assume that it is large enough to be used in long-run analysis of a stochastic process such as the pattern of investment behaviour in a restructuring economy. completely knowledgeable about the process they are engaged in and have limited information about the history of play up to period t. The history of interaction between foreign firms and host governments at the end of period t is then a sequence of the last α plays, denoted ht = {(gt-α+1, ft-α+1),..., (gt, ft)}. As before, in each period a player chooses his action based on his expectation of what the other player will do. But since the government and the firm in any given period may have never interacted with each other before, they need some mechanism by which to form their expectations. In this game, expectation’s formation is modeled as an adaptive learning type mechanism. Essentially, a firm develops expectations about what the government’s behavior will be based on precedent, i.e. on information about what players in the role “Government” have done in the past. Similarly, the government forms its expectations about what the firm will do based on information about how other players in the role “Firm” have behaved in the past. In this game, such information is considered part of an agent’s situation rather than the result of an optimal search. Because agents in both populations are assumed to be rational, this information is often fragmentary. That is, the government and the firm this period will generally know only a small portion of the relevant precedents, which they learn through a social network. Furthermore, players do not know (or perhaps do not care) about things that happened long ago, i.e. only recent events matter (Young, 1998). Given that both the firm and the government are associated with a social network through which they have access to information about what has 184 been done in the past by players in the opponent’s role, it is standard to model the information transmission process as a random variable. Specifically, suppose that the process is in state ht at the end of period t and consider a government and a firm that are matched to play the FDI game in period t+1. Each player independently draws a sample of sizes from the set of actions taken by past players in the other role over the last α periods. On the basis of the informational content of their respective samples, both players construct a simple assessment of how their opponent is likely to behave. For example, when the government is trying to choose between its actions, it will draw an independent sample of size s from the actions that agents in the firm’s role have played in the past. It will then use this sample to compute the observed frequency distribution of the actions taken by past players in the role “Firm”. On the basis of this distribution the government constructs a maximum likelihood estimate of what action the firm will take this period and gives a best response to it. The firm acts in a similar manner. It draws a sample of size s and uses it to compute the observed frequency distribution of the actions taken by past players in the role “Government”. The firm then uses this distribution to construct a maximum likelihood estimate of what action the government will take this period and gives a best response to it. Although players usually give a best reply given their expectations of what their opponent will do, sometimes idiosyncrasies in their behavior can result in arbitrary or unexplained choices. Even though such behavior is modeled as a small positive probability that the player makes an error, its interpretation is not necessarily that of a mistake. In the present framework, such minor disturbances to the adaptive process can also be interpreted as experimentation by governments and firms who are continuously learning about how to play the FDI game. The error rate is denoted by ε > 0. With probability (1- ε), each player will give a best reply to what he expects the other will do; and with probability ε, they will choose an action at random. The probability of making an error is assumed to be independent across players. Therefore, the three characteristics that describe how governments and firms make choices in each period are the player’s memory size, players’ sample size, and the error rate. Taken together, these factors define a Markov process called adaptive play (Young. 1998). That is, in the recurrent FDI game Γ, adaptive learning by governments and firms is a Markov process with memory size α, sample s and error rate ε. size As the game is played repeatedly over time, precedent accumulates. Thus records in a player’s sample can be any combination of the players’ actions. If in each period players choose a best response to what they think their opponent will do, then the process will eventually arrive at a state in which the last α records are of the form {(g*, f*),…, (g*, f*)}, where (g*, f*) is one of the two pure Nash equilibriums of Γ. Such a state is called a convention. Since the FDI game has two Nash equilibriums, this implies that two conventions can possibly develop over time: h1 = {(FT, AC),…, (FT, AC)} or h2= {(GR, IS),… (GR, IS)}. Specifically, suppose that the process is currently in convention h1, where (FT, AC) has been the outcome of the game 185 for the last α periods. When the firm or the government look at past strategies taken by individuals in the opponent’s role, they predict that the opponent in this period will also choose to play the Nash equilibrium (FT, AC). In the absence of errors, a best response to this prediction will be for the player to also play his part in (FT, AC). Therefore, equilibrium (FT, AC) will be repeated. In the model developed above however, the government and the firm are allowed to exhibit idiosyncratic behavior. In the presence of such behavior, the question is whether experimentation (or errors) can upset a convention and affect the long-run outcome of the game. In order to make a prediction about which of these two conventions is more likely to prevail in the long run, there needs to be an understanding of how random errors by players can switch the FDl process from one convention to the other. To this end, suppose that (FT, AC) has evolved as the outcome of the game and the player in role “Government” makes a mistake in period t. Such a “mistake” can, for example, be a slow down in the pace of reforms. In period (t+1), the player in role “Firm” can draw a sample in which all records but one are of the form (FT, AC). Based on this sample, the firm computes a maximum likelihood estimate of the distribution the government is using. A best response to this distribution will most likely be the strict Nash equilibrium strategy AC. Such an outcome would imply that the error made by the player in role “Government” in period t is most likely insufficient to upset the convention. But what if an error was made by several players in role Government in the periods preceding (t+1), would such persistent errors be sufficient to upset the (FT, AC) convention and make the process switch to convention (GR,IS)? To answer this question, we need to know how stable each convention is in the presence of random errors. In previous literature, (see for example. Young, 1998), this problem has been addressed through analysis of the stochastic stability of an equilibrium. Specifically, the stochastically stable state will be the one in which the process will spend the most time over the long run. Intuitively, the process will spend most of its time in the state that requires the least amount of errors to get to and the most to get away from. Thus in the FDI game, if the amount of errors it takes to switch the process to h1= {(FT, AC),..., (FT, AC)} is greater than the number it takes to switch it back to h2 = {(GR, IS),..., (GR, IS)}, then the state h1, is said to be stochastically stable. Since each convention corresponds to a Nash equilibrium, the stochastically stable state will correspond to the one of the Nash equilibriums in the static game. The following proposition identifies the stochastically stable state as the convention corresponding to the risk dominant equilibrium: (Young 1998): Let Γ be a 2x2 coordination game, and let Pα,s,ε be adaptive learning with memory size α, sample size s and error rate ε. If information is sufficiently incomplete (s/α≤ 1/2), and s and α are sufficiently large, the stochastically stable states of the perturbed process correspond one to one with the risk dominant conventions. What are some conditions under which the FDI process can settle in one of the two conventions? Suppose that repeated interaction between governments and firms has isolated (FT, AC) as a 186 stochastically stable state of the recurrent FDI game. Then this equilibrium must be risk dominant, i.e.: (G11 – G21) (Π11 – Π12) ≥ (G22 – G12) (7) (Π22 – Π21) The inequality in Equation (7) can be satisfied if restructuring has been a priority for the governments that played the FDI game and acquisitions has been crucial to the operations of foreign firms. If the government is committed to rapid restructuring, then the loss in efficiency it incurs by deviating to a gradualist regime when the firm enters via an acquisition can strictly outweigh the political dividends, (G11 – G21) > (G22 – G12) ≥ 0. Similarly, by deviating from (FT, AC), the foreign firm foregoes the benefit of speedy entry through an acquisition which can outweigh the benefit of operating through a subcontracting agreement, (Π11 – Π12) > (Π22 – Π21) > 0. Taken together, the inequalities over the unilateral losses of governments and firms posit sufficient conditions for risk dominance of equilibrium (FT, AC). Alternatively, suppose that the interaction between governments and firms has isolated (GR, IS) as the stochastically stable state of the recurrent FDI game. Then equilibrium (GR, IS) must be risk dominant i.e.: (G11 – G21) (Π11 – Π12) ≤ (G22 – G12) (Π22 – Π21) (8) The inequality in Equation (8) can be the host government wishes to benefit from foreign know-how, but is not ready to undertake rapid restructuring. In addition, this outcome implies that the firm is better off entering indirectly than via acquisition. Intuitively, if the government is not committed to rapid restructuring, the loss incurred by deviating to a fast track regime in the case where the firm enters via subcontracting is more pronounced than the gain obtained by changing to such a regime if the firm enters via an acquisition. That is, (G22 – G12) > (G11 – G21)≥0. A similar reasoning can be used to interpret the actions of the firm at this equilibrium. If the firm considers it is better-off entering via subcontracting than via an acquisition, the cost of deviating at (GR, IS) is strictly greater than that at (FT, AC), so (Π22 – Π21) > (Π11 – Π12) ≥ 0. Therefore, over the long run, in a country where the government has taken a gradual approach to reform, firms are likely to play more of a mediating role in economic restructuring. Formally, the inequalities over the unilateral losses of governments and firms with the above characteristics posit sufficient conditions for risk dominance of equilibrium (GR, IS). Conclusion The recurrent FDI game provides a theoretical framework that captures how the level of restructuring efforts by the MENA governments is strategically interrelated with the amount of restructuring- oriented FDI that foreign firms would undertake. The actions of the government capture the tradeoff between catering to political objectives and the goal of attracting foreign equity. The actions for the firm capture two forms of expansion into the region: FDI modes and other forms. An important outcome of the analysis is the possibility that the game has two equilibriums. In one equilibrium, (FT, 187 AC), the host county is committed to rapid economic restructuring and market-oriented policies. Since at this equilibrium the foreign firm chooses to enter via the acquisition of an existing enterprise, it plays an active role in industrial restructuring. In the other equilibrium, (GR, IS), the host country chooses a more gradualist approach to reform. Here the firm plays more a mediating role in economic restructuring through the indirect transfer of technical and managerial know-how. The interpretation of the game’s equilibriums as long-run conventions about the modality of investment has important implications. First, the contribution of FDI to economic restructuring is only as effective as the commitment of the MENA governments to execute and especially to maintain high paces of reforms. This condition is essential to elevate these countries out of the present equilibrium with low restructuring-oriented FDI. Also, economic restructuring is difficult to succeed without adequate external financial support. Indeed, collaboration between host governments and international fund institutions can serve easing potential social costs, and therefore the pressure for a slow down in economic reforms. References Carr, D., Markusen, J.R., Maskus, K.E. (2001): “Estimating the KnowledgeCapital Model of the Multinational American Economic Enterprise.”, Review 91(3), 693–708. ERF Report (2002): Economic Research Forum: Chapter 2: “Financial and Capital Markets, Privatization and Web Site: FDI”. www.erf.org.eg/docs/Indicators_02/Cha p2.pdf Fudenberg, D., Tirole, J. (1991): Game Theory, Boston: MIT Press. Gibbons, R. (1992): “ Game Theory for Applied Economists”, Princeton University Press. Handoussa, H and Reiffers, J.L (2002): “Trade and Investment in the Mediterranean Partner Countries”: FEMISE report. Web Site: www.femise.org/PDF/femise_0203_en.p df Harsanyi, J. and Selten R (1988): “A General Theory of Equilibrium Selection in Games”, Cambridge. Head, K. and Ries, J.( 2005): “Judging Japan’s FDI: The verdict from a dartboard model,”, Journal of the Japanese and International Economies 19, 215–232. Loungani, P., Mody, A., Razin, A., Sadka, E. (2003): “The Role of Information in Driving FDI: Theory and Evidence,” Scottish Journal of Political Economy 49, pp.546-543. Markusen, J. (1984): “Multinationals, Multi-Plant Economies, and the Gains from Trade”, Journal of International Economics 16, 205-226. Meier, O. and Schier, G. (2005): “Entreprises Multinationales”, Dunod. Mody, A., Razin, A., Sadka, E. (2004): “The Role of Information in Driving FDI Flows: HostCountry Transparency and Source Country 188 Specialization,” NBER Working Paper 9662. Nabli, M. and Véganzonès, M.A (2004): M.: “Reform and Growth in MENA Countries: New Empirical Evidence”, World Bank, Washington D.C. Decisions: The Case of US Firms”, Journal of International Economics, 33, 57-76. Young, P. (1998): “Individual Strategy and Social Structure: An Evolutionary Theory of Institutions”, Princeton University Press. Nash. J (1950): “The Bargaining Problem”, Econometrica 18, 155-162. Navaretti, B. G. and Venables, A.J. (2004): “Multinational Firms in the World Economy”, Princeton University Press, New Jersey OECD (2003): “Global Integration of Economic Activities”, STI Scoreboard (www.oecd.org). Rivoli, P. (2005): “The T-shirt in the Global Economist examines Power and Politics of John Wiley and Sons. Travellers of a Economy: An the Markets, World Trade”; Sekkat, K. and Véganzonès, M.A (2005): “Trade and Foreign Exchange Liberalization, Investment Climate and FDI in the MENA Countries”, BULBEA Research Series, Brussels. Stalk, G. and Young, D. (2004): “Anatomy of a Cost Advantage: It’s More than Cheap Labor”, Manufacturing Today, Boston Consulting Group. UNCTAD: (2005): World Investment Report, United Nations. UNCTAD: (2004): World Investment Report, United Nations. Wheeler, K. and Mody, A. (1992): “International Investment and Location 189 Appendix Table 1: Measure of Commitment to Privatization (Rate Relative to Potential Transactions) Country Egypt Jordan Kuwait Lebanon Morocco Oman Saudi Arabia U.A.E Rate (%) 65 51 32 49 64 52 50 67 Source: EIU (2004); measurement is based on a survey done by the EIU for ratings to privatization. Table 2: FDI Inflows by Host Region and Economy (Millions of US $) Host Region/Economy 1989-94 (Av.) 1995 2003 World Developed economies Developing economies Africa North Africa Algeria Egypt Morocco Sudan Tunisia Asia West Asia Bahrain Iran Iraq Jordan Kuwait Lebanon Oman Qatar Saudi Arabia Syria Turkey UAE Yemen S-E Asia Indonesia Malaysia 200,145 137,124 59,578 3,952 1,533 12 741 352 -5 358 37,659 2,181 237 -23 1 6 -4 10 119 48 502 98 708 90 300 35,078 1,524 3,964 331,068 203,462 113,338 4,694 1,209 5 598 335 -a 378 75,293 -2 431 17 2a 13 7 35 29 94a -1877 100 885 399a -218 73,639 4,346 5,816 1270,764 1,005,178 240,167 8,198 2,616 6 1,235 201 392 781 143,479 3,427 500 36a -a 300a 16 180a 62a 303a 1000a 84a 982 100a -201 137,348 -4,550 5,542 Source: UNCTAD (2004), World Investment Report. 190 R&D Investment and the Financial Performance of Technological Firms Jean-Sébastien LANTZ Associate Professor of Finance ParisTech - Telecom Paris [email protected] Jean-Michel SAHUT Professor of Finance Cerege - Sup de Co La Rochelle [email protected] Abstract The growth of technological firms is based on the exploitation of innovative products and services thus forcing them to strongly invest in research and development (R&D). If the R&D expenditures announce the strategic positioning of firms, they can also significantly decrease the financial performances in terms of net income, return and risk. With the IAS 38 standard, the R&D expenditures can be accounted as expenses or assets. This choice has an impact on financial performances but this effect is difficult to forecast because these expenditures increase the information asymmetry between shareholders and managers. We demonstrate that it is preferable to capitalize the R&D expenditures if the firm is able to draw an immediate commercial exploitation from them or to adopt a swarming strategy of innovative projects (spin-off) as the benefits arise in the future. Keywords: R&D, intangible asset, capitalization, value, beta, return, performance, risk, accounting standard, IAS 38, swarming, spin-off. JEL Classification : G32, G14, L19, O33 191 Introduction The nature of investments realised by firms have especially changed during the last twenty years; intangible investments developed quickly and represent a large proportion of the firms assets, which by nature are difficult to evaluate. The research and development (noted R&D thereafter) expenditures are strategic and sensitive because they intervene in the upstream of the production cycle and reveal the strategic orientations of firms. The decisional choices, resulting from the process of knowledge acquisition and rights, are irreversible and structure firms, sometimes putting them in danger. Moreover, the control of R&D activities is delicate because the developing complexity of technological projects generates an increase of control costs to overcome the information asymmetry. This is the reason why we questioned the incidence of the integration strategies upon the financial performance of firms. This research lies within the scope of the implementation of IAS 38 standard73 in the European Union for firms listed on stock exchanges. This standard should help the financial communication on intangibles assets. Previous research shows that firms which undertake intense R&D expenditures reinforce their position on the market by improving their sales. Nevertheless, these studies did not lead to a consensus about the impacts on income and financial 73 The IAS 38 standard distinguishes two phases in intangible assets creation: the research phase and the development phase. R&D expenditures of the first research phase are expenses, but R&D expenditures of the development phase can be capitalized, i.e. these expenditures are counted as an intangible asset if the firm shows: (A) the technical feasibility of the asset for its start-up or of its sale, (b) its intention to use it or sell it and (c) the resource availability, in particular technical and financial resources, for its development and use. performance. This last aspect remains under researched. This paper is organized in two parts. In Section 2, we located our research in R&D literature in order to define our framework. We formulate assumptions to study the impacts of R&D expenditures on income, financial performance and risk of firms. In section 3, after a descriptive analysis of our sample, we test our assumptions using simple and multiple regressions, as well as tests of differences of the averages. Lastly, we discuss the results obtained in order to show what can be of interest for technological firms to adopt a strategy of R&D expenditures capitalization. I. Theoretical Framework Among the studies on the performance, value and risk of the intangible assets, R&D occupies a dominating position because of the link of this intangible element with the theories of the innovation in economy. In this section, we present a review of the literature about the impacts of R&D expenditures on the firms value, its performance and its risk in order to elaborate our assumptions. A. R&D and the firms value Many researchers have been interested in the relationship between R&D expenditures and the firms value. These studies are founded on a stock exchange analysis of the firms which realized immaterial capital expenditures. The objective is to establish a link between the evolutions of the market value of firms and their immaterial expenditures, generally limited to the expenditures of R&D, publicity, and patents. This market value is expressed as the sum of the market value of the tangible and intangible assets. To explain the link between "R&D and the 192 firms value ", the review of the literature suggests to use the “Q of Tobin” indicator expressed by the ratio: Q t = MVt / RC(Tt + It) where MVt : market value of the assets RC(Tt + It) : replacement value of the tangible assets (Tt) and intangible assets (It) According to its creator, this ratio must equal one. However, the review of the literature studied thereafter, shows that generally this is not the case, which allows for many interpretations. For Tobin (1978) this indicates an imbalance, and thus profitable investment or disinvestment opportunities. Whereas for Salinger (1978), Bulow (1985), and Wernerfelt and Montgomery (1988), this imbalance is due to the out-balance sheet elements (like the provisions for retirements), or to strategic factors (monopoly rent, diversification). The latter authors postulate that the “Q of Tobin” variable consists of measuring the difference between the current value of a firm (market value, output) and the initial value of the resources used to create the firm (historical book value, input). This ratio is thus a measurement of the firms performance since its creation and has to be higher than 1. Other authors such as Griliches (1981), Cockburn and Griliches (1988), Hall(1988), Megna and Klock (1993), Chung and Pruitt (1996) considered this ratio Q as an indicator of the intangible assets of a firm not recognized in accounting. Today, this approach is generally adopted and numerous studies shown a strong correlation between this Q ratio and the intangible expenditures of firms, in particular the R&D expenditures (Hirshey and Weygandt 1985; Skinner 1993; Agrawal and Knoeber 1996). The results obtained seem to be unambiguous; R&D expenditures positively and significantly correlate with the market value of firms. These expenditures are valued by the market as assets which will generate additional cashflows in the long term. For example, Pakes (1978, 1985) found that an increase in R&D expenditures or patents has a positive and significant impact on the firms value. Another approach, founded on heuristic models, comes to confirm this correlation between R&D expenditures, net income and the firms value. Connolly and Hirschey’s (1984) study, which concentrated on 390 firms of the classification Fortune 500, showed the existence of a positive correlation between the R&D expenditures and the firms value. This tends to validate the concept of intangible capital. Nakamura and Leonard (2001) added that during the last decade, studies regularly highlight that the R&D expenditures of a firm increase its market value of an amount at least equivalent to these expenditures. However Lev (1996) does not recognize the stock exchange as a means of evaluating intangible assets. Using the results recorded by Chan, Lakonishok and Sougiannis’s (2001) study, it can be seen that the market systematically underestimates the firms value realizing significant intangible investments, in particular in R&D. Thus, these studies show that there is a positive correlation between the R&D expenditures and the firms value quoted on stock exchange. The current value of the Q of Tobin rate can be explained by the fact that firms are moving to adapt to a certain economic reality where the intangible elements play a crucial role for their development. This importance of the intangible elements is appreciated through its impact on the firms performance in the following section. 193 B. R&D and the firms performance Beyond their impact on the firms market value, R&D expenditures have an influence on the firms performance, which is appreciated in terms of income and return. i) Impact on income : On this point, we can note in particular the contribution of Sougiannis (1994), who studied the correlation between the annual R&D expenditures and the net income announced by the firms in their annual report. Its two main results are : * a dollar spent in R&D induces an average net income rise of 2 dollars over the following 7 years, which means a return of these investments of 26% per year on average, * a dollar spent in R&D leads to a rise of almost 3 dollars of the firm studied value. But Morbey (1989) affirmed that there is any link between the R&D expenditures of American companies and the growth of their profit. In Europe, because of the IAS 38 standard, the result of this type of study depends on the way in which these expenditures are accounted whether as expenses or assets. Ding and Stolowy (2003) worked on the reasons for which French firms capitalize their R&D expenditures and the relevance of this strategy. Their analysis did not provide any result to show this. They just identified, for the French domestic market, the firm’s characteristics (high tech industry and having a high risk beta) which can predict their R&D capitalization. Other authors studied this type of relationship by looking at other factors, like the sales growth, instead of the net income. So, Brenner and Rushton (1989) noticed that the firms which have higher R&D expenditures on average obtain a sales growth rate higher than the market average rate, and vise versa. ii) Impact on return : We have indexed three studies which would confirm the assumption of a positive incidence of R&D expenditures on the return of firms. Chan et al. (1990) highlighted a positive reaction of the firms stock exchange prices when they announce the increase of their R&D expenditures. Canibano, Garcia-Ayuso and Sanchez (2000) asserted that return rises with the increase of the R&D expenditures. It is by supposing that the investments in R&D help to increase future profit, that this sort of research identifies this positive and significant link. However, Sundaram, John and John (1996) reached the opposite conclusion. They did not find a positive relationship between R&D expenditures and stock exchange prices. By refining their study, they showed that the reaction of the market depends on the level of competition in the sector ; an increase of R&D expenditures in a non competitive sector (weak competition) leads to a rise of the initiating firm’s stock price. On the other hand, in a very competitive sector, this type of announcement induces a fall of the firms stock price. This difference, concerning the impact on the stock price, is noted by other authors like Hall (1993) and can be explained by the fact that the results depend on the period of the study, and in particular, if they were carried out before or after the year 1985, which seems to be a hinge year in terms of investor behaviour in the United States. These various studies assert that the R&D expenditures of a firm influence its value, return and its accounting figures with, however, a strong sensitivity to the economic situation and the competition in their sector. Consequently, we make the following assumption: H 1.1: The return of technological firms is decreasing with the intensity of the expenses in R&D (expenses of R&D/turnover). 194 On the other hand, a firm which intensely exploits the results of its research should generate a significant turnover compared to its intangible assets and have weak intangible fixed assets compared to its total assets. Indeed, if the R&D expenditures are accounted as expenses, they strongly decrease the firms income but if they are capitalized, they weigh down the balance sheet. In the first case, they deteriorate the margin ratio and in the second case, they decrease the financial lever, finding its origin in asset rotation. So, we can deduct the following assumptions : H1.2: The firms return increases when the R&D expenditures are accounted as expenses rather than assets. H1.3: The firms return grows when its EBIT is significant compared to its intangible assets. C. Expenditure of R&D and risk of the firm The immaterial elements put the firm in a situation of informational asymmetry compared to the market because it obviously lacks control on the contents as well as on the prospects for future profit. The immaterial investments require an attentive management and specific means because of their particular risks. Indeed, the future value of these assets is not guaranteed. These R&D projects imply very high development and control costs. From this point of view, firms must exert high expenditures for a dubious future return. More over, innovating firms generally have a strong growth. This induces a risk of growth which can lead to problems of liquidity, and bankruptcy especially because these firms are generally small and do not have the financial strength necessary to absorb these crises. In the technological sector, like the pharmaceutical industry, many research projects are developed by small specialized laboratories which, in the event of success, sell or lay off their discoveries to big groups. This is because the uncertainty of the innovations created involves a technological and competitive risk - the first is that a technological rupture brutally makes obsolete the discovery, the second is that its discovery will not become a market standard - that small firms cannot assume. In a study on the failure factors of investment projects, Mansfield and Wagner (1975) showed that intangible investments have a greater probability of failure than tangible investments. For Williamson (1988), the absence of materiality in these investments, associated with the absence of secondary market, implies that there is not real guarantee put on the asset, and this leads to a stronger risk of insolvency. Studies realized by Mansfield and Wagner (1977), Griliches (1979), Jaffe (1986), Audretsch and Feldman (1996) demonstrate that the spillovers relating to processes of specific R&D make it possible for competitors to gain competitiveness at a lower cost; the imitation of the processes. These studies show in particular that, in the sectors with a strong intensity of R&D, the R&D expenditures increase the competitor’s inventories of knowledge and improve the results of their research. Another characteristic intangible expenditure is irreversibility, i.e. if a firm stop a project, it can not recover all the money invested, because generally these investments are partly specific to the firm and cannot be sold at their acquisition cost. Lastly, with regards to the link between risk of the firm and R&D expenditure, Ding and Stolowy (2003), in a study on the capitalization of R&D expenditures applied to a sample of 68 French firms belonging to the SBF 250 index, noticed that the companies which capitalize their 195 R&D expenditures have a high beta risk. The study of Y.K. Ho, X. Zhenyu, and C.M. Yap (2004) leads to the same conclusion. Based on a broad sample of American firms characterized by a very significant stock exchange capitalization, this study indicates a very great return for firms with very intensive R&D expenditures. At the same time, the analysis of the correlation confirms that the intensity of the R&D expenditures positively relates to the systematic risk of the stock market. Thus, we can elaborate the following assumptions: H2.1: the more intense the R&D expenses of a firm are, the riskier the firm is (high beta). H2.2: The risk of the firm is higher when it capitalizes its R&D expenditures. H2.3: The firm is less risky when its EBIT is high compared to its intangible fixed assets. The review of the literature insists on contradictory results about the incidence of the R&D expenditures on the firms financial performance. Our synthesis and observation led us to suppose that if the R&D expenditures should indicate the capacity of a firm to maintain its competitive advantages. Firstly there are a source of expenses coming to decrease the firms return. Moreover, the asymmetry of information being increasing with the R&D expenditures, they would enhance the perceived risk by the investors. In order to test these assumptions, we chose to focus our study on technological firms because their activities are based on the economic exploitation of their R&D results. In the following section, we expose the characteristics of our sample and the methodology employed to test these six assumptions. II. Empirical results A. Sample and methodology For the purpose of our analysis we use data from the 2004 annual report of firms and the JCF Quant software. For homogeneity, the firms of our sample are exclusively listed on EURONEXT and NASDAQ. Our sample is composed of 213 firms in technological sector74. The annual return of a share is obtained by summing the daily returns which are calculated with the closing prices. For each firm of the sample, the beta is the covariance of the daily stock return with the daily market index return divide by the variance of the daily market return. The objective of the regression analysis, which we lead in the empirical part, is to explain the firms financial performance in the sample, in terms of return and beta, (the metric dependent variables) with the other accounting metric independent variables. B. Descriptive sample analysis of the The technological firms of our sample have R&D expenditures accounted as expenses in the income statement which rise on average to 100,7 million euros. These expenses are highest for the aerospace and telecommunications sectors, 74 Our original sample is composed of a total of 365 European firms. 194 of them are within the software sector, 73 in the telecommunications, 68 in the aerospace and 30 in biotechnologies. Initially, we refined the composition of the sample by excluding the 108 firms whose earnings, before interests and taxes, are negative because the ratios necessary for our analysis are not interpretable when they are negative. For the same reasons, we excluded the 23 firms which have a negative recorded value of their intangible fixed assets. Our sample is then made up of 234 firms. Secondly, after a logarithmic transformation of our data, we excluded the firms with extreme values. That is to say, we excluded 21 firms, so our final sample was composed with 213 firms. 196 with respectively 312 million euros and 55,3 million euros. For the software sector, expenses in R&D are on average 33,7 million euros and 1,47 million in biotechnologies sector. More over, the companies in the aerospace and telecommunications sectors have the largest total assets and the he biotech firms are the smallest : the size is nearly 94 times lower than those in the aerospace sector. These statistics show that biotech firms are mostly spin-off of pharmaceutical groups or large laboratories. The averages EBIT and intangibles assets also follow the same order. However, this order is reversed when we look at intangible assets with regards to the total assets (the intangibility of the firm). Whereas the firms in the biotechnology and the software sectors have respectively 6,8% and 5,6% (medians) intangibles to their total assets, firms in the telecommunications and aerospace sectors have close to two times less intangible assets (respectively 3,7% and 3,9%). These observations point out that these last two sectors invested and capitalized less in R&D expenditures. We approximate the R&D capitalization intensity with the ratio : intangible asset / R&D expenses, that we call the R&D capitalization ratio. For firms with significant R&D expenditures, a high R&D capitalization ratio means that the firm strongly account their R&D expenditures as intangible assets. Intangible assets are then high compared to the R&D expenses. We will see later that the R&D capitalization ratio must be combined with the R&D expenses ratio to improve financial analysis. But before going further in the interpretation of the descriptive statistics, let us recall that the ratio of R&D expenses is high if the expenditures in R&D, registered in the income statement, are high compared to the EBIT. The median of the R&D capitalization ratio for our sample of technological firms is 1,446. The expenses in R&D thus represent about two thirds the intangible assets. The median of this ratio appears particularly low in biotechnology firms (0,66). One explanation of this observation is that investments in R&D are capitalized in the balance sheet. If, one observes a low R&D expenses ratio, one can then conclude that the firm does not have a strategy to indicate the quality of its projects by displaying only its expenditure in R&D. This can be shown in the biotechnologies sector since the median of the R&D expenses ratio is low (0,7). One explanation is that the R&D expenses have a large proportion of the operating costs and that it is preferable to reveal this expenditure by increasing the EBIT. On the other hand, expenses in R&D in the software industry represent 1,26 times the EBIT. Indeed, in a lot of cases, the net income is inevitably negative. In addition we can observe a R&D capitalization ratio of 1,82, nearly three times superior to the biotechnology sector. In this sector, it seems that companies tend to announce the quality of their projects by showing explicitly their investments in R&D. Table n°1: Indicators of accounting integration of the R&D expenditures Intangibles R &D Sector Statistics expens./EBIT Aerospa. Average 1,1292 Median , 4035 Biotech Average 1,0138 Median , 7000 Software Average 2,626 Median 1,2568 Tele Average 1,5683 COM Median , 8881 Total Average 1,8709 Median , 8671 Expens. :expenses / asset 0,0694 0,0391 0,1229 0,0681 0,0647 0,0566 0,0613 0,0372 0,0707 0,0443 Intangibles / Intangibles R&D expens. / EBIT 2,433 1,8506 1,2278 , 7091 2,1139 2,6895 , 6634 , 4989 3,1118 6,9787 1,8209 2,4276 4,8426 1,5735 3,2636 1,4465 197 4,6729 1,5501 4,8209 1,2612 The graph n°1 helps us to visualize that the median of the R&D capitalization ratio is close to the R&D expenses ratio for the four sectors. Indeed, it seems that the capitalization of the R&D expenditures are related to the economic cycle. In the software sector, the entry barriers rely essentially on intense short term technological renewal. This is because, on the one hand, the software remains difficult to patent (although it is made possible in the United States) and on the other hand, the cycles of innovation are very short (for example six months for the videogames and up to 3 years for professional software). The investments of R&D are appropriate in the short term. In general in biotechnologies, the economic cycles are more than ten years. Commercial exploitation often takes place in a situation of monopoly because of the patents and commercial licences. These are genuine entry barriers for the competitors in this sector. The investments in R&D are appropriate for a long term strategy and mostly appear in the operating costs, because they are part of the economic cycle. Graph n°1: Intensity of R&D expenses and capitalization expenditures as expenses, compared with the telecom and software sectors. The following table shows, the median of the betas in the aerospace and biotechnology sectors are 0,65 and 0,61. Thus, it testifies that those industries are not very risky compared to the telecom and software sectors, which respectively have betas of 1,76 and 2,13. These sectors can be grouped in two categories: category 1: sectors with strong signal of investment in R&D (telecommunications and software), category 0: sectors with low signal of investment in R&D (biotechnologies and aerospace). We observe on our sample of technological firms that the median return is 13,5 % for a median beta of 1,33. The median beta is three times superior for the sectors with a strong activity in R&D since it is 1,95 against 0,63 (median) for the firms with low ratios. Cumulated returns follow a reversed order because the sectors integrating their expenditures in R&D have returns nearly 9 times lower: 4% against 34%. Table n°2: Integration of the R&D expenditures and firms financial performance Signal Sectors with low signal in R&D –0 Sector Aerospac Average Median Biotech Average Total Software Sectors with low signal in R&D –1 NB: the figures come from the sectorial medians calculated in the previous table The graph above points out that the aerospace and biotechnologies sectors are a less likely to account their R&D Telecom Total Median Average Median Average Median Average Median Average Median Beta , 6400 , 6500 Return 0,6106 0,4 , 5357 , 6100 , 6092 1,0043 0,24 0,727 , 6300 2,1686 2,13 0,34 0,0769 -, 0400 1,757 1,76 2,0247 0,3288 0,175 0,165 1,95 0,04 These first statistics highlight that the firms in the telecommunications and software 198 sectors are underperformers in term of return and beta, compared to the firms in the aerospace and biotechnologies sectors. We continue our analysis using simple and multiple regressions to examine whether the accounting strategies of investments in R&D have an effect on the financial performances of the technological firms, or if we are more simply facing sectorial effects. C. Accounting of R&D expenditures and financial performance 1. The correlations matrix The existence of negative returns and betas led us to a shift of the scale. After, we have proceeded to a logarithmic transformation for each variable and drew up the matrix of correlations. We examine the effect of our variables on the financial return by analyzing the results of the simple and multiple regressions. Finally, while following the same process, we studied the effect of our variables on the financial risk beta. This methodology allows us to confirm the assumptions we posed in our review of the literature, and to examine whether there are differences in the average of the financial performances according to the selected strategies. Table n° 3: Pearson correlations matrix (ANNEXE 1) The following sections discuss the correlations between the studied variables and the financial performances of the firm, and between the variables themselves. 2. R&D investment and the return of technological firms The table of correlations reveals that the intangibility of the firm, measured by the intangible assets to the total assets, does not have any relationship with the stock returns of technological firms (correlation = -0,022). On the other hand, we can observe a weak negative correlation (- 0,167*) of the stock returns with the R&D expenses ratio (R&D expenses/EBIT) and a weak negative correlation of -0,138* with the R&D capitalization ratio (Intangible assets/R&D expenses). Although these results are significant only with an error threshold of 5%, they are useful to indicate the tendency that the R&D expenditures decrease the firms return. Here, we confirm the H1.1 assumption with precaution. Let us recall that the explanation of this result is due to the fact that the expenditure of R&D, entered as expenses in the income statement, burdens the net income of the firm and/or comes to weigh down the balance sheet when they are capitalized (the correlation between these two variables is 0,173*, which authorizes us to proceed to a multiple regression). When one considers the R&D to asset capitalization ratio (total assets/R&D expenses), the correlation is significant with an error threshold of 1% (-0,188**). This observation puts forward the importance attached by the stock market to the negative leverage effect of capitalized R&D expenditures. This variable has a strong correlation with the two variables previously studied. Thus, the more one firm chooses an intense capitalization of its R&D expenditures to the total asset, the lower the stock return is (H1.2 confirmed). The best way to describe this is with the intangible operating ratio (intangible assets /EBIT) which seems to signal the best the return. The correlation is -0,234 ** and is significant with an error threshold of 1%. The firm announces its capacity to generate benefits for the shareholder, providing that its EBIT is high compared to the intangible assets. This observation shows that the firm fully makes use of its intangible assets by exploiting them commercially. (H1.3 confirmed). Let us note that the intangible operating ratio is strongly correlated with the R&D to intangible capitalization ratio (0,709 **) and with the R&D expenses ratio. On the 199 other hand, the intangible operating ratio is not highly correlated with the R&D to asset capitalization ratio (0,145*). When one regresses the intangible operating ratio and the R&D to asset capitalization ratio with the stock returns, we can only explain 3,6% of the variance. The estimated coefficients are not significantly different from zero. These results oblige us to reject the assumption, according to which there would be a combined effect of these two variables on stock returns. At this stage, we will retain that the more the firm has a high EBIT compared to its intangible assets, the higher the stock returns. The intangible operating ratio (Intangible assets/EBIT) is the product of the R&D expenses ratio and the R&D to intangible capitalization ratio (Intangible assets/R&D expenses x R&D expenses/EBIT). From this you can see that the stock returns of a firm increase with its capacity to generate benefits, by entering its expenditures in R&D as expenses in the income statement, rather than to capitalize them. This assumption is confirmed when one regresses the R&D expenses ratio (R&D expenses/EBIT) and the R&D to intangible capitalization ratio (Intangible asset/ R&D expenses) with the return. The explained variance is 5,7% with an error threshold lower than 1%. The coefficients estimated for this regression are positive and significant with an error threshold of 1,4 %. The estimated coefficients show that the return is higher when the firm records its expenditure of R&D as expenses rather than as intangible assets and that the firm is capable to generate a high EBIT compare to its R&D expenses. This result demonstrates again that high-return companies have R&D programmes supported by the operating profits, rather than by the balance sheet. Problems of multi colenearity do not authorize us to proceed to other multiple regressions. Performing technological firms do not capitalize their entire R&D expenditures, because it is not very probable that all research is successful. On the other hand, when a firm has low R&D expenses compared to the size of its assets and when the firm has high R&D expenses compare to its EBIT, its net income can only be negatively affected. Within this framework they would be start-up or large companies which have cumulated a delay as regards innovation compared to the market, or firms which have invested in unfruitful R&D. Indeed there are many scenarios where the R&D expenditures give rise to financial risks that we propose to analyze in the following section. Table n°4: Simple and multiple regressions between return and R&D expenditure variables (ANNEXE 2) 3. R&D expenditures and the risk of the technological firms We observe a positive relationship between the R&D expenses ratio (R&D expenses/EBIT) and the risk measured by the beta, since the coefficient of correlation is 0,33 and is significant with an error threshold of 1 %. The R² of the simple regression between beta and the R&D expenses ratio is 0,11**. Indeed, the market would tend to consider the firms which show large expenses in R&D compared to the EBIT as being riskier. This is due to the fact that these firms would have multiple options of economic exploitations of this research in the future (real options). However, the fact that they are not marketable immediately generates a doubt about the economic effectiveness of this research and thus the perceived risk by investors. (H2.1 confirmed). It is noticed that the variable intangibility of the firm measured by the ratio total assets/intangible assets maintains a strong positive correlation (0,765 **) with the variable "R&D to intangible capitalization ratio". In other words, when the firm 200 records significant expenditure of R&D in the income statement, rather than in the balance sheet, it has few intangible assets compared to the total assets. It is thus noted that more the firm records significant expenditure in R&D as expenses, the less it appears to be intangible. If we do not find a relationship between the intangibility of the firm and its risk, it is not the same with its R&D to total asset capitalization ratio. The more the expenditures of R&D recorded as expenses are significant, compared to the total assets (low R&D to total asset capitalization), the less risky the firm appears (correlation of 0, 211 ** and H2.2 is confirmed). The correlation which characterizes the relationship between the variables “R&D expenses ratio” and “R&D to intangible capitalization ratio” is -0,173 and significant with an error threshold of 5 %. This correlation is statistically very weak and we proceed to a multiple regression in order to examine whether it is possible to improve the results previously obtained. As the correlation between the variables “R&D expenses ratio” and “R&D to total asset capitalization ratio” are very significant (-0,447 **), we cannot proceed to multiple regressions. When we regress the variables “R&D expenses ratio” and “R&D to intangible capitalization ratio” we find a clear improvement of the explained variance of betas : 12,6%. Although the F test is significant with the threshold of 1%, the coefficient of the variable " R&D to intangible capitalization ratio" is not statistically significant. The product of the two ratios can be rewritten as the intangible operating ratio : “intangible assets/EBIT”. This ratio has a close relationship with the beta since the correlation is 0,286 (R²=0,082). Indeed, the firm is riskiest when its EBIT is low compared to its intangible assets. (H2.3 is confirmed). In this case, the market can be interpreted as having a low EBIT for high intangibles which is dangerous for technological companies. It would mean that in spite of, for example, the development of new patented products or the acquisition of brands, it puts doubt on the opportunities for the firm to exploit economically its assets, thus generating a source of risk. As we previously mentioned, when we regress the variable "intangibility of the firm” to the beta, we obtain a R² of 0,009 and none of the statistic tests validate a significant relationship between these two variables. This result indicates that the variable measuring the intangibility of the firm is not an indicator of the risk for technological firms when it is taken independently of other variables. On the other hand, this ratio takes all its meaning, when it is aggregated with the variable “R&D expenses”. The R² is then 0,134. The tests of Fisher and Student are all significant. The coefficient of correlation between the two explanatory variables being slightly significant (0,139 *). From this, we deduce that the beta increases as the firm has increasing R&D expenses and decreasing intangible assets to total assets (the coefficient of this last variable being negative). It is thus observed that a firm can compensate with intangibles for the risk generated by its R&D expenses. The explanation that we can give for this is due to the fact that capitalization tends to reduce the informational asymmetry of innovating firms. This is because an intense control is then exerted, contrary to the expenditure of R&D, which is more abstract in its interpretation. The expenditure in R&D capitalized in the balance sheet is then perceived as a source of competitive advantage. The risk of a firm increases with high R&D expenses and low intangible assets to its total assets. 201 The last two results obtained are significant because they confirm the assumption according that stakes that a technological firm announces the quality of its research programmes by the capitalization of its expenditure in R&D, while being able to generate a consequent EBIT. This means that the technological firms reduce the asymmetry of information by adopting this strategy, because it shows that it is able to draw part of its intangible assets. A firm which would only capitalized little of its expenditure in R&D, would tend to signal to the market that its research programmes are only slightly effective. Table n°5: Simple and multiple regressions between risk beta and R&D expenditures variables (ANNEXE 3) D. Tests averages of differences of the After identifying the two variables, “R&D expenses ratio” and “R&D to intangible capitalization ratio”, as having jointly an incidence on the technological firm’s stock return and risk, we now propose to measure the impact of these variables on our sample, divided into four groups. These groups where made by splitting our variables at the median. The following graph represents the financial performances of the technological firms according to their investment strategy in R&D. We observe that the market gives a very high risk to the innovating firms, which are characterized by an intense strategy of R&D (Group G1). Beta is close to two times higher compared with the firms that have a low strategy of R&D (Group G2), since it passes on average from 2,01 to 1,17. Graph n°2: Investment strategy in R&D and financial performances of the technological firms Return G4 : Low R&D investment Strategy G2 : R&D investments as expenses Low R&D expenses ratio Low intangible capitalization ratio High R&D expenses ratio Low intangible capitalization ratio Average Return = Average beta = Average Return = Average beta = G3 : 41,48% 1,17 Capitalized R&D investments G4 : 26,46% 1,80 High R&D investment Strategy Low R&D expenses ratio High intangible capitalization ratio High R&D expenses ratio High intangible capitalization ratio Average Return = Average beta = Average Return = Average beta = 24,95% 1,29 18,45% 2,01 Beta When we study the differences of the averages of the two groups, which are clearly different in terms of investment strategy in R&D (G1 group has a very strong strategy of R&D investment compared to the G4 group), we obtain the following results : Table n°6: Differences of the averages between the groups G1 and G4 Beta Return Group 1 4 1 4 N 64 42 66 41 Average Standard standard Average deviation error 2,0101 1,1747 0,1446 1,1716 1,14092 0,17605 0,1845 0,51841 0,06287 0,4148 0,68484 0,10695 Table n°7: Test of independent samples (ANNEXE 4) The Levene test of equality of the variances allows us to consider that the distribution of the betas of the two groups have a similar shape. This is also observed by the proximity of the standard deviations when they are squared. Consequently, the test of the differences of the averages is interpreted with the estimated parameters, which consider the equality of the variances. The statistic t (p value) is 3,65 and has a probability of 0,000. We can conclude that the averages of the betas of the two groups are significantly different. 202 We also observe that returns are double for the firms with a low investment strategy in R&D (18,45% vs 41,48%). The test of differences of the averages is, however, less conclusive because we are prepared for the possibility of considering an equality of the variances and in fact to consider that our averages are statistically different with an error threshold lower than 5%. However, the survival of the technological firms can not always ignore investment in R&D and it appears preferable to capitalize the R&D expenditures. If the test of differences of the averages on returns is not significant between groups G2 and G3 (respectively 26,46% and 24,95%), it is the opposite for the betas. The average beta is 1,29 for the firms which capitalized their expenditure in R&D and 1,8 for the firms which enter their expenditure in R&D as expenses. This difference of the averages is significant with an error threshold of 2%. Thus, for an almost equal return, it is preferable to capitalize the expenditure in R&D because the perceived risk of the firm by the market will be reduced. Let us notice that this difference is even stronger between the firms of groups G1 and G3, since the capitalization strategy lowers the risk from a beta of 2,01 to 1,29. The test of the differences of the averages is significant with an error threshold of 1% on the betas, whereas it is not significant on the returns. A strategy of capitalization has consequently a decisive impact on the financial performance of technological firms. The explanation, according to which the accounting rule of capitalization (IAS 38 standard) limits drifts, signals the control of technology and contributes to reduce the uncertainties and risks of the business plan, is confirmed through our empirical analyses. Conclusion The growth of technological firms relies on its opportunities to exploit innovative products and services, thus forcing them to strongly invest in research and development (R&D). Our results show that R&D expenditures signal the strategic positioning of a firm and significantly put strain on the financial performances. We define companies with intensive investments in R&D as companies that have a high R&D expenses ratio (R&D expenses/EBIT) and a high R&D capitalization ratio (Intangible assets/R&D expenses). We have observed that the beta is nearly two times higher, and the return nearly two times lower for companies with intensive investments in R&D, compared to low R&D investing companies. Indeed, firms with an intensive investment strategy in R&D have significantly lower financial performances. Nevertheless, rules of R&D capitalization seems to limit the information asymmetry between technological firms and the exchange market, because firms with a high R&D capitalization ratio (Intangible assets/R&D expenses) have lower betas. Financial performances hold so long as the company generates important earnings. If not, it appears that the more a firm capitalizes its R&D expenditures, the more it increases its intangible assets. So, the capitalization of R&D weighs down the balance sheet and has a negative leverage effect on the returns. R&D, being impossible to avoid for some technological firms, our results show that it is preferable to capitalize the R&D expenditures if the firm is able to draw an immediate commercial exploitation from them. In this case, where the benefits are expected in the future, the R&D expenditures will have a strong negative impact on the financial performances. It is then preferable to externalise projects (spin-off) which require significant 203 investments in R&D, rather than to develop them in-house. Quantitative Analysis, Vol. 31, n° 4, December, pp. 493-512 While talking about their patents, brand and know how, Bill Gates said about Microsoft: “ our primary assets do not show up in the balance sheet at all. ”The observation we made from this article might contribute to the explanation of the current spin-off trend in technological groups and why annual reports do not have much affect on. COCKBURN I., GRILICHES Z. (1988), "Industry effects and appropriability measures in the stock market's valuation of R&D and patents", American Economic Review, May, pp. 419- 423 Bibliography DING Y, STOLOWY H. (2003), « Capitalisation des frais de R&D en France : déterminants et pertinence», working paper du Groupe HEC AGRAWAL A., KNOEBER C. R. (1996), "Firm performance and mechanisms to control agency problems between managers and shareholders", Journal of Financial and Quantitative Analysis, Vol. 31, n° 3, September, pp. 377-397 ALCOUFFE C, LOUZZANI Y. (2003), « Impact des dépenses dans l’activité de la R&D sur la performance des entreprises industrielles en France » LIRHE, unité mixte de recherche CNRS/UT1 AUDRETSCH D. B., FELDMAN M. P. (1996), "R&D spillovers and the geography of innovation and production", American Economic Review, June, pp. 630-640 BRENNER M. S., RUSHTON B. M. (1989), "Sales growth and R&D in the chemical industry", Research-Technology Management, Vol. 32, n° 2, March-April, pp. 8-15 CHUNG K. H., PRUITT S. W. (1996, a), "Executive ownership, corporate value, and executive compensation : a unifiying framework", Journal of Banking and Finance, Vol. 20, pp. 1135-1159. CHUNG K. H., JO H. (1996, b), "The impact of security analysts' monitoring and marketing functions on the market value of firms", Journal of Financial and CONNOLLLY R. A., HIRSCHEY M. (1984), "R&D, market structure and profits : a value-based approach", Review of Economics and Statistics, pp. 682-686 DING Y, STOLOWY H, ENTWISTLE G. (2003), « International differences in R&D disclosure practices : evidence in a French and Canadian context », 26th Annual Congress of the European Accounting Association GAGNON M.A. (2004), « Nouvelle économie et actifs intangibles : les défis de la dimension immatérielle de la création de valeur », Cahiers de Recherche-CEIM GRILICHES Z. (1979), "Issues in assessing the contribution of research and development to productivity growth", Bell Journal of Economics, n° 10, spring GRILICHES Z. (1981), "Market value, R&D and patents", Economic Letters, Vol. 7, n° 2, pp. 183-187 HALL B. H. (1993), "The stock market's valuation of R&D investment during the 1980's", American Economic Review, May, pp. 259-264 HALARY I..(2005), « Ressources immatérielles et fiance de marché : le sens d’une liaison », CERAS-LAME, Université de Reims 204 HIRSCHEY M., WEYGANDT J. J. (1985), "Amortization policy for advertising and research and development expenditures", Journal of Accounting Research, Vol. 23, n° 1, spring, pp. 326335 HO Y.K, ZHENYU X ET YAP C.M. (2004), « R&D investment and systematic risk » Accounting & Finance, Vol 44, issue3 JAFFE A. (1986), "Technological opportunity and spillover of R&D : evidence from firms' patents, profits and market value", American Economic Review, Vol. 76, n° 5, December, pp. 9841001. LEV B., SOUGIANNIS T. (1996), "The capitalization, amortization, and valuerelevance of R&D", Journal of Accounting and Economics, Vol. 21, n° 1, February, pp. 107-138 MANSFIELD E., WAGNER S. (1975), "Organizational and strategic factors associated with probabilities of success in industrial research and development", Journal of Business, Vol. 48, n° 2, April MEGNA P., KLOCK L. (1993), "The impact of intangible capital on Tobin's Q in the semiconductor industry", American Economic Review, May, pp. 265-269 MORBEY G. K. (1989), "R&D expenditures and profit growth", ResearchTechnology Management, Vol. 32, n° 3, May-June, pp. 20-23 NAKAMURA, LEONARD (2001), “Investment in Intangibles: Is a Trillion Dollars Missing from GDP?”, Federal Reserve Bank of Philadelphia, Business Review, Fourth Quarter, pp. 27-37 PAKES A. (1985), "On patents, R&D and the stock market rate of return", Journal of Political Economy, Vol. 93, n° 2, April, pp. 390-419 SKINNER D. J. (1993), "The investment opportunity set and accounting procedure choice", Journal of Accounting & Economics, Vol. 16, n° 1-2-3, pp. 407-445 SMITHERS, A AND WRIGHT, S (2002) ‘Will the Real US P/E Please Stand Up?’, Report No 174, Smithers & Co. Ltd, London. SOUGIANNIS T. (1994), "The accounting based valuation of corporate R&D", Accounting Review, Vol. 69, n°1, January, pp. 44-68 SUNDARAM A. K., JOHN T. A., JOHN K. (1996), "An empirical analysis of strategic competition and firm values : the case of R&D competition", Journal of Financial Economics, Vol. 40, n° 3, March, pp. 459-486 WERNERFELT B., MONTGOMERY C. A. (1988), "Tobin's q and the importance of focus in firm performance", American Economic Review, Vol. 78, n° 1, March, pp. 246-250 WILLIAMSON O. E. (1988), "Corporate finance and corporate governance", Journal of Finance, Vol. 43, July, pp. 567-591 205 ANNEXE 1 RD expens./ EBIT RD expens. /EBIT Intangible/ RD expens. Assets/RD expens. Intangib. /EBIT Intangib /asset Beta Return Correlation of Pearson Sig. (bilateral) Correlation of Pearson Sig. (bilateral) Correlation of Pearson Sig. (bilateral) Correlation of Pearson Sig. (bilateral) Correlation of Pearson Sig. (bilateral) Correlation of Pearson Sig. (bilateral) Correlation of Pearson Sig. (bilateral) Assets/RD expens. Intangib /EBIT Intangib /asset Beta 1 Intangible /RD expenses -, 173(*) -, 447(**) , 139(*) . ,012 ,000 , 572(**) ,000 , 331(**) ,000 -, 167(*) ,015 -, 173(*) 1 , 557(**) . ,000 , 765(**) ,000 ,054 , 012 , 709(**) ,000 ,431 -, 138(*) ,046 -, 447(**) , 557(**) 1 , 145(*) -, 109 , 000 ,000 . ,035 ,114 , 211(**) ,002 -, 188(**) ,006 , 572(**) , 709(**) , 145(*) 1 , 000 ,000 ,035 . , 738(**) ,000 , 286(**) ,000 -, 234(**) ,001 , 139(*) , 765(**) -, 109 1 -, 094 -, 022 , 043 ,000 ,114 , 738(**) ,000 . ,171 ,754 , 331(**) ,054 , 211(**) -, 094 1 , 000 ,431 ,002 , 286(**) ,000 ,171 . -, 200(**) ,003 -, 167(*) -, 138(*) -, 188(**) -, 022 , 015 ,046 ,006 -, 234(**) ,001 -, 20(**) ,003 ,043 ,754 Return 1 . * The correlation is significant at level 0.05 (bilateral) ** the correlation is significant at level 0.01 (bilateral) Incorpo./EBIT: intangible fixed assets/turnover ANNEXE 2 Ratio R&D expenses ratio Simple regression -0,066 [ 0, 0 15 ] Firm Intangibility Simple regression Simple regression Simple regression Multiple regression - 0,0 78 [ 0, 0 04 ] Multiple regression -0,057 [ 0,014 ] -0,017 [ 0,53 ] - 0,0 82 [ 0,0 55 ] 0,057 0,048 6,299 [ 0, 00 2 ] 0,036 0,027 3,896 [ 0,022 ] -0,009 [ 0,754 ] R&D to Intang. capitalization ratio R&D to total assets capitaliz. ratio Intangible operating ratio R2 Adjusted R2 F Significant Simple regression -0,047 [ 0,046 ] -0,09 8 [ 0,006 ] 0,026 0,023 6,036 [ 0, 015 ] 0,022 0,000 0,098 [ 0,754 ] 0,019 0,014 4,030 [ 0,046 ] 0,035 0,031 7,663 [ 0,006 ] -0,066 [ 0,001 ] 0,055 0,05 12,19 [ 0, 00 1 ] 206 ANNEXE 3 Ratio R&D expenses ratio Fim Intangibility R&D to Intang. capitalization ratio R&D to total assets capitaliz. ratio Intangible operating ratio R2 Adjusted R2 F Significant Simple regression 0,092 [ 000 ] Simple regression Simple regression Simple regression Simple regression Multiple regression 0,028 [ 000 ] - 0,02 7 [ 0,171 ] 0,013 [ 0,431 ] Multiple regression 0,099 [ 000 ] -0,042 [ 0,026 ] 0,099 [ 0,079 ] 0,078 [ 0,002 ] 0,11 0,106 26,04 [ 000 ] 0,009 0,004 1,889 [ 0,171 ] 0,003 0,002 0,622 [ 0,431 ] 0,044 0,04 9,785 [ 0,002 ] 0,057 [ 000 ] 0,082 0,078 18,862 [ 000 ] 0,126 0,118 15,077 [ 000 ] 0,134 0,126 16,144 [ 000 ] ANNEXE 4 Test of Levene on the equality of the variances BETA RETURN AEV (2) AEV AEV AEV F Sig. T ddl , 575 0,45 2,503 0,117 3,656 3,68 -1,988 -1,857 106 89,333 107 67,597 Test-T for equality of the averages Diff. st. Interval (1) Sig. Average (bilat.) diff. deviation Inf. Sup. 0 0,8384 0,22931 0,3838 1,2931 0 0,8384 0,22782 0,3858 1,2911 0,049 -, 2304 0,1159 -, 46014 -, 00060 0,068 -, 2304 0,12406 -, 47796 0,0172 (1) Confidence Interval : 95% of the difference (2) AEV : Assumption of equal variances 207 Les Enjeux de la Gestion du Risque de Crédit Laurence LE PODER BP 921 13288 Marseille Cedex 9 [email protected] Tél. : + 33 (0)491 827 794 Fax : + 33 (0)491 827 750 Résumé Le secteur bancaire est l’un des secteurs de l’économie confronté à une grande diversité de risques. Etant donnés les multiples risques auxquels les banques sont confrontées, nous nous sommes focalisés sur le risque de crédit ou risque de contrepartie. Ce risque constitue aujourd’hui un risque majeur contenu dans le bilan bancaire et conditionne donc la solvabilité des institutions bancaires et la sécurité du système. La mesure et la gestion du risque de crédit font l’objet de nombreux développements sous l’impulsion de plusieurs facteurs, d’une part réglementaires (la détermination d’un ratio fonds propres réglementaires se fondent sur la prise en considération du risque de crédit en l’occurrence), d’autre part techniques (des progrès ont été réalisés dans la mesure du risque de crédit) et enfin économiques (la gestion du risque de crédit est une activité coûteuse pour les établissements bancaires pouvant avoir un impact sur leurs performances). La gestion du risque de crédit et celle du portefeuille de prêts constituent un atout majeur pour les établissements et les autorités de tutelles. Après un tour d’horizon de l’état actuel des connaissances en matière de mesure et de gestion du risque de crédit, nous nous proposons de mettre en évidence les enjeux des nouvelles techniques de gestion du risque de crédit. Les innovations financières en la matière, encore peu développées en Europe, pourraient avoir des incidences sur la performance bancaire. Dans un premier temps, nous abordons les principales approches de mesure du risque crédit, qui peuvent globalement se regrouper en deux catégories d’approches. La première approche, probabiliste, se fonde sur un rating de crédit, c'est-à-dire une mesure statistique du risque de crédit. La seconde approche, qualifiée d’approche fonctionnelle, évalue le risque de crédit de manière quantitative, c'està-dire comme une fonction d’un taux instantané d’occurrence. Cette approche est liée est liée au développement des nouveaux instruments de gestion du risque de crédit, notamment des dérivés de crédit. Dans un second temps, nous abordons les différentes techniques et instruments de gestion du risque de crédit. Une distinction est faite entre les techniques qualifiées de classiques (garanties, syndications et application de la théorie du portefeuille), et les techniques qui privilégient les instruments de marché (titrisation, marché secondaire et dérivés de crédit). Concernant ces techniques, elles permettent d’externaliser les risques de crédit. Devant l’essor des dérivés de crédit comme instrument de gestion du risque de crédit et la croissance de ce marché, nous analysons dans un troisième point les principaux enjeux de ces instruments de gestion du risque de crédit en termes qualitatifs touchant l’établissement concerné mais également le système dans sa globalité. En effet, les instruments utilisés deviennent de plus en plus sophistiqués permettant aux établissements de crédit de dynamiser la gestion de leur portefeuille de prêts. Néanmoins, ces nouveaux instruments et techniques, de plus en plus élaborés, ne vont pas sans poser de problèmes. Mots clés : Mesure du risque de crédit, gestion du risque de crédit, dérivés de crédit. 208 Introduction Le secteur bancaire est l’un des secteurs de l’économie confronté à une grande diversité de risque. Parmi l’ensemble de ces risques, le risque de crédit75 constitue le risque principal contenu dans le bilan d’un établissement bancaire à vocation universelle. Etant donnée l’importance de cette catégorie de risque pour la solvabilité des institutions bancaires et la sécurité du système bancaire, les autorités de réglementations internationales ont élaboré des normes prudentiels en la matière. Ainsi, les ratios Cooke et Mc Donough76 tentent de prendre en considération le risque de crédit et ses conséquences sur la solvabilité des établissements de crédit et sur la stabilité financière du système dans sa globalité. Par ailleurs, la gestion du risque de crédit a fait l’objet de nombreux développements, avec pour résultat des systèmes de gestion du risque de crédit de plus en plus sophistiqués. Les évolutions des techniques et procédures de gestion du risque de crédit peuvent s’expliquer par trois facteurs principaux77. Tout d’abord, les directives des autorités de réglementation concernant l’élaboration des normes de fonds propres se fondent sur « une approche évolutive du risque de crédit » (La Commission Bancaire 200378). En second lieu, l’imperfection des marchés, fondée sur une hypothèse d’information asymétrique, justifie l’existence des établissements bancaires en tant qu’intermédiaires financiers. Ainsi, les 75 Le risque de crédit est également appelé risque de défaut, de contrepartie, de défaillance. 76 Dans ces ratios, plus un actif est risqué, plus les exigences de capital pondéré par les risques seront importantes 77 D’autres facteurs pourraient être également évoqués comme par exemple le nombre croissant des faillites bancaires. 78 ème 3 document de consultation de la Commission Européenne (2003) : « Révisions des exigences de fonds propres applicables aux banques et aux entreprises d’investissement ». risques de ruine et de sélection contraire associés aux activités bancaires traditionnelles engendrent des coûts liés au risque de défaillance de l’emprunteur et de faillite bancaire. La gestion des crédits bancaires, et par voie de conséquence celle du risque de crédit, constitue une activité coûteuse pour les banques. Dans ce cadre d’analyse, Froot et Stein (1998)79 mettent en exergue les enjeux d’une gestion active du risque en termes de structure financière et de politique managériale. Selon leur analyse, une gestion active du risque peut permettre aux établissements bancaires de détenir moins de capital et d’avoir une politique de gestion de l’actif plus agressive en faveur de prêts plus risqués et moins liquides. En troisième lieu, le développement des méthodes de gestion du risque de crédit s’est fait sous l’impulsion des progrès réalisés dans la mesure du risque de crédit pour des portefeuilles de prêts bancaires. Les objectifs de politiques commerciales des établissements bancaires dans lesquelles des relations clientèles stables et durables peuvent parfois se révéler incompatibles avec l’optimisation du portefeuille de prêts. Néanmoins, certaines opérations ou techniques permettent de concilier des objectifs de politiques commerciales et de gestion « optimale » des volumes et des risques du portefeuille de crédit. Ainsi, devant les évolutions l’environnement dans lequel établissements bancaires opèrent, gestion des risques de crédit constitue enjeu stratégique majeur. de les la un L’analyse des enjeux que représente la gestion du risque de crédit pour un établissement bancaire constitue le propos central de ce papier. En effet, cette gestion du risque de crédit peut affecter certes la 79 Froot K. A. et Stein J. C. (1998): Risk management: Capital budgeting, and capital structure policy for financial institutions: an integrated approach. Journal of Financial Economics, Vol 47, pp: 55-82 209 performance de l’établissement bancaire, mais également son organisation, sa structure et le système bancaire dans son ensemble. Ainsi nous nous proposons de préciser dans un premier temps les approches d’évaluation du risque de crédit. Le développement des approches et méthodes d’évaluation du risque crédit est parallèle à celui des instruments de gestion du risque de crédit que nous aborderons dans un second temps. Dans ce cadre, nous distinguerons les techniques de gestion du risque de nature plus traditionnelle et les techniques de gestion faisant appel aux instruments financiers. Les outils utilisés en la matière deviennent de plus en plus sophistiqués permettant aux établissements de crédit de dynamiser la gestion de leur portefeuille de prêts. Néanmoins, cette technicité de plus en plus élaborée ne va pas sans poser de problèmes. Nous terminerons par une analyse des implications qualitatives de ces nouveaux instruments de gestion du risque de crédit tant pour les établissements de crédit que pour le système dans son ensemble. I. Le risque de crédit : évaluation 75% des fonds propres réglementaires sont absorbés par le risque de crédit supporté par une institution bancaire. Ainsi, même si le capital de l’établissement bancaire doit permettre d’absorber les pertes engendrées par les risques de crédit, ces derniers revêtent une importance indubitable pour la gestion bancaire. Egalement appelé risque de défaut ou encore risque de contrepartie, le risque de crédit peut se définir comme la perte consécutive à la défaillance d’un emprunteur face à ses obligations de remboursement, ou à la détérioration de sa situation financière. En d’autres termes, le risque de crédit dépend d’une part d’évènements spécifiques à l’activité de l’emprunteur, et d’autre part du cycle des affaires. Ainsi, en cas de défaillance d’un ou de plusieurs emprunteurs, la valeur économique de la banque prêteuse, à savoir la différence entre la valeur de marché de son actif et celle de son passif, sera réduite, toutes choses égales par ailleurs. En outre, l’impact du risque de crédit sur la valeur de marché de l’établissement bancaire sera d’autant plus important que les actifs détenus sont sensibles aux mêmes éléments. Or les établissements bancaires ont tendance à concentrer leurs activités d’octroi de crédit sur des secteurs d’activité particulier, limitant leur capacité de diversification des risques de contrepartie entre emprunteurs. La mesure du risque de crédit apparaît ainsi étant la clé de voûte de tout système. L’évaluation du risque de crédit et les procédures de gestion de cette catégorie de risques bancaires sont relativement anciennes et connues. Elles ont également considérablement évolué sous l’impulsion de plusieurs facteurs, parmi lesquels la réglementation constitue un facteur de premier ordre. La réglementation concernant les normes de fonds propres nécessite de disposer d’une évaluation et donc d’une approche du risque de crédit. Aujourd’hui le nouveau projet McDonough en la matière « repose sur une approche différenciée et évolutive, prévoyant un degré important de flexibilité, sous la forme d'une série de méthodes de calcul des exigences de fonds propres »80. De manière plus précise, le calcul des exigences en fonds propres se fondera sur 80 Document de la Commission Européenne (2003) : Révisions des exigences de fonds propres applicables aux banques et aux entreprises d’investissement » 3ème document de consultation des services de la commission. 210 une approche du risque de crédit non plus sur une pondération unique mais contrepartie par contrepartie. Ainsi, dans le cadre du nouveau ratio de solvabilité bancaire, les établissements bancaires sont incités à classer leurs portefeuilles de crédit sur la base soit d’une notation externe, soit d’une notation interne. Remarquons que les directives des autorités réglementaires prennent de plus en plus en considération les modèles internes de gestion du risque. Les établissements bancaires sont encouragés à développer leur propre système interne de notation car l’exigence en fonds propres est diminuée en cas d’utilisation de celuici. Néanmoins, de tels systèmes d’évaluation des risques de crédit sont au demeurant coûteux à mettre en place. Depuis le début des années 1970, les outils d’évaluation et de couverture des risques se sont fondés sur les probabilités et les calculs stochastiques. Ces outils se sont en fait développés sous l’influence des opérateurs des marchés financiers désireux de formaliser et de quantifier le risque de marché. Aujourd’hui, des méthodes équivalentes sont élaborées pour le traitement des risques de crédit. A cet égard, nous pouvons distinguer deux approches principales81 : l’approche probabiliste et l’approche fonctionnelle. A. Approche Probabiliste Cette approche se fonde sur un «rating » de crédit, c’est à dire une mesure statistique du risque de crédit présenté par une entreprise emprunteuse. Elle allie techniques statistiques et jugement des praticiens. Actuellement cette approche est la plus largement utilisée dans les établissements bancaires pour mesurer le risque de crédit. Le principe s’applique aussi bien aux risques de marché82 qu’aux risques de crédit. Concernant les notations des entreprises, ces dernières se fondent généralement sur des états financiers des entreprises. L’évaluation du risque de crédit par une notation externe peut être élaborée par des agences de natations privées, telles que Moody’s et Standard & Poor ‘s, ou par une institution «publique », telle que par exemple la Banque de France. Néanmoins, pour être efficace, les institutions élaborant des notations externes doivent être indépendantes et reconnues83. Ainsi, en France, la Banque de France est une institution qui répond à ces critères et fournit une cotation des entreprises utilisée par les établissements bancaires français pour leur évaluation du risque de crédit84. 81 Une première approche qualifiée de structurelle a été initialement élaborée par Robert Merton en 1974 mais a été rapidement abandonnée en raison des difficultés liées à sa mise en œuvre. Cette approche consistait à appliquer la théorie d’évaluation des options à l’évaluation des prêts risqués. Selon cette approche, les prix des actifs contiennent l’ensemble de l’information disponible. Dans cette hypothèse, les actions et les obligations risquées émises par une société apparaissent comme des options dont on peut évaluer le prix. Appliquée au risque de crédit, cette approche semble peu réaliste. En effet, selon cette approche, la faillite n’est constatée qu’à l’échéance de la dette et l’entreprise est éventuellement liquidée pour permettre son remboursement. Or il apparaît plus réaliste de supposer qu’il existe une certaine valeur de la firme, à spécifier, en dessous de laquelle elle se déclare en faillite. Cette hypothèse a été développée par Black et Cox (1976). En outre, ce seuil n’est pas constant dans le temps et dépend de l’évolution de la structure des taux comme le montrent Longtaff et Schartz (1992). 82 Le risque de marché, appelé parfois risques de prix, concerne à la fois les taux d’intérêt, les taux de change, la valeur des actions et celle des matières premières. 83 External Credit Assessment Institution ou ECAI dans l’organisation anglo saxonne. 84 Le système de notation élaborée par la Banque de France était initialement destiné, non pas à l’évaluation du risque de crédit et à la gestion du portefeuille de prêts bancaires, mais à la mise en œuvre de la politique monétaire, dans le cadre des opérations de refinancement en monnaie centrale. 211 Dans le cadre de cette approche probabiliste, la mesure du risque de crédit permet de déterminer « un seuil de tolérance » pour le risque, c'est-à-dire le niveau de pertes potentielles au-delà duquel les pertes subies par l’établissement bancaire peuvent engendrer une défaillance de ce dernier. Les pertes futures sont réparties en deux catégories : les pertes statistiques (la moyenne) et les déviations possibles audelà de cette moyenne. Les pertes statistiques sont inévitables à long terme. Par exemple, si les clients d’un établissement bancaire ont une probabilité de faire défaut de 1%, alors cela signifie qu’en moyenne une entreprise sur cent fera défaut et selon la loi des grands nombres, ces pertes surviendront. Inclure ces pertes dans le capital requis ou les retranchées des résultats apparaît comme étant insuffisant. Un établissement bancaire fera faillite au premier euro de perte au-dessus de cette moyenne si cette « casse statistique » est la seule couverte. Or les pertes potentielles peuvent ne pas être égales aux pertes moyennes. En conséquence, un établissement doit détenir un niveau de capital suffisant pour couvrir les déviations défavorables des pertes observées au-delà de la moyenne. Les principes de mesures retenues correspondent à la notion de VaR. Initialement appliquée au risque de marché, la méthode de la VaR s’applique aujourd’hui au risque de crédit. La détermination d’une VaR se fonde sur l’existence d’une distribution de probabilité entre une valeur possible et ses chances de survenir. Il s’agit alors de déterminer quel niveau des pertes potentielles ne sera dépassé que dans une faible proportion des cas ; au-delà, l’établissement bancaire fera défaut par définition. Cette fraction s’appelle le « seuil de tolérance » pour le risque. La principale difficulté de cette méthode réside dans le fait que des estimations ou des distributions de probabilités des pertes doivent être préalablement connues pour appliquer cette méthode. En effet, il est important de pouvoir déterminer que le niveau de X millions de perte ne sera dépassé que dans Y% des cas. Cette méthode probabiliste de mesure du risque de crédit peut être utilisée pour élaborer par des agences de notations, mais également par les établissements bancaires eux-mêmes en vue d’élaborer des systèmes de notations internes85. Dans tous les cas, il apparaît ainsi essentiel de disposer d’une information sur le risque. Il existe des historiques de défaillances et de pertes en cas de défaut initiés par les agences de notations. Ces dernières diffusent ces statistiques par classe de rating ou les centrales de bilan. Le modèle de référence le plus connu en la matière est celui de JP Morgan CreditMetrics. Le rating mesure une sévérité des pertes, à savoir la combinaison des probabilités de défaut et de pertes en cas de défaillance de la part de l’emprunteur. L’observation montre que les ratings sont très fortement associés avec les risques de défaut. Les choix d’un taux de défaut et d’un rating « cible » sont donc indissociables, car cela revient en fait à choisir un seuil de tolérance pour le risque86. B. Approche Fonctionnelle La seconde approche de mesure du risque de crédit provient notamment des travaux de Longstaff et Schwartz (1992). Cette 85 Citons par exemple l’élaboration des systèmes scoring dans lesquels l’établissement identifie préalablement certains facteurs clés déterminant la probabilité de défaut et définit une pondération spécifique à chacun de ces facteurs. 86 A titre indicative, un rating Baa Moody’s correspond approximativement (en moyenne) à une chance de défaut de 0,2% dans l’année, celle d’un Aa est de 0,05% et celle d’un A est de l’ordre de 0,08%.... En terme de niveau de capital, cela montre que la marge de sécurité procuré par ce dernier pour être considéré comme un « bon risque » est très forte. 212 approche privilégie la modélisation. Elle suscite un intérêt particulier dans les milieux académiques et professionnels et semble offrir des perspectives intéressantes. Dans cette approche, le défaut d’une entreprise est considéré comme un évènement qui, ne pouvant pas être « lu » dans les prix, est modélisé comme un processus ayant une intensité, c'est-à-dire un taux instantané d’occurrence. En conséquence, la mesure du risque de crédit et l’évaluation des produits dérivés liés à ce risque font actuellement l’objet de travaux de recherche tant académiques qu’empiriques dans les cellules de recherche des établissements financiers (Liu, Longstaff et Mandell (2000)). II. Les techniques et instruments de gestion du risque de crédit Les objectifs de politiques commerciales des établissements bancaires peuvent parfois se révéler incompatible avec une gestion optimale des portefeuilles de prêts. Néanmoins, certaines opérations techniques permettent de concilier des objectifs de politiques commerciales et de gestion « optimale » des volumes et des risques du portefeuille de crédit. Nous allons distinguer parmi les différentes techniques de gestion du risque de crédit les techniques et instruments classiques, des outils recourant aux instruments de marché. A. Les Techniques Classiques Il s’agit essentiellement d’une mesure quantitative du risque de crédit se reflétant dans une « prime » de risque de crédit. Cette prime de risque de crédit correspond à la différence entre le taux d’intérêt d’emprunt payé par une entreprise et le taux d’intérêt d’un titre « sans risque ». Cette prime constitue ainsi une compensation supplémentaire exigée par l’établissement bancaire prêteur pour supporter le risque de contrepartie. La recherche débutante aujourd’hui conduit à déterminer une évaluation du risque de crédit et vise à mettre en place un cadre de référence pour obtenir une courbe de taux risqués, le pricing des produits dérivés liés à cette courbe et la mesure des risques encourus liés à la qualité des émetteurs. Le développement de cette dernière approche est lié à celui de nouvelles techniques et de nouveaux instruments financiers de réduction du risque de crédit. Ces derniers permettent, comparativement aux techniques plus anciennes, une gestion plus dynamique du risque de crédit et donc du portefeuille de prêts des établissements bancaires. Ces techniques classiques constituent en fait de simples instruments de couverture. Parmi les techniques connues, il y a les prises de garanties personnelles, les garanties réelles comme par exemple le nantissement. Il s’agit de façon générale de clauses incluses par les créanciers dans le contrat de crédit qui permettent d’obtenir le remboursement des prêts si certains indicateurs « d’alerte » sont atteints, tels que par exemple un seuil donné du ratio d’endettement. Ces techniques, relativement anciennes, peuvent se négocier pour chaque contrat ou client, en amont de l’octroi de crédit, c'està-dire à la signature du contrat. A côté de ces techniques, la syndication constitue une autre méthode traditionnelle ; Cette technique permet de répartir les encours au sein d’un pool bancaire. L’application de la théorie moderne du portefeuille à la gestion du portefeuille de crédit constitue une autre technique. Dans cette approche, la gestion du portefeuille de prêts bancaires se fait selon un critère rendement – risque. Il s’agit en fait de diversifier le portefeuille de crédit de sorte à réduire le risque global de ce portefeuille. 213 De la sorte, la réduction du risque global du portefeuille sera d’autant plus importante que la corrélation entre les actifs du portefeuille est faible. L’application de la MPT à la gestion de portefeuille de crédit bancaire met en évidence une relation entre le risque global du portefeuille de prêts bancaires et d’une part les corrélations de défaut, d’autre part la diversification du portefeuille. En d’autres termes, les corrélations de défaut sont en moyenne généralement plus faibles et les rendements ou gains obtenus via la diversification du portefeuille de prêts bancaires sont potentiellement plus élevés. Les utilisations de la VaR en matière de gestion du risque de crédit sont diverses et variées. En l’occurrence, la VaR permet de quantifier l’effet de diversification obtenu en consolidant les risques des diverses centres de responsabilité spécialisés géographiquement ou par secteur d’activité. Cet « effet de portefeuille » permet de réduire les risques et donc « d’économiser » du capital. Le risque étant la perte potentielle, l’exposition doit être distinguée du risque. Ainsi, en fixant des limites de dotations en fonds propres, et non en autorisations d’encours, pour chaque centre de responsabilités, les responsables de ces centres de profit choisissent alors les risques et les revenus souhaités à condition de respecter l’enveloppe de fonds propres et la rentabilité suffisante sur cette dotation. Cet instrument peut également permettre de comparer entre différentes structures de portefeuilles par une optimisation quantitative du couple rentabilité - risque du portefeuille de prêts. A côté de ces techniques relativement connues, de nouveaux instruments de gestion du risque de crédit et du portefeuille de prêts se développent. B. Techniques Privilégiant Instruments de Marché les Ces techniques utilisent des instruments de marché et externalisent les risques de crédit. La titrisation est une technique qui consiste à sortir du bilan un sous portefeuille d’actifs pour être financé par des investisseurs. La titrisation conduit à se financer par l’actif du bilan en transformant des actifs illiquides, les créances, en titres négociables sur le marché financier. Cette transformation s’apparente donc à un swap, de créances contre des titres. Elle implique l’existence de deux flux financiers : à l’origine, un flux lié à l’achat d’un portefeuille de créances, les ressources provenant de l’émission de valeurs mobilières ; et en cours de vie, un flux financier destiné à la rémunération des porteurs de parts. L’avantage pour l’établissement bancaire est de déconsolider le risque de son bilan, d’externaliser totalement le risque et de libérer à cette occasion des fonds propres. La titrisation permet de modeler le portefeuille bancaire, c'est-à-dire de gérer de façon plus dynamique les volumes et les risques du portefeuille de crédits. De la sorte, une couverture du risque soit individuelle (au niveau du client), soit globale (au niveau du portefeuille) peut être mise en place. Parfois, plusieurs de ces techniques peuvent être combinées pour atteindre plusieurs objectifs : amélioration du ratio Cooke, externalisation des coûts et amélioration de la rentabilité. Néanmoins, certains de ces outils ne sont pas sans inconvénients. La titrisation par exemple peut se révéler coûteuse pour un établissement qui ne désire pas de refinancement mais qui désire tout de même se couvrir contre le risque. Les carences des instruments de gestion du risque de crédit ont conduit les établissements bancaires à vouloir gérer activement le risque de crédit en intervenant sur le marché secondaire des crédits. Il existe aujourd’hui aux EtatsUnis un tel marché organisé des prêts 214 bancaires. Ce marché secondaire des crédits permet aux banques américaines d’échanger aussi bien des créances de mauvais risque que des créances de meilleurs risques à un prix convenu entre le cédant et l’acquéreur. Ce prix peut aller de 100% du pair pour les meilleurs risques à – 10% pour les créances de mauvais risques. Ce type de marché est aujourd’hui à l’étude en Europe. Ces cessions de créances sur un marché permettraient aux établissements bancaires européens de céder le risque en cours de vie des contrats sans remettre en question la relation commerciale. Les dérivés de crédit constituent également une nouvelle technique de gestion active du risque de crédit. Un dérivé de crédit est un produit dérivé dont le sous jacent est un crédit, c'est-à-dire une créance. Les dérivés de crédit sont des contrats de swap, d’option ou de gré à gré87 que les banques peuvent utiliser pour couvrir et donc gérer activement le risque de crédit. Ces dérivés de crédit permettent de transférer le risque et le rendement à une contrepartie sans céder la propriété de l’actif sous jacent. En recourant à ces dérivés de crédit, les établissements bancaires prêteurs peuvent ainsi réduire leur exposition au risque de crédit sans devoir céder leurs créances. Ces produits de hors bilan se négocient de gré à gré et apportent une flexibilité à la gestion des volumes et des risques de crédit. La diversification permet de réduire le risque dans un portefeuille de prêts bancaires. Néanmoins, aucun prêt ne peut à lui seul constituer une couverture du risque crédit du portefeuille de prêts bancaire. En d’autres termes, tout nouveau prêt accordé accroît nécessairement le risque global du portefeuille. Ainsi, les dérivés de crédits visent à transférer le risque de crédit sur un sous jacent indépendamment du risque de marché qu’il peut présenter. De la sorte l’établissement bancaire a la possibilité d’externaliser le risque sur une contrepartie en achetant un dérivé de crédit dont le sous jacent est par exemple une obligation émise par la contrepartie. Les établissements bancaires peuvent, en recourant aux dérivés de crédit, de diversifier leurs portefeuilles de crédit tout en restant sur leur créneau de clientèle habituel en fonction de ses compétences. Ainsi deux banques, l'une spécialisée dans le crédit au secteur agricole, l'autre dans le crédit à l'industrie, peuvent acheter chacune une part des revenus liés au portefeuille de l'autre. Chacune diversifie ainsi les risques encourus, en bénéficiant de plus de l'expertise de sa contrepartie dans son domaine de compétences. Il existe quatre grandes familles de dérivés de crédit. La plupart de ces instruments sont « calqués » sur des instruments de couverture des risques de marché. Le premier type de dérivés de crédit est appelé les « swaps sur défaillances » (ou « credit default swaps » ou encore « crédit swap »). Il s’agit de contrat d’assurance par lequel l’acheteur, la banque par exemple, souhaite se protéger contre la survenance d’un incident de crédit88 (« credit event »). Ainsi l’acheteur paye une prime fixe versée périodiquement ou à l’achat jusqu’à l’incident de crédit ou jusqu’à l’échéance du contrat de prêt. Le vendeur, quant à lui, paye lors de la survenance de l’incident un flux correspondant à la différence entre le pair du crédit et sa valeur de marché. Ce type de contrat revient donc à céder la perte potentielle sur un actif de référence pouvant résulter d’incidents de crédit (défaut de paiement, insolvabilité, faillite…). 88 87 Initialement, les dérivés, à savoir les options et les swaps, étaient des opérations de marché. Il s’agissait de produits de couverture de risques engendrés par des opérations de marché. Cette notion d’incident de crédit (ou “credit event”) est une notion relativement large allant du simple défaut de paiement et ne correspond pas forcément au dépôt de bilan de la contrepartie faisant l’objet de la protection. 215 La deuxième catégorie de dérivés de crédit correspond à une « option de vente sur écart de crédit (ou « credit spread derivatives » ou encore « crédit option »). Cet instrument financier offre à l’acheteur une protection contre la diminution de la valeur de l’actif de référence qui n’est pas liée à l’évolution de la courbe des taux d’intérêt. Ce instrument correspond à un swap sur défaillance dans lequel l’incident de crédit correspond à l’élargissement de l’écart de crédit, le « spread » futur étant défini par le différentiel de rendement du sous - jacent et celui d’une valeur de référence. En contrepartie, l’acheteur verse au vendeur une prime. L’acheteur tente de se protéger contre la dégradation du spread de l’obligation d’un émetteur par rapport à l’obligation d’Etat de même échéance89. Avec ce « credit option», la contrepartie n’a pas besoin de définir les incidents de crédit, le paiement s’effectuera. Cette distinction entre d’une part l’option de vente sur l’écart de crédit et d’autre part sur l’incident de crédit constitue un avantage indubitable. Néanmoins, ces produits sont difficiles à couvrir et l’évaluation de leurs prix sont relativement complexes. La troisième famille de dérivés de crédit est appelée « swap sur le rendement total (ou « total return swap »). Il permet de transférer à un tiers le rendement et le risque rattachés à un actif de référence. Ce swap permet d’échanger la performance d’un actif contre une référence variable de type Euribor. L’acheteur du contrat cherche à se protéger contre le risque de crédit en transférant ainsi intégralement le risque de crédit et le risque de marché engendrés par l’actif sous – jacent au vendeur. Celui-ci verse à l’acheteur le taux Euribor majoré ou minoré d’une marge fixée par le pricing du swap. 89 On peut maintenant mesurer l’importance de la mise en place d’un référentiel pour obtenir une courbe de taux risqués, le pricing des produits dérivés liés à cette courbe et la mesure des risques encourus liés à la qualité des émetteurs. Enfin la quatrième catégorie de dérivés de crédit correspond au « titre lié à la valeur du crédit (ou « credit linked notes »). Prenant la forme d’emprunts obligataires émis par un établissement bancaire désireux de se protéger sur un actif conclu avec une contrepartie, dont le remboursement est conditionné par la non défaillance de cette contrepartie (survenance d’un incident de crédit). L’acheteur de la protection émet des titres, reçoit le principal et paye périodiquement des intérêts. A l’échéance, il rembourse à l’investisseur le principal si aucun incident de credit ne s’est pas produit. Dans le cas contraire, le contrat est interrompu et il paye la différence entre la valeur de marché de l’actif et le principal. Ces produits résultent finalement d’un montage combinant un swap sur défaillance et les caractéristiques d’un titre à revenu fixe. Ces quatre familles de dérivés de crédit sont des instruments novateurs permettant de transférer uniquement le risque de crédit. A titre de comparaison, une opération de titrisation transfert à la fois ce risque mais également la propriété de la créance sortie du bilan de l’établissement bancaire titriseur. Sur le plan commercial, ces nouveaux produits permettent de maintenir la relation commerciale tout en optimisant la gestion du portefeuille. III. Enjeux des innovations financières en matière de gestion du risque de crédit Les innovations financières relatives à la gestion du risque de crédit concernent les dérivés de crédits et les techniques liées aux ventes et achats de prêts bancaires sur un marché secondaire. A. Les opérations sur un marché secondaire Les établissements bancaires peuvent ainsi échanger aussi bien des créances de 216 mauvais risque que des créances de meilleurs risques à un prix convenu entre le vendeur et l’acheteur. L’utilisation de ce marché par les établissements bancaires a pu être initialement un moyen de faire face aux coûts engendrés par des contraintes réglementaires de fonds propres (L. Benveniste et A. N. Berger (1987). Cela correspondait au mécanisme de la titrisation. La titrisation a également constitué une source de financement des établissements bancaires titriseurs. En cédant des sous portefeuilles de prêts, les établissements trouvaient par ce biais les moyens de financer de nouveaux investissements (C. T. Carlstrom et K. A. Samolyk (1995), G. G. Pennacchi (1988)). Au cours des années 1990, les établissements ont commencé à considérer ce marché secondaire des prêts comme instrument de gestion des risques et des coûts (G ; B. Gorton et G. G. Pennacchi (1995) ) et comme un moyen de diversifier les activités bancaires traditionnelles R. S. Demsetz (2000). A partir de cette période, les achats et ventes de créances sur ce marché se sont accrus, permettant aux établissements bancaires de gérer activement leur risque de crédit et de façon plus générale leurs portefeuilles de prêts bancaires. Le recourt à ce type d’instrument pour gérer activement le risque de crédit permet aux établissements bancaires de détenir proportionnellement plus de prêts risqués dans leur portefeuille. Ainsi, les achats et ventes de prêts affectent la politique d’investissement des établissements bancaires. Néanmoins, il semble important de préciser selon les analyses menées par Froot et Stein (1998) notamment, que cet effet sur les investissements s’observe essentiellement si l’objectif recherche par les établissements bancaires est une gestion active de leur risque de crédit. Selon une étude plus récente menée par A. Sinan Cebenoyan, Philip E. Strahan, (2004), les implications concerneraient également la structure financière des établissements bancaires intervenant sur ce marché secondaire. Ainsi, les achats et cessions de prêts sur le marché secondaire améliorent la gestion du risque de crédit. Les établissements financiers pourraient alors opérer sur leurs secteurs d’activité avec plus d’endettement et moins de capitaux propres. Cet aspect peut apparaître ambigu au regard des objectifs de refonte du ratio de solvabilité. En effet, le ratio Mc Donough vise à inciter les établissements bancaires et financiers à s’engager dans une gestion des risques plus active et plus sophistiquée au travers un élargissement des règles de calcul du niveau de fonds propres pondérés des risques. Cette réglementation a pour vocation un renforcement de la sécurité et la stabilité financière. Ainsi, une meilleure gestion des risques devrait, dans cette perspective, réduire les risques systémiques et de solvabilité pvia une réduction des risques de crédit notamment. Mais l’amélioration des techniques de gestion du risque de crédit pourrait ne pas se traduire par une réduction du risque contrairement à ce qu’anticipent les autorités de régulation. Si les établissements bancaires développent leur aptitude à mieux gérer cette catégorie de risque, ils peuvent davantage s’engager sur des segments de clients plus risqués. C’est d’ailleurs l’observation faite par l’étude empirique de A. S. Cebenoyan et P. E. Strahan (2004). En outre dans cette analyse, la structure financière des établissements, intervenant sur le marché secondaire des prêts pour gérer le risque de crédit, présente un point commun : ils opèrent avec un niveau d’endettement supérieur aux établissements qui ne gèrent pas leur risque de défaut sur ce marché. 217 Une gestion active du risque de crédit permet aux établissements bancaires et financiers de réaliser des « économies de capitaux propres » (ils opèrent avec un niveau d’endettement plus élevé) et d’enregistrer des performances financières plus importantes (ils détiennent des actifs plus risqués et donc plus rentables dans leur portefeuille). B. Dérivés de crédit Destinés initialement à des opérations de couverture des risques de marché, ces nouveaux instruments financiers sont depuis peu utilisés à la couverture des risques engendrés par les activités traditionnelles d’intermédiation financière et d’apporteur de liquidité. Les établissements bancaires recourent à ces marchés de produits dérivés à la fois pour compléter leurs activités traditionnelles de prêts et pour couvrir les risques engendrés par leurs activités de prêts et de dépôts. Selon une étude récente menée aux EtatsUnis par Brewer, Minton et Moser (2000), les établissements de crédit ont tendance à opérer une substitution entre ces instruments dérivés et les actifs au bilan, impliquant des changements non négligeables dans la composition des portefeuilles bancaires. Un tel phénomène de substitution tend à accroître les risques bancaires, et par voie de conséquence, renforce la confiance des établissements bancaires dans les mécanismes de sécurité et de garantie des dépôts et le système du refinancement et du prêteur de dernier ressort. En outre, ces instruments financiers, en réduisant leur exposition au risque, permettent aux établissements bancaires de développer leurs services d’intermédiation, comme ceux liés à la liquidité (Kashyap, Rajan et Stein (2002))90. Dans cette analyse, des synergies entre ces deux activités s’expliquent par le fait que ces activités exigent des établissements bancaires de détenir d'importants soldes d’actifs liquides. Leur détention tout en répondant à cet impératif de liquidité, est par ailleurs coûteuse pour la banque. Ainsi, les synergies potentielles entre collecte de dépôts et octroi de crédit correspondent en fait à une réduction du coût unitaire du portefeuille d’actifs liquides détenus et peuvent s’assimiler à des économies d’envergure, ou économies de gamme. Aussi, la gestion du risque de crédit constitue un avantage concurrentiel, bénéfique à l’établissement bancaire si celui-ci s’appuie sur un ensemble de compétences spécifiques concernant l’utilisation des instruments de gestion d’un tel risque comme les dérivés de crédits. Le développement de l’activité de prêts, favorisé par l’utilisation de ces instruments financiers, s’accompagne également d’une augmentation des ratios de capital d’une part, et d’une baisse du total actifs d’autre part. Cela signifie que, quelque soit la forme de ces produits, ces instruments ont un impact sur la gestion du risque systémique91. Néanmoins, toute politique visant à réduire l’utilisation des ces instruments financiers peuvent se traduire par une baisse de l’activité de crédits des banques, et donc par un moindre financement de l’activité économique in fine. 90 B. Holmstrom et J. Tirole (1998) ont mis en exergue cet aspect important de la fonction d’intermédiation, même s’ils n’associent pas la fonction d’engagement aux obligations de l’intermédiaire. De même Kashyap, Rajan et Stein (2002) supposent l’existence de synergies entre les activités d’intermédiation traditionnelle pour expliquer le rôle fondamental des établissements bancaires dans l’approvisionnement en liquidité de l’économie. 91 Le risque systémique correspond au risque lié à l’environnement dans lequel les agents interviennent. 218 Les nouveaux instruments financiers semblent bien apporter une flexibilité à la gestion du portefeuille de prêts des établissements bancaires, mais aussi une meilleure performance, une réponse à la recherche d’une structure financière optimale. En effet, selon les accords de Bâles, les banques sont tenues de conserver des fonds propres correspondant à 8% de la valeur comptable de la plupart des prêts qu’elles accordent. Comme nous l’avons précédemment noté, les grands établissements bancaires recourent à des modèles d’évaluation interne des risques de crédit pour déterminer le niveau de fonds propres à détenir selon la solvabilité des emprunteurs. Ces établissements sont incités à se défaire de prêts présentant un risque de crédit relativement faible, dans la mesure où ces prêts ont tendance à diluer le rendement de leurs fonds propres. Néanmoins, ces nouveaux instruments financiers ne sont pas sans présenter quelques inconvénients. Le principal réside dans le fait que ces produits ne permettent pas une couverture du portefeuille de prêts global. En effet, dans la mesure où chaque dérivé de crédit couvre le risque de crédit d’une créance, la couverture du portefeuille de prêts d’un établissement bancaire supposerait de contracter autant de dérivés de crédit que de crédits composant le portefeuille. Pour résoudre ce problème, les établissements bancaires combinent une opération de titrisation et les dérivés de crédit, opération qualifiée de titrisation synthétique. Dans ce cadre, la banque contracte un dérivé de crédit auprès d’une société ad hoc (SPV « Special Purpose Vehicle ») qui émet des parts auprès des investisseurs et achète des titres d’Etat92. 92 La dette émise par le SPV est généralement subdivisée en une part senior avec la notation maximale, des parts junior avec une notation intermédiaire, et des parts résiduelles souscrites dans certains cas par les établissements bancaires. L’inconvénient majeur actuel du recours aux dérivés de crédits réside dans l’absence de la valorisation de ces produits. En effet, il n’existe pas d’instrument qui fournit le prix du risque de crédit. Pour une option sur action, au contraire, le prix du sous-jacent est déterminé par le marché. Pour valoriser les dérivés de crédit, on recourt généralement à plusieurs types de modèles. Le premier type de modèle se fonde sur les travaux de Merton selon lesquels le défaut survient quand la valeur de l’actif de l’entreprise devient inférieure à la valeur de sa dette. Dans cette approche, celui qui détient une action détient également le droit de racheter la dette en vendant l’actif au prix du marché. L’actionnaire détient donc un call sur l’actif de l’entreprise. Les techniques de valorisation des options de type Black et Scholes permettent d’en déduire la probabilité de défaut de l’entreprise. D’autres modèles considèrent le défaut comme un évènement ayant une probabilité d’occurrence que l’on tente d’estimer par des données historiques et des notes de agences de notation. Ces marchés de produits dérivés permettent aux établissements de crédit de compléter leurs activités traditionnelles de prêts et de couvrir les risques engendrés par leurs activités de prêts et de dépôts. Conclusion Etant donnés les multiples risques auxquels les établissements bancaires sont confrontés, nous nous sommes focalisés sur le risque de crédit ou encore risque de défaut ou de contrepartie. L’émergence de systèmes de mesure sophistiqués du risque de crédit s’est accompagnée simultanément d’un développement d’instruments de gestion d’un tel risque. Nous avons essayé de voir 219 les implications des nouvelles techniques de gestion du risque de crédit. Ces nouveaux instruments améliorent la performance globale des établissements qui les utilisent. En effet, les banques qui recourent à ces outils sont plus à même de profiter des opportunités d’investissement à valeur actuelle nette positive. Elles peuvent ainsi augmenter le volume de leur portefeuille de prêts tout en détenant moins de liquidité et de capital. Ces nouveaux produits financiers permettent en outre aux établissements bancaires de gérer leur portefeuille avec plus de flexibilité (les établissements peuvent opérer avec des structures financières plus souples) et plus « d’agressivité » (les titres en portefeuille peuvent être plus risqués et donc plus rentables). Dans la réforme du ratio de fonds propres, les autorités se sont clairement prononcées en faveur de ces innovations. Pourtant, il ne semble pas y avoir nécessairement convergence entre les résultats attendus par celles-ci et ceux constatés. Quel que soit ce que nous montre l’avenir, force est de constater ces nouvelles techniques de gestion continuent de se développer et de se propager. Aujourd’hui, ces innovations touchent le continent Européen. Il est encore trop tôt pour se rendre compte de l’impact de ces éléments mais l’expérience Anglo-saxonne en la matière devrait nous aider à mieux anticiper leurs implications tant individuelles (au niveau d’un établissement) que globales (an niveau du système bancaire dans son ensemble). Une dernière question reste posée : la maîtrise de la vulnérabilité des intermédiaires financiers à travers une gestion du risque de crédit de plus en plus performante suffit-elle aujourd’hui à garantir et à gérer la stabilité financière ? Bibliographie Allen F. et Santomero A. M. (1998): The theory of financial intermediation. Journal of Banking and Finance. Vol 21, pp: 14611485. Allen F. et Santomero A. M. (2001): What do financial intermediaries do ? Journal of Banking and Finance. Vol 25, pp: 271-294 Altman E.I. et Saunders A. (1997) : Credit Risk Measurement : Developments over the Last Twenty Years. Journal of Banking and Finance, December, pp: 1721-1742. Anderson R. et Sundaresan S. (2000): A Comparative Study of Structural Models of Corporate Bond Yields: An Exploratory Investigation. Journal of Banking and Finance, January, pp: 255-269. Benveniste L. et Berger A. N. (1987): Securitization with recourse: An investment that offers uninsured bank depositors sequential claims. Journal of Banking and Finance, Vol 11, pp: 403424. Berger, Herring et Szegö (1995): The role of capital in financial institutions. Journal of Banking and Finance, Vol 19, pp: 393 – 430. Bessis J. (1998): Risk Management in Banking. John Wiley & Sons. Bhattacharya S. et Thakor A. V. (1993): Contemporary banking theory. Journal of Financial Intermediation. Vol 3, pp: 2-50. Black F. et Cox J. (1976): Valuing Corporate Securities: Some Effects of Bond Indenture Provisions. The Journal of finance, Vol 31, pp: 351-367. Carey M. (1998): Credit Risk in Private Debt Portfolios. Journal of Finance, August, pp: 1363-1387. Carlstrom C. T. et Samolyk K. A. (1995): Loan sales as a response to market-based 220 capital constraints. Journal of Banking and Finance, Vol 19, pp: 627-646. Cebenoyan A. S., Strahan P. E., (2004): Risk management, capital structure and lending at banks, Journal of Banking and Finance, Vol 38, pp: 19-43. Commission Européenne (2003) : Révisions des exigences de fonds propres applicables aux banques et aux entreprises d’investissement » 3ème document de consultation des services de la commission. Demsetz R. S. (2000): Bank loan sales: A new look at the motivations for secondary market activity. Journal of Financial Research, Vol 23, n° 2, pp: 192-222. Diamond D. (1984): Financial intermediation and delegated monitoring. Review of Economics studies, Vol 51, pp: 393-414. Diamond D. (1996): Financial intermediation and delegated monitoring: A simple example. Economic Quaterly, Federal Reserve Bank of Richmond. Vol 82, n°3 Summer, pp: 51-68. Diamond D. et Rajan R. (2000) A theory of Bank Capital. The Journal of Finance, Vol 55, n°6, pp: 2431-2465. Froot K. A. et Stein J. C. (1998): Risk management: Capital budgeting, and capital structure policy for financial institutions: an integrated approach. Journal of Financial Economics, Vol 47, pp: 55-82 Gorton G. B. et Pennacchi G. G. (1995): Banks and loan sales, marketing nonmarketable assets. Journal of Monetary Economics, Vol 35, pp: 389-411. Holmstrom B. et Tirole J (1998): Public and private supply of liquidity. Journal of Political Economy. Vol 106. pp: 1-40. explanation for the coexistence of lending and deposit-taking. The Journal of Finance, Vol 57, n°1, février, pp: 33 – 73. Krahnen J.P. et Weber M. (2001) : Generally Accepted Rating Principles : A Primer. Journal of Banking and Finance, Vol 25, n°1: pp: 3-23. Liu J., Longstaff F. et Mandell R. (2000): The Market Price if Credit Risk: An Empirical Analysis of Interest Rate Swap Spreads. Working Paper of The Anderson School at UCLA. 49 pages. Longstaff F. et Schwartz E. (1992): Interest Rate Volatility and the Term Structure: A Two-Factor General Equilibrium Model. The Journal of Finance, Vol 47, pp: 1259-1282. Longstaff F. et Schwartz E. (1995): A Simple Approach to Valuing Risky Fixed and Floating Rate Debt. Journal of Finance, july, pp: 789-819. Lopez J.A. et Saidenberg M.R. (2000) Evaluating Credit Risk Models. Journal of Banking and Finance, Vol 24, n°1/2, January, pp: 151-165. Merton R. (1974): On the Pricing of Risky Debt: The Risk Structure of interest Rates. The Journal of Finance, Vol 29, pp: 449470. Merton R. (1995): Financial innovation and the management and regulation of financial institutions. Journal of Banking and Finance. Vol 19, pp: 461-481. Pennacchi G. G. (1988): Loan sales and the cost of bank capital. The Journal of Finance, vol 43, pp: 375-396. Saunders A. (2002) : Credit Risk Measurement : New Approaches to Value at Risk ans Other Paradigms, Somerset, NJ, john Wiley. Kashyap A. K., Rajan R., et Stein J C. (2002) Banks as liquidity providers: an 221 Les opérations à effet de levier sous-valorisent-elles les entreprises cibles ? Olivier LEVYNE93 (2006) Abstract The valuation of a company in a LBO context corresponds to the total financing a dedicated holding can gather for the operation. This financing includes the acquisition debt, which is granted by a bank and the equity, which is invested by financial sponsors. The banks structure their loans so that covenants are taken into account, whereas the equity sponsors require a 20% IRR within 3 or 4 years. The free cash flows discount rate used for the classical valuation of a firm is based on its weighted average cost of capital which is lower than 20%; moreover, the long term forecasts, including profits enhancements, are not included in the IRR calculation. Therefore, the valuation of a company is lower if it is the target of a LBO than if it is purchased by a competitor. 93 Olivier Levyne, Professeur Permanent de l’ISC Paris, Responsable du Département Finance ; 22, boulevard du Fort de Vaux, 75017 Paris ; tél : 01 40 53 99 99, 06 13 69 70 27 ; mail : [email protected] 222 Dans le cadre d’une acquisition classique, réalisée par voie d’OPA ou d’OPE pour une cible cotée, la valorisation par les approches précédemment décrites constitue une hypothèse de négociation entre l’acheteur et le vendeur, ou un ensemble de références incontournables dans le cadre de la présentation de l’offre au marché boursier, via la note d’information visée par l’AMF. Lorsqu’un actionnaire, ou un groupe d’actionnaires, souhaite sortir du capital d’une société, il entreprend, généralement via une banque-conseil, des négociations avec une autre société, soit présente sur le même secteur d’activité, soit sur un secteur dont les produits sont complémentaires et permettent à l’acquéreur éventuel de dégager des synergies de développement. Dans ce cas, l’acquéreur qui prend le contrôle de la cible et l’intègre dans sa stratégie globale accepte de payer une prime de contrôle ; éventuellement, si l’attractivité de la cible est forte et/ou si la concurrence avec d’autres acquéreurs pressentis est importante, il peut accepter de payer une partie de la valorisation des synergies anticipées. Depuis l’explosion de la bulle Internet (mars 2000) et la chute des marchés boursiers (la remontée du CAC 40 à 4100 points en 2005 n’a pas permis de retrouver les niveaux de 2000), il est courant de ne pas trouver d’acquéreurs « industriels », y compris pour des cibles qui permettraient à des acquéreurs pressentis d’obtenir une forte relution de leur BPA. conserver que 40% du capital de la Vivendi Universal Publishing (VUP) que le groupe venait d’acquérir auprès de Vivendi Universal. Dans ce cas, le cédant se tourne vers des fonds d’investissement qui prennent le contrôle de la cible via une société holding de reprise. La valeur de la cible n’est dès lors plus une hypothèse mais une résultante : c’est le montant maximum des fonds qui peuvent être levés par le holding de reprise sous forme de capital, souscrit par le(s) fonds d’investissement et de dette d’acquisition levée auprès des banques. En d’autres termes, la détermination de la valeur de la cible revient à structurer le financement du holding. I. Principes généraux Une opération de rachat à effet de levier ou leverage buy out (LBO) consiste à faire acquérir une société cible par un holding de reprise ad hoc financé, pour une part importante, par endettement. L’acquisition des seuls capitaux propres du holding par les investisseurs en fonds propres se traduit par une mise de fonds inférieure à celle qui serait nécessaire à l’achat des actions de la cible, faisant ainsi jouer à plein l ’effet de levier (rentabilité financière de la cible supérieure au coût de la dette)/ En outre, la concentration de la concurrence qui résulte de la multiplication des fusions et acquisitions réduit les rapprochements nationaux. Ainsi, la Commission Européenne de la Concurrence a contraint Schneider à revendre la société Legrand qu’elle venait d’acquérir. De même, Lagardère n’a pu 223 Graphique n°1 : schéma de principe d’une opération à effet de levier Cible Holding de reprise 100% CP (H) CP (cible) Actifs de la cible Titres de la cible levier financier Dette du holding Dette de la cible CP (H) : valeur comptable des capitaux propres du holding CP (cible) : valeur économique des capitaux propres de la cible La dette d ’acquisition du holding est remboursée par les dividendes que lui verse la cible et éventuellement par la trésorerie procurée par la sortie du LBO. Un LBO repose sur la capacité de la cible à verser des dividendes au holding de reprise. Il suppose que certaines conditions soient préalablement réunies afin d ’assurer la viabilité du montage et d ’engendrer un niveau de risque acceptable. En particulier il convient que la cible intervienne sur un secteur mature qui requiert des investissements modérés, ce qui permet la distribution de dividendes élevés. Son endettement raisonnable afin d ’affecter l ’essentiel de la trésorerie de la cible à la distribution de dividendes au holding. Par ailleurs, les menaces de l ’environnement doivent être limitées afin de réduire les aléas relatifs à la réalisation du plan d ’affaires en termes d ’intensité concurrentielle, de risque de remise en cause du positionnement de la cible par une innovation technologique et de cyclicité de l ’activité ; En outre, la société cible doit disposer d ’un plan d ’affaires fiable et réaliste sur lequel reposent les simulations financières. En outre, il convient de disposer d’une bonne visibilité sur la sortie par mise en bourse ou par cession à un industriel ou à un autre fonds. Le réinvestissement du cédant dans le capital du holding de reprise est observé fréquemment. Celui-ci sécurise alors l’investissement du fonds dans la mesure où le réinvestissement constitue un gage du maintien du management en place et crédibilise le plan d ’affaires qui lui a été remis, les conditions du réinvestissement du cédant étant les mêmes que celles de l’entrée du fonds. Il est également avantageux pour le cédant du fait que son réinvestissement mobilise alors seulement une partie de la trésorerie perçue. De plus, il bénéficie du même TRI que le fonds et d ’un potentiel d’upside lors de sa sortie du LBO et peut alors bénéficier de certains avantages fiscaux. II. Valorisation de la cible Le prix de cession de la cible est plafonné à hauteur du montant du financement maximal susceptible d’être levé par le holding de reprise. Le montant de la dette d’acquisition est directement lié à la rentabilité prévisionnelle de la cible. Il est calibré en intégrant 3 contraintes. La première est d’intégrer un remboursement sur une période de 7 à 9 ans à l ’aide des dividendes distribués par la cible au holding (le taux de distribution des 224 bénéfices de la cible étant supposé s’établir à 100% dès la mise en place du LBO). La seconde est d’être calibré de telle sorte que le holding conserve une trésorerie légèrement excédentaire afin de ne pas engendrer de besoins de financement complémentaires. La troisième est de respecter certains ratios financiers qui permettent aux (covenants) établissements prêteurs et aux financiers de bien contrôler le bon déroulement du LBO. Les capitaux propres sont fixés à un niveau assurant aux investisseurs (fonds d ’investissement) un taux de rendement interne (TRI) de l’ordre de 20% à 30% en 3 ans dans une hypothèse de sortie du fonds en bourse ou par cession à un industriel (ou à un autre fonds) sur la base d ’un multiple d’excédent brut d’exploitation ou de résultat d’exploitation, lequel multiple doit être issu des conditions de marché au moment de la mise en place du LBO. La valeur de la cible est en réalité légèrement inférieure à la somme des valeurs des capitaux propres et de la dette du holding, celui-ci devant également financer divers frais liés à l’acquisition (de l’ordre de 3% à 4% de la valeur de la transaction). Ces dépenses correspondent en général aux frais d’avocats, de conseils, d’audits juridique, comptable et fiscal et au paiement d’une commission d ’engagement sur la dette d ’acquisition. III. Facteurs d’optimisation financière L ’optimisation de la trésorerie du holding au cours des premières années du LBO conduit à différer une partie du remboursement de la dette d ’acquisition. La dette dite senior est ventilée en 2 tranches. La première, dite tranche A (80% du montant total) est remboursable par amortissements du capital en légère progression sur 7 ans. Ses intérêts sont calculés sur la base de l’Euribor 6 mois majoré de 225 points de base dans les conditions de marché actuelles. La seconde, dite tranche B (20% du montant total) est remboursable in fine au bout de 8 ans et portant intérêt au taux de l’Euribor 6 mois augmenté de 275 points de base dans les conditions de marché actuelles. Le financement peut être complété par une dette mezzanine, en général remboursable in fine au bout de 9 ans, ou à 50% au bout de 8 ans et 50% au bout de 9 ans. Ses intérêts sont calculés sur la base de l’Euribor 6 mois majoré de 350 points de base auxquels s ’ajoutent 250 points de base capitalisés. Cette dette mezzanine est assortie de bons de souscription d ’actions (BSA) dont l ’exercice engendre une plusvalue qui améliore le rendement des apporteurs de financement mezzanine (souvent qualifiés de « mezzaners »). Au total, dans les conditions de marché actuelles, la rémunération annuelle de la dette mezzanine augmentée de la plusvalue résultant de l ’exercice des BSA doit assurer aux fonds spécialisés en mezzanine un TRI de l’ordre de 17%. Dans l ’hypothèse où la trésorerie du holding est déficitaire uniquement la première année du LBO, des aménagements au cas par cas peuvent être envisagés. Il peut notamment s’agir du versement par la cible au holding d ’un dividende exceptionnel, à condition de disposer de réserves distribuables ou de la négociation avec les banques d ’un « surfinancement » du holding c’est-à-dire d ’une augmentation de la dette d ’acquisition qui permet de couvrir ses besoins de trésorerie pendant un an. Les opérations à effet de levier notamment été abordées par la littérature sous l’angle de l’analyse des performances financières de la cible après la mise en place de l’opération. Kaplan (1989)94 et Smith 94 Kaplan S., “Sources of Value in Management Buy Outs”, in Leveraged Management Buyout : Causes and Consequences, Y. Amihud (ed.), Homewood, Dow Jones-Irwin, 1989, pp. 611-632 225 (1990)95 montrent notamment, sur la période 1980-1985, que l’opération améliore l’efficacité et la performance de l’entreprise acquise. Summers (1990)96 observe la présence d’opérations plus risquées sur la période 1986-1990 qui ne se sont pas traduites par une amélioration des performances financières. Une explication de cette situation peut être le renchérissement du coût du financement inhérent à une augmentation de la part du financement de l’opération par endettement. IV. Facteurs d’optimisation fiscale Outre la présence de l’effet de levier, l’optimisation de l ’opération passe par une réduction de l ’impôt à payer par le groupe constitué par le holding et la cible grâce à l ’intégration fiscale. Le groupe fiscal peut utiliser le déficit fiscal créé par les charges financières et l’amortissement des frais d’acquisition du holding alors que ce dernier ne dispose pas de produits imposables (les dividendes remontent en franchise d’impôt au sein du périmètre d’intégration fiscale). Les résultats imposables de la cible sont ainsi en partie neutralisés fiscalement par le déficit du holding. Il convient, en outre, de demander l ’intégration fiscale au Service de Législation Fiscale avant le 31/12/N pour une intégration à partir de l ’exercice N+1. D ’un point de vue pratique, le holding et la cible signent une convention d ’intégration fiscale qui formalise les conditions de liquidation de l ’impôt du groupe fiscal. Ainsi, la cible verse au holding l’IS qu ’elle aurait versé au Trésor Public en l’absence d ’intégration fiscale l’impôt étant liquidé vis-à-vis du holding selon le principe des acomptes provisionnels vis-vis du Trésor Public. En d’autres termes, au cours de l’année N, sont payés des acomptes sur l’IS qui sera dû au titre de l ’exercice N et une régularisation du solde de liquidation (différence entre l ’IS effectivement dû et la somme des acomptes provisionnels déjà payés).est réalisée en avril N+1. Par ailleurs, le holding paie l ’impôt dont l ’assiette correspond au résultat imposable de la cible réduit du déficit fiscal du holding, Les conditions du réinvestissement des actionnaires de la cible au capital du holding de reprise peuvent être optimisées selon trois axes. Le premier porte sur l’apport d ’une partie des titres de la cible au holding de reprise. Dans ce cas, la plusvalue de cession dégagée par l ’apporteur est en sursis d’imposition jusqu’à la date de cession des titres du holding ayant rémunéré l ’apport. Le second concerne la cession des titres au sein du périmètre d ’intégration fiscale du cédant, ce qui suppose que le holding de reprise fasse partie du périmètre d ’intégration fiscale du cédant avant le LBO et que l ’entrée des investisseurs en capitaux propres soit momentanément limitée à moins de 5%, ce qui suppose que 95% de l’investissement du fonds réside dans l’acquisition d’OC (Obligations Convertibles en actions) ou d’ORA (Obligations Remboursables en Actions). Dans ce cas, la plus-value est également en sursis d ’imposition. Le troisième réside dans le réinvestissement du cédant personne physique à hauteur de plus de 25% du capital du holding. Dans ce cas, le montant du réinvestissement est déductible de l ’ISF, les actions détenues étant assimilées à un outil de travail. La place de la fiscalité dans le montage d’une opération à effet de levier a été abondamment traitée dans la littérature financière. Ce point ressort notamment des 95 Smith AJ., “Capital Owenership Structure and Performance: The Case of Management Buyouts”, Journal of Financial Economics, 15, 1986 96 Summers L., “Discussion in LBO Conference”, Journal of Applied Corporate Finance, 1990 226 études de Jarell, Brickley et Netter (1988)97 et Kaplan (1989)98. V. Prolongation du plan d’affaires de la cible Sur la période du plan d ’affaires, les hypothèses financières de base communiquées par la Direction Générale de la cible ou issues de notes d ’analystes peuvent être utilisées directement sans retraitement (agrégats d ’exploitation). En revanche, la distribution au holding de la totalité - dans la mesure du possible - du résultat de la cible (réalisé au cours de l ’exercice précédent) conduit à recalculer la dette financière et le résultat financier de la cible Au-delà de la période du plan d ’affaires, les prévisions peuvent être prolongées sur 9 ans en utilisant par exemple les hypothèses suivantes : - taux de croissance de l ’activité égal à celui prévu pour la dernière année du plan d ’affaires, ou convergence linéaire (interpolation linéaire) vers un taux de croissance de l’activité plus normatif (de l’ordre de 2% à 3%) ; - principaux ratios constatés la dernière année du plan d ’affaires maintenus au delà : o taux de marge d ’EBITDA ou d ’EBIT ; o ratio dotations aux amortissements/chiffre d’affaires; o ratio investissements/CA. Le niveau des investissements doit toutefois être en rapport avec la croissance observée si celle-ci est variable ; o BFR/CA. 97 Jarrel G., Brickley J. et Netter J., “The Market of Corporate Control : The Empirical Evidence Since 1980”, Journal of Economic Perspectives, 1988 98 Kaplan S., op cit En l ’absence d ’informations complémentaires, les intérêts minoritaires et les provisions pour risques et charges du bilan d’ouverture sont supposés constants sur toute la période retenue pour le LBO. La construction du bilan de la cible s ’appuie sur les cash flows prévisionnels qui permettent de déterminer la dette financière nette. Résultat net de la cible N + Dotations aux amortissements N – Investissements nets des cessions N – Variation du BFR N – Dividende versé au titre de l'exercice N-1 = Variation de la dette nette de la cible N, assimilée au cash flow Le bilan au 31/12/N s’obtient à partir de celui au 31/12/N-1 : Immobilisations N = Immobilisations (N-1) + Investissements N – Dotations N BFR N = BFR (N-1) + Variation du BFR ______________ Total Actif N = Total Actif (N-1) + Investissements N – Dotations N + Variation du BFR N Capitaux propres N = Capitaux propres (N-1) + Résultat N – Dividendes Provisions N = Provisions (N-1) Dette nette N = Dette nette (N-1) – Cash-flow N ______________ Total Passif N = Total passif (N-1) + Résultat N – Dividendes – Cash-flow N Cette présentation permet de démontrer, par récurrence, l’équilibrage du bilan au 31/12/N, sous l’hypothèse d’un bilan 227 équilibré au 31/12/N-1, en remplaçant le cash flow par sa valeur : Total passif N = Total passif (N-1) + Résultat N – Dividendes – (Résultat N + Dotations N – Investissements N – Variations du BFR N – Dividendes) RCAI de la cible – Dotation aux amortissements des frais d'acquisition du holding – Frais financiers sur la dette d'acquisition + Produits financiers sur le placement de la trésorerie du holding = Résultat imposable du groupe fiscal En simplifiant par Résultat N et Dividendes N et en considérant le fait que : Total passif (N-1) = Total actif (N-1), on a donc, en effet : Total passif N = Total actif (N-1) – Dotations N + Investissements N + Variations du BFR N = Total actif N. VI. Endettement du holding L ’endettement maximal du holding doit être fixé à un niveau tel que sa trésorerie demeure toujours positive. Le résultat net du holding sur lequel repose la détermination de son cash flow et de sa trésorerie suppose le calcul préalable de l ’impôt dû dans le cadre de la convention d ’intégration fiscale. A. Calcul de l ’impôt dû par le groupe fiscal intégré L’impôt versé par le groupe fiscal intégré est déterminé à partir du résultat imposable de la cible, assimilé à son résultat courant avant impôts (RCAI) dont sont déduits d’une part les dotations aux amortissements des frais d’acquisition, d’autre part les frais financiers sur la dette d’acquisition et auquel sont ajoutés, le cas échéant, les produits financiers engendrés par le placement de la trésorerie du holding de reprise. Ainsi : L’ IS reversé au Trésor Public correspond alors au produit du résultat imposable du groupe fiscal par le taux d’imposition. B. Détermination du résultat net du holding après impôt Le résultat net du holding intègre les dividendes reçus de la cible, l’impôt reçu de la cible, les dotations aux amortissements des frais d’acquisition, les frais financiers engendrés par la dette d’acquisition et le solde d’impôt à verser au Trésor Public. Ainsi : Dividendes reçus de la cible au titre de (N-1) + Impôt reçu de la cible – Dotations aux amortissements des frais d'acquisition – Frais financiers sur la dette d'acquisition + Produits financiers sur le placement de la trésorerie du holding – IS reversé au Trésor Public = Résultat net du Holding Le bilan du holding s ’appuie sur son cashflow déterminé à partir du résultat net et de l ’échéancier de remboursement de la dette d’acquisition. C. Détermination du flux de trésorerie et du bilan du holding Les flux de trésorerie du holding sont déterminés à partir de son résultat net. Il convient alors de réintégrer les dotations aux amortissements des frais d’acquisition et de déduire le montant du remboursement du principal de la dette d’acquisition. Ainsi : 228 Résultat net du holding + Dotations aux amortissements des frais d'acquisition – Remboursement du principal de la dette d'acquisition = Flux de trésorerie ou cash-flow du holding Le remboursement de la dette d ’acquisition senior s’effectue par amortissements constants ou, dans le cadre d’un profil plus agressif, par amortissements progressifs. Le bilan du holding fait alors ressortir la trésorerie à maintenir à un niveau positif : Titres N = Titres (N-1) Frais d'acquisitions N = Frais d'acquisition (N-1) - Dotations N Trésorerie N = Trésorerie (N-1) + Cash-flow N Total Actif N = Total Actif (N-1) + Cash-flow N – Dotations N Capitaux propres N = Capitaux propres (N-1) + Résultat N Dette financière N = Dette financière (N-1) – Remboursement dette N Total Passif = Total Passif (N-1) + Résultat net N – Remboursement dette N Le remplacement du Cash flow N par sa valeur permet d’établir, par récurrence, comme pour la cible, l’équilibrage du bilan du holding. Le montant maximal des capitaux propres du holding doit être fixé à un niveau tel que le TRI des investisseurs en fonds propres atteigne le niveau souhaité (de l ’ordre de 30% en 3 ans). Il est déterminé par itérations successives en simulant différents niveaux d ’endettement. Le TRI des investisseurs en capitaux propres est déterminé en comparant la valorisation du groupe (holding + cible) au moment de leur sortie du capital du holding à la valorisation retenue pour la cible au moment de leur entrée : Soit : - Vn = valeur des capitaux propres de l’ensemble constitué du holding et de la cible dans n années ; en d’autres termes, Vn est la valeur de sortie des investisseurs en capitaux propres (fonds de capital investissement) ; - V = montant de l’investissement du fonds ; - i = TRI exigé par le fonds. Pendant toute la durée de l’investissement, le fonds ne reçoit pas de dividendes afin d’optimiser le service de la dette d’acquisition. Par conséquent i vérifie : V= Vn 0 0 + + ... + 2 1 + i (1 + i ) (1 + i )n [1] En d’autres termes, V est la valeur actualisée au TRI exigé de la valeur de sortie. La valeur Vn du groupe (holding + cible) issue de comparaisons boursières (application d ’un multiple d ’EBIT ou d’EBITDA) intègre sa dette financière nette, issue du bilan consolidé : VII. Capitaux propres du holding 229 - Bilan consolidé d'ouverture au 31/12/N Immobilisations cible N BFR cible N Frais holding N Goodwill N = Total Actif consolidé N maintien à partir de 2007 des ratios suivants observés en 2006 : Marge opérationnelle de 7,9% ; Ratio rapportant les dotations aux amortissements au CA de 2,1%. Capitaux propres holding N Réserves consolidées N Dette nette cible N Dette nette holding N = Total passif consolidé N Bilan consolidé de clôture au 31/12/N+1 Immobilisations cible N+1 BFR cible N+1 Frais holding N+1 Goodwill N = Total Actif consolidé N+1 Capitaux propres holding N+1 Réserves consolidées N + résultat cible N+1 Dette nette cible N+1 Dette nette holding N+1 = Total passif consolidé N+1 VIII. Exemple : le cas Bricorama Sur la base d’une note d’analyste récente, le compte de résultat, CA au REX est prolongé selon la même logique que celle qui sous-tend la valorisation de M6 par DCF : - convergence linéaire du taux de croissance de l’activité de 7% en 2005 (dernière année des prévisions de l’analyste financier ) vers 3% en 2011. Ce taux de 3% est en ligne avec l’hypothèse retenue pour déterminer la prime de risque du marché retenue ; 230 Tableau 1 : prévision d’activité et de rentabilité opérationnelle de la société Bricorama Compte de résultat de la cible CA 2004 615 Taux de croissance Excédent brut d'exploitation Taux de marge d'EBITDA 2005 658 2006 700 2007 739 2008 776 2009 810 2010 839 2011 865 7,0% 6,3% 5,7% 5,0% 4,3% 3,7% 3,0% 48 52 55 58 61 64 66 68 7,8% 7,9% 7,9% 7,9% 7,9% 7,9% 7,9% 7,9% (Dotations) (14) (14) (15) (16) (17) (17) (18) (18) En % du CA -2,3% -2,1% -2,1% -2,1% -2,1% -2,1% -2,1% -2,1% 34 38 40 43 45 47 48 50 Résultat d'exploitation Le bas du compte de résultat (RCAI, IS et résultat net) suppose la connaissance de l’endettement financier net de la société. Son évolution à partir du dernier bilan publié (2003) repose sur les cash flows prévisionnels. Les cash flows intègrent : - les investissements qui convergent linéairement entre 2006 et 2011 vers le montant des dotations aux amortissements ; - la variation du BFR dans l’hypothèse où le BFR 2003 égal à 38 jours de CA est normatif ; - les dividendes dans le cadre d’un taux de distribution de 100% afin d’optimiser le service de la dette d’acquisition du holding de reprise Tableau 2 : prévision de flux de trésorerie de la société Bricorama Cash flows de la cible Résultat Net Dotations (Investissements) (Dividendes) (Variation du besoin en fonds de roulement) Variation de dette nette Taux de distribution 2004 21 14 (12) 0 (5) ____ 17 2005 23 14 (12) (21) (5) ____ 0 2006 25 15 (13) (23) (4) ____ (1) 2007 26 16 (14) (25) (4) ____ (1) 2008 28 17 (15) (26) (4) ____ (1) 2009 29 17 (16) (28) (4) ____ (1) 2010 30 18 (17) (29) (3) ____ (2) 2011 31 18 (18) (30) (3) ____ (2) 0% 100% 100% 100% 100% 100% 100% 100% 231 Le compte de résultat complet et le bilan de la cible sont alors les suivants : Tableau 3 : compte de résultat prévisionnel de la société Bricorama Compte de résultat de la cible CA 2004 615 Taux de croissance Excédent brut d'exploitation Taux de marge d'EBITDA 2005 658 2006 700 2007 739 2008 776 2009 810 2010 839 2011 865 7,0% 6,3% 5,7% 5,0% 4,3% 3,7% 3,0% 48 52 55 58 61 64 66 68 7,8% 7,9% 7,9% 7,9% 7,9% 7,9% 7,9% 7,9% (Dotations) (14) (14) (15) (16) (17) (17) (18) (18) En % du CA -2,3% -2,1% -2,1% -2,1% -2,1% -2,1% -2,1% -2,1% 34 38 40 43 45 47 48 50 Résultat d'exploitation Résultat financier (3) (2) (2) (2) (2) (2) (3) (3) Résultat courant avant impôt 31 36 38 40 42 44 46 47 Impôt sur les sociétés (11) (12) (13) (14) (15) (15) (16) (16) Taux d'imposition 34,43% 34,43% 34,43% 34,43% 34,43% 34,43% 34,43% 34,43% Résultat Net 21 23 25 26 28 29 30 31 Tableau 4 : bilan prévisionnel de la société Bricorama Bilan de la cible Immobilisations Besoin en fonds de roulement 2004 153 65 ____ 218 2005 151 69 ____ 221 2006 150 74 ____ 223 2007 148 78 ____ 226 2008 147 82 ____ 229 2009 146 85 ____ 231 2010 145 89 ____ 234 2011 145 91 ____ 236 Total Passif 166 6 46 ____ 218 169 6 45 ____ 221 171 6 46 ____ 223 172 6 47 ____ 226 174 6 49 ____ 229 175 6 50 ____ 231 176 6 52 ____ 234 177 6 53 ____ 236 Dette nette moyenne Coût de la dette 54 5% 45 5% 46 5% 47 5% 48 5% 49 5% 51 5% 52 5% 10,6% 38 10,6% 38 10,6% 38 10,6% 38 10,6% 38 10,6% 38 10,6% 38 Total Actif Capitaux Propres Provisions Dette Nette Besoin en fonds de roulement en % du chiffre d'affaires 10,6% Besoin en fonds de roulement en jours de chiffre d'affair 38 La détermination de la dette d’acquisition s’inscrit dans le cadre suivant : - amortissement linéaire sur 7 ans ; - coût de la dette issu de l’Euribor 6 mois et intégrant un coût de couverture (1%) avec une marge de 2,25% ; - montant fixé de telle sorte que la trésorerie du holding soit toujours positive Les documents prévisionnels (compte de résultat, cash flow, bilan) sont décrits par le tableau n°5. 232 Tableau 5 : comptes prévisionnels du holding de reprise de la société Bricorama Compte de résultat holding Dividendes reçus de la cible Impôt reçu de la cible (Frais financiers) (Impôt sur les sociétés au titre du groupe) Résultat net holding 2004 2005 21 12 (6) (10) 16 2006 23 13 (5) (11) 20 2007 25 14 (4) (12) 22 2008 26 15 (3) (13) 24 2009 28 15 (2) (14) 26 2010 29 16 (1) (15) 28 2011 30 16 (0) (16) 30 Impôt sur les sociétés du groupe fiscal Résultat courant avant impôts (Frais financiers holding) Résultat du groupe fiscal Impôt dû 2004 2005 36 (6) 30 10 2006 38 (5) 33 11 2007 40 (4) 36 12 2008 42 (3) 39 13 2009 44 (2) 42 14 2010 46 (1) 45 15 2011 47 (0) 47 16 Cash flow du holding Résultat net holding (Remboursement de la dette) Variation de trésorerie du holding 2004 2005 16 (16) 0 2006 20 (16) 4 2007 22 (16) 6 2008 24 (16) 8 2009 26 (16) 10 2010 28 (16) 12 2011 30 (16) 13 Echéancier de la dette du holding Reste à rembourser Amortissement En % du nominal 2004 115 2005 99 16 14,29% 2006 82 16 14,29% 2007 66 16 14,29% 2008 49 16 14,29% 2009 33 16 14,29% 2010 16 16 14,29% 2011 0 16 14,29% Bilan du holding Titres cible Trésorerie 2004 265 0 ____ 265 2005 265 0 ____ 266 2006 265 4 ____ 269 2007 265 9 ____ 275 2008 265 17 ____ 283 2009 265 27 ____ 293 2010 265 39 ____ 304 2011 265 52 ____ 318 150 115 ____ 265 167 99 ____ 266 187 82 ____ 269 209 66 ____ 275 233 49 ____ 283 260 33 ____ 293 288 16 ____ 304 318 0 ____ 318 Total actif Capitaux propres Dette d'acquisition Total passif Le montant des capitaux propres du holding (150 M€) est déterminé de telle sorte que le taux de rendement interne (TRI) sur 3 ans des investisseurs (fonds de private equity) soit de 20% : Tableau n°6 : détermination du montant du capital du holding de reprise Capitalisation boursière de Bricorama Dette nette Valeur d'entreprise Résultat d'exploitation Multiple de résultat d'exploitation Valeur d'entreprise de sortie Dette nette consolidée de sortie Capitaux propres de sortie TRI Capitaux propres d'entrée 244 46 290 34 8,5 43 8,5 364 104 260 20% 150 Par conséquent, dans l’hypothèse d’un LBO, la société se valoriserait à 265 M€, soit 9% de plus que sa capitalisation boursière. 233 Conclusion Au total, le prix qui ressort de la structuration d’un LBO intègre deux données fondamentales dans le cadre d’une valorisation qui s’inscrirait dans une logique multicritères. En effet, la détermination de la capitalisation (ou des fonds propres d’ouverture, l’année de la mise en place du LBO) du holding de reprise s’appuie sur un multiple d’EBIT ou d’EBITDA de marché applicable à la société cible. De plus, la fixation d’un TRI objectif revient à prendre en compte une exigence de coût de la ressource financière. Le niveau du TRI objectif est toutefois généralement très supérieur au coût du capital qui serait retenu dans une valorisation par actualisation des flux futurs. En outre, la volonté des fonds d’investissement, qui assurent l’essentiel de la capitalisation du holding de reprise, de sortir du LBO à un horizon très court (de l’ordre de trois à cinq ans), ne permet pas de valoriser pleinement le potentiel de développement et d’amélioration de la rentabilité de la société cible. En tout état de cause, ces éléments n’expliquent pas la partie de la valeur de la cible financée par endettement du holding. Cette valeur est uniquement fonction de capacité de distribution de dividendes compte tenu du service de la dette d’acquisition. Celle-ci doit pouvoir être remboursée par amortissements constants ou en légère progression, sur une période de 7 à 8 ans sans rendre la trésorerie du holding déficitaire. La logique de structuration d’un LBO est donc consubstantielle à la minimisation de la valeur de la cible. C’est la raison pour laquelle, le cédant d’une entité se tourne prioritairement vers des acquéreurs industriels avant de se tourner, seulement le cas échéant, vers des fonds qui investissent exclusivement au travers de montages LBO. Bibliographie Kaplan S., “Sources of Value in Management Buy Outs”, in Leveraged Management Buyout : Causes and Consequences, Y. Amihud (ed.), Homewood, Dow Jones-Irwin, 1989, pp. 611-632 Jarrel G., Brickley J. et Netter J., “The Market of Corporate Control : The Empirical Evidence Since 1980”, Journal of Economic Perspectives, 1988 Smith AJ., “Capital Owenership Structure and Performance: The Case of Management Buyouts”, Journal of Financial Economics, 15, 1986 Summers L., “Discussion in LBO Journal of Applied Conference”, Corporate Finance, 1990 Par conséquent, si les résultats sont significatifs seulement au bout de quelques années, le montant de la dette d’acquisition sera réduit de telle sorte que le paiement des frais financiers de premières années soient compatibles avec l’optimisation de la trésorerie du holding. En d’autres termes, le potentiel de croissance des résultats n’est que très partiellement intégré dans la valorisation. 234 Ratio Combinations Slim MAHFOUD Doctorant FSEG Sfax, Tunisie 235 Using the definition of a standard or a plain vanilla option, it is evident that the higher the underlying asset prices the greater the call's value. When the underlying asset price is much greater than the strike price, the current option value is nearly equal to the difference between the underlying asset price and the discounted value of the strike price. The discounted value of the strike price is given by the price of a pure discount bond, maturing at the same time as the option, with a face or nominal value equal to the strike price. Hence, if the maturity date is very near, the call's value (put's value) is nearly equal to the difference between the underlying asset price and the strike price or zero. If the maturity date is very far, then the call's value is nearly equal to that of the underlying asset since the bond's price will be very low. The call's value can not be negative and can not exceed the underlying asset price. Options enable investors to customize cash-flow patterns. Buying a call gives the right to the option holder to pay the strike price at maturity and to receive the value of underlying asset. Buying a put gives the right to the option holder to sell at maturity the underlying asset at the strike price. The most frequent strategies consist in buying and selling calls and puts with or without using the underlying asset. Several other strategies can be implemented as a function of the risk-reward profile. An investor selling a straddle sells simultaneously a call and a put on the same underlying asset with the same strike price and maturity date. A box spread corresponds to a combination of a bull spreads with calls and a bear spread with puts. It is implemented using two spreads with two strike prices. We can refer to Bellalah and Simon (2003), Bellalah, Briys et al., (2001), Hull (2000), Bellalah (2003), etc. We present some of the most common used option strategies, which apply to options on a spot asset, to options on a futures contract and in general to options with any particular pay-off. These strategies are illustrated with respect to the diagram pay-off or the expected return and risk trade-off of standard options. In particular, we recall the basic strategies and synthetic positions. Then we present some elaborated strategies. I. Put/Call ratio combinations Options buyers speculators. are often seen as Since speculators are considered often as being on the wrong side of the market, the number of puts traded versus the number of calls might be considered as a contrary sentiment indicator. The Chicago Board Options Exchange CBOE publishes two put-call ratios. The first is the S&P 100 Put-call Ratio which is calculated by dividing the number of puts traded on the OEX options during a given period by the number of traded calls. The CBOE uses an Equity Put-Call Ratio on individual stocks traded on the exchange. A put-call ratio of 80: 100 for the S&P 100 (80 puts for every 100 calls) could be viewed as a bullish reading in a contrarian sentiment. For more details, we refer to the options institute book (1990). II. Ratio spreads A ratio spread is a strategy involving two or more related options in a given proportion. A trader can buy a call with a lower strike price and sell a higher number of calls with a higher strike price. A 2:1 ratio spread corresponds for example to a strategy in which the trader buys two options and sells an option. It is possible to use options with different maturities. 236 A spread based on options with times to maturity is referred calendar spread. The investor can implement combinations of options with strikes and time to maturity in construct a wide range of profit profiles. different to as a different different order to and loss This strategy shows a limited profit (a loss). A long a Bull Spread with Calls is simulated and represented using the following parameters: S = 102, r =5%, volatility = 20%, T = 100 days (see the annexe). IV. These strategies can also be implemented in connection with the underlying assets and in particular with stocks, bonds, foreign currencies, commodities, etc. Using simultaneously options and their underlying assets allows to adjust payoff patterns to fit the attitude of investors toward the profile of risk and return. A trader implements ratio spreads with calls and puts in different contexts according to his future expectations about the underlying asset price and his riskreturn profile. III. Long a call bull spread Long a put bull spread Buying a put spread is equivalent to buying the higher strike price put and selling the lower strike price put. If the underlying asset is around the lower strike price at maturity, the higher strike price put is worth the intrinsic value and the lower strike price is worthless. The maximum profit is given by the difference between the two option premiums. The strategy is done with a debit. The trader can sell the put spread by selling the higher strike price put and buying the lower strike price put. The strategy is done with a credit. The strategy is represented as follows. (See the annexes). A spread consists in buying an option and selling another option. V. A bull spread corresponds to a combination of options with the same underlying asset and the same maturity, but different strike prices. A strategy can be implemented by buying a call with a lower strike price and selling a call with a higher strike price. If the underlying asset price is below the lower strike price at expiration, the maximum loss is limited to the difference between the two option premiums. If the underlying asset price is above the higher strike price at expiration, the lower strike price call is worth the intrinsic value. Short a call bear spread A bear spread corresponds to a combination of options with the same underlying asset and the same maturity but different strike prices. When it is implemented with two calls, it is designed to profit from falling underlying asset prices. This strategy with calls corresponds to the short Position to the bull spread. A strategy can be implemented by selling a call with a lower strike price and buying a call with a higher strike price. (See the annexes). 237 VI. Selling a put bear spread Bibliography Selling a put spread is equivalent to selling the higher strike price put and buying the lower strike price put. (See the annexes) Summary Since there are at least three maturity dates and three to sometimes twelve strike prices, the fundamental question is to determine which option to trade. The most well known strategies in portfolio management involve combinations of options as vertical spreads, calendar spreads, ratio spreads, etc. A vertical spread involves the purchase of an option and the sale of another with the same time to maturity and a different strike price. When the strategy produces a cashout flow, we say that the investor is long the spread. When the strategy generates a cash-inflow, the investor is said short the spread. The strategy can be implemented by calls or puts using different strike prices. Bellalah M. and Simon Y., Options, contrats à terme et gestion des risques financiers, Mars 2003, Economica Bellalah M., 2003, Gestion des risques et Produits dérivés classiques et exotiques, Dunod, Août Bellalah M., E. Briys et al., 2001, Options, Futures and exotic Derivatives, Second Edition, John Wiley and Sons Cox J, Ross S. and Rubinstein M., 1979, “Option Pricing : a Simplified Approach”, Journal of Financial Economics, 7, 229263 Hull J., 2000, “Options, Futures and Other Derivatives”, Fourth Edition, Prentice-Hall international Options, 1990, Edited by The Options Institute, The Educational Division of the Chicago Board Options Exchange, Homewood, Illinois A vertical bull spread is implemented when an money option is bought and an out-of-the money option is sold. A calendar-spread strategy represents a position where the investor is long an option with a longer term and short an option with a short term for the same strike price. A diagonal spread involves the purchase of an option with a longer term and the sale of another with a short term where both options have different strike prices. A combination is a straddle for which the options exercise prices are out-of-the money. When the strategy implies a cashoutflow, the investor is long the strategy and when it involves a cash-inflow, the investor is short the strategy. 238 Annexe Figure 1. Buying a Bull Spread with Calls 80 60 40 pr o fi t 20 11.1 0 -8 .9 -20 C a ll I N -40 C a ll OUT S p re a d -60 49 0 51 0 53 0 55 0 57 0 59 0 61 0 63 0 65 0 S Figure 2. Buying a Bull Spread with Puts 80 60 40 11.0 20 pr o fi t 0 -20 -9 .0 -40 Put OU T -60 P u t IN S p re a d -80 -10 0 49 0 51 0 53 0 55 0 57 0 59 0 61 0 63 0 65 0 S 239 Figure 3. Selling a Call Bear Spread 60 40 20 pr o fi t 8 .5 0 -11. 5 -20 -40 C a ll I N C a ll -60 S p re a d -80 49 0 51 0 53 0 55 0 57 0 59 0 61 0 63 0 65 0 S Figure 4. Selling a Put Bear Spread 10 0 Put OU T 80 P u t IN S p re a d 60 40 pr o fi t 20 8 .7 0 -20 -11. 3 -40 -60 -80 49 0 51 0 53 0 55 0 57 0 59 0 61 0 63 0 65 0 S 240 Concentration des Places Boursières Européennes et Stratégies de Diversification de Portefeuille Anthony MILOUDI EDC Paris - OCRE [email protected] Résumé Ce travail s’inscrit dans une démarche exploratoire. Il a pour objet l’étude des structures des rentabilités de 23 places boursières européennes. Notre stratégie consiste, en ayant recours à des méthodes de classification, à rechercher des structures de groupes homogènes en terme de risque systématique, respectivement sur trois sous-périodes autour de la date du passage à l’euro. Tous les résultats vont dans le sens d’une augmentation de l’intégration des marchés actions européens. Néanmoins, des opportunités d’investissements subsistent et des gains potentiels de diversification existent. En outre, les gérants de fonds devront privilégier les stratégies de diversification sectorielle au détriment d’une diversification géographique de leur portefeuille. Mots clés : Alliances entre places boursières européennes, PECO, Classification ascendante hiérarchique, nuées dynamiques, diversification de portefeuille. JEL Classification : G15 ; F36 Abstract The main goal of this paper is to analyses the structure of 23 European equity markets returns. Cluster analysis methods are used to explore changes in the structural relationships between these stocks markets due to the recent political events, on three different sub-periods; before, during and after the adoption of the single currency unit. All results indicate that European equity markets are becoming increasingly integrated. Nevertheless, European investments opportunities still exist for diversification benefits. Finally, fund managers should be concentrate on cross-industry diversification rather than cross-country diversification. In other words, industrial diversification dominates, in term of risk reduction, geographical diversification. Keywords : Mergers between European stock markets, PECO, Cluster analysis, Portfolio diversification strategies. JEL Classification codes : G15 ; F36 241 Introduction Le paysage financier européen s’est considérablement modifié au cours de ces dix dernières années. Ces évolutions s’inscrivant dans le processus de mondialisation sont stimulées par la volonté politique des législateurs de libéraliser les marchés de capitaux. Cette « Europe financière » trouve sa légitimité dans ce que Faugère (1999) appelle le « triptyque des libertés ». Outre la « liberté d’établissement » des institutions financières et de la « libre circulation des capitaux », elle prévoit la « liberté des prestations de services ». D’inspiration anglo-saxonne, la Directive sur les Services d’Investissement (DSI) adoptée en 1993 et effective à partir de 1997, doit veiller à l’adoption de l’acquis communautaire par toutes les institutions financières des pays membres de l’Union Européenne (UE). Elle se fixe comme principaux objectifs la mise en place d’un cadre réglementaire commun en établissant un système de « passeport européen » pour les prestataires de services d’investissement. L’ensemble de ces mesures doit conduire à une plus grande concentration des places boursières européennes. En outre, le passage à la monnaie unique, dès le 1er janvier 1999 sur les marchés de capitaux permet une élimination du risque de change. Ce qui peut raviver l’intérêt des investisseurs pour les échanges de titres transfrontaliers. De tels bouleversements mettent les marchés actions sous le feu direct de la concurrence, dans la mesure où l’ensemble des barrières directes à l’investissement étranger ont été levées. Ainsi, les places boursières, dont les revenus sont constitués essentiellement par les cotations des titres, les introductions en bourse, les frais de transactions et de règlement-livraison, doivent impérativement attirer de nouveaux investisseurs. Pour faire face à ce nouvel environnement, elles accordent de plus en plus d’importance aux infrastructures technologiques et investissent massivement dans l’élaboration de plates-formes de négociation électroniques performantes. D’une manière générale, toutes les stratégies de croissance externe visant à déjouer cette concurrence sont envisagées. La concentration boursière sous formes d’alliances régionales et de fusion (création d’Euronext en septembre 2000) de jouer sur les « effets de réseau » et de réaliser des économies d’échelle. Ce processus de concentration est alimenté par le fait qu’un certain nombre de pays ont rejoint l’Union le 1er mai 2004. Il nous semble dès lors naturel d’intégrer dans l’étude, les places boursières les plus représentatives de ces nouveaux participants. On distingue parmi eux, quatre places boursières relatives aux pays d’Europe Centrale (Pologne, Hongrie, République Tchèque, Slovaquie) et deux relatives aux pays baltes (Lettonie, Lituanie). On regroupe l’ensemble de ces pays sous la dénomination PECO (Pays d’Europe Centrale et Orientale), dont certains appartiennent aux pays baltes et d’autres sont des anciennes « démocraties populaires ». L’effet conjugué de ces facteurs devrait favoriser l’intégration des marchés de capitaux européens. Ce dernier point soulève une question fondamentale. L’augmentation potentielle du degré d’intégration des marchés actions va-t-elle diminuer les avantages que l’on attribue traditionnellement à la diversification internationale ? Ce travail s’inscrit dans une démarche exploratoire, et vise, à partir d’un échantillon contenant des données relatives à 23 indices de marché européens à fournir des éléments de réponses à cette question centrale qui touche les gérants de fonds. L’objectif est d’élaborer des structures de groupes correspondant à 3 sous-périodes distinctes sur une période totale de plus de 8 ans (du 28/04/1995 au 26/09/2003). Notre méthodologie fondée sur l’emploi de méthodes de classification (hiérarchique et non hiérarchique), nous permet d’une part d’exhiber des structures 242 de classes homogènes en terme de risque systématique, et d’autre part, d’appréhender l’existence de déformations des structures relativement à l’évolution du contexte politique et économique européen. Ces méthodes multidimensionnelles furent employées pour la première fois en finance par Elton et Gruber (1970), plus récemment par Brown et Goetzmann (1997) afin de classer les performances des fonds. Brown, Goetzmann et Grinblatt (1997) les utilisent comme alternative aux méthodes traditionnelles d’identification des facteurs statistiques. Drummen et Zimmermann (1992) et Kraus (2001), montrent que ces méthodes peuvent être utilisées pour représenter les structures de classes des différents marchés d’actions européens. Dans la section suivante, on revient brièvement sur les principaux accords conclus entre places boursières européennes. La section 3 est dédiée à la présentation des données. La section 4 précise la méthodologie employée. La section 5 détaille les résultats empiriques obtenus et la section 6 s’intéresse à la conclusion et à la mise en perspective de nos principaux résultats. I. Concentration des boursières européennes places On ne peut considérer les places boursières des PECO comme des marchés émergents traditionnels, dans la mesure où les gouvernements de ces pays sont déjà entrés dans le processus d’intégration économique avec les membres de l’Union Européenne depuis les années 1998 / 99. La plupart des pays candidats à la cinquième vague d’élargissement de l’Union ont adopté de manière progressive l’acquis communautaire. Un certain nombre de réformes ont été engagé par les législateurs des PECO. Au niveau réglementaire, l’adoption d’organes de commission des opérations de bourse met en place une plus grande réglementation financière (c’est le cas de la Pologne qui est un exemple en la matière). Au niveau technologique, l’adoption de nouveau système de transaction et des conditions d’admission sur le marché des titres doit permettre d’améliorer les performances des places boursières. Dans un tel contexte, les gouvernements de ces pays se tournent vers la possibilité d’intégrer leur marché financier au sein d’alliances régionales. Le 23 avril 1999 les bourses des 3 pays baltes (Estonie, Lituanie et Lettonie) se regroupent pour former : « The Baltic Stock Exchanges » (TBSE). Cette alliance prévoit le lancement, le 3 janvier 2000 d’un indice de marché « The Baltic List » dont les titres sont sélectionnés à partir des bourses des pays signataires. L’indice TBSE renferme les 15 plus grosses capitalisations des trois places boursières baltes. Chacun des titres peut-être échangés sur l’un de ces trois marchés et doivent impérativement représenter une capitalisation boursière minimale de 15 millions d’euros. Ces trois places resteront des entités indépendantes. En ce qui concerne les marchés financiers des pays d’Europe Centrale, on assiste à une coopération technique qui voit le jour le 12 octobre 2000. Cette coopération permet la création d’un indice de marché régional, le CESI Central European Stock Index, coté à la Bourse de Budapest. Les places financières de l’Europe de l’Ouest ne semblent pas indifférentes à ces modifications du paysage financier européen, comme en témoignent les propositions d’alliances qui émanent du London Stock Exchange en direction du marché financier hongrois et celle d’Euronext en direction de la bourse polonaise. D’ailleurs, un accord entre la bourse polonaise et Euronext est conclu le 8 février 2002. Cet accord prévoit la reconnaissance mutuelle de leurs membres ainsi que des négociations croisées pour les segments de marché des produits au comptant et dérivés. Cet accord industriel, 243 qui n’inclut pas d’opération capitalistique entre les deux sociétés, renforce les liens entre le « Warsaw Stock Exchange » et Euronext. Il est le fruit d’une longue et étroite collaboration entre WSE et la Bourse de Paris initiée dès le début des années 1990. En 1992 la Bourse de Paris a accompagné WSE lors de l’informatisation de sa négociation qui a migré vers le système français NSC, et a contribué en 1993 à l’informatisation du dépositaire polonais en coopération avec SICOVAM (devenu Euroclear France). Dans le même temps, la création d’Euronext Lisbonne voit le jour le 6 février 2002. Ce marché utilisera la plate-forme électronique française NSC pour la négociation des produits au comptant et dérivés qui seront compensées et garanties par Clearnet (chambre de compensation et de contrepartie d’Euronext). De son côté, l’alliance NOREX créée en juin 1997, qui réunit les bourses suédoise, danoise, islandaise et norvégienne ont conclu un accord (1er janvier 2004) avec « HEX integrated markets » qui comprend les marchés finlandais, estonien et letton pour former une grande alliance régionale regroupant les zones nordique et balte. Ce processus devrait se poursuivre, comme en témoigne le projet de révision de la DSI, adopté le 19 novembre 2002 par un collège de commissaires européens. Ce projet prévoit la création d’un cadre réglementaire favorable à la mise en place de plates-formes multilatérales de négociation (MTF), qui permettraient l’internalisation de l’exécution des ordres par les prestataires en services d’investissement. Cette directive assouplit les conditions de transparence qui s’appliquaient jusqu’alors aux marchés réglementés centralisés. Elle consacre la place des systèmes informatiques au cœur de ces industries, ce qui devrait stimuler l’innovation. Les prochaines évolutions importantes pourraient bien se situer dans le domaine des systèmes de règlementlivraison, encore nombreux en Europe et dont la concentration et l’harmonisation permettraient de substantielles économies aux utilisateurs finaux. On assiste donc à une modification du paysage boursier européen, et à l’émergence de zones géographiques bien déterminées en terme de marché des capitaux. : mêmes infrastructures, système de cotation et de règlement-livraison. II. Présentation des données Notre échantillon est composé de 23 portefeuilles domestiques européens pondérés par leurs capitalisations boursières, représentant un minimum de 80% de la capitalisation totale du marché financier local, sur une période qui s’étale du 28/04/1995 au 26/09/2003 (soit 440 observations par indice). Nous avons privilégié l’utilisation des indices construits par la base de données Datastream. Pour les autres, on a extrait les indices « blue chip » qui renferment les actions les plus importantes en terme de capitalisation boursière afin de satisfaire la contrainte de représentativité de l’indice. En suivant notamment les travaux de Huang et Jo (1995), nous optons pour une fréquence hebdomadaire des données afin d’amoindrir les problèmes d’asynchronisme rencontrés avec des données de plus basse fréquence. Toutes nos données sont libellées en euro. On se place ainsi du point de vue de l’investisseur européen. En outre, le processus d’intégration monétaire a réduit significativement le risque de change entre les pays de l’UEM et les pays nonmembres. Nos indices de marché domestiques correspondent à 23 pays européens dont 15 appartiennent à l’UE (les 12 pays de l’UEM, plus le Royaume-Uni, la Suède et le Danemark) auxquels viennent s’ajouter les marchés financiers suisse et norvégien. Les 6 derniers indices de marché appartiennent aux PECO ; 4 pays d’Europe 244 Centrale, Pologne, Hongrie, Slovaquie et République Tchèque et les 2 plus grosses places financières Baltes (Lituanie et Estonie). Il est en effet légitime d’intégrer ces pays dans l’étude des structures de groupes des marchés financiers européens, dans la mesure où l’adoption d’une partie de l’acquis communautaire est une condition préalable à leur adhésion à l’UE dès le 1er mai 2004. L’étude s’effectue sur trois sous-périodes distinctes. La première est relative à la période antérieure à l’euro et s’étale du 28 avril 1995 au 24 juillet 1998. Cette sous-période contient 21 des 23 indices de notre échantillon car nous ne disposons pas de données libellées en euro concernant l’Estonie et la Lituanie. La deuxième concerne la période dite de convergence et correspond au passage à la monnaie unique sur les marchés des capitaux, du 31 juillet 1998 au 23 juin 2000. Et enfin, la troisième correspond à la période postérieure à l’euro, du 30 juin 2000 au 26 septembre 2003. <Insérer Tableau N°1> Le tableau 1 renferme des informations relatives à l’importance des places financières européennes, en termes de capitalisation boursière et du nombre d’actifs domestiques et étrangers cotés en leur sein. L’analyse de ces variables permet de révéler aux investisseurs le potentiel d’attractivité de chacune des places boursières. Ces éléments rentrent en compte dans les phases d’allocation stratégique et tactique du processus de gestion de portefeuille. On distingue ainsi deux principaux facteurs d’attractivité. Le premier est relatif à l’accroissement de la taille du marché qui assure une liquidité accrue aux investisseurs. A l’instar de Biais (1999) selon lequel « la liquidité attire la liquidité », on comprend mieux l’importance du nombre d’actifs cotés sur un marché financier. Le second facteur est relatif au nombre de titres dits « crosslistés » qui permet aux sociétés étrangères d’être présentes sur d’autres places boursières. L’augmentation de ce nombre accroît le processus d’internationalisation des entreprises en permettant l’accès du marché national aux investisseurs étrangers ; généralement peut enclin à investir hors de leur frontière. Ainsi, le Royaume-Uni, la France, l’Allemagne, l’Espagne, la Suisse et l’Italie font partie des marchés financiers les plus attractifs. D’une manière générale, l’accroissement de la taille des places boursières européennes, due notamment à la recrudescence des alliances, permet d’accroître les opportunités d’investissement. Ces effets conjugués à la réduction voire à l’élimination du risque de change pour les pays de l’UEM doivent renforcer l’attrait des investisseurs pour les échanges transfrontaliers. Or, l’augmentation de ces échanges pourrait, à terme, réduire les gains potentiels de diversification des portefeuilles. Qu’en estil en réalité ? La méthodologie mise en place doit nous permettre de répondre à cette question qui reste une des préoccupations centrales des gestionnaires de fonds. III. Méthodes de classification et structures de groupes des marchés européens99 L’expérimentateur voulant recourir aux méthodes de classification doit faire face à un problème majeur, celui du choix de la technique de regroupement des variables. Devant l’abondance des approches, la première difficulté est de choisir la classe des modèles, en fonction de la capacité de ceux-ci à former des groupes homogènes. Un préalable à l’utilisation des méthodes hiérarchiques passe par la définition d’une 99 Pour une description complète des différentes techniques de classification, des différentes mesures de ressemblance et des critères d’agrégation des données à utiliser se référer à Johnson et Wichern (1992), Chapitre 12 pages 573-602, à Saporta (1990), Chapitre 12 pages 241-260 et à Aldenderfer et Blashfield (1984). 245 mesure de similarité ou de ressemblance adéquate. Or le choix de ces mesures est lié à la nature des variables à regrouper. Contrairement aux techniques hiérarchiques, les méthodes non hiérarchiques s’affranchissent de la détermination ex ante de mesure de distance de similarité. Ce dernier point peut constituer un avantage comparatif dans la mesure où on ne fait aucune hypothèse sur la forme de similarité à employer afin de transformer les données brutes. En revanche, l’utilisation d’une méthode non hiérarchique s’effectue après avoir spécifié le nombre de classes que les données sont supposées former. A ce titre, Johnson et Wichern (1992) recommandent de procéder à plusieurs types de classification sur le même ensemble de données. La stratégie employée dans notre étude suit ces recommandations puisque l’on a recours à la méthode de Ward (classification hiérarchique), afin de déterminer le nombre optimal de groupes composant la structure, et l’algorithme kmeans (nuées dynamiques) pour valider les résultats obtenus précédemment. A. Classification hiérarchique Cette famille de méthodes fournit un ensemble de partitions des individus en classes de moins en moins fines obtenues par regroupements successifs des données. Une classification hiérarchique se représente par un « dendrogramme » ou arbre de classification100. Dans la plupart des méthodes de classification cet arbre est obtenu de manière ascendante. La première 100 Un dendrogramme représente une hiérarchie de partitions. Une partition est obtenue par troncature du dendrogramme à un certain niveau de ressemblance. La partition comporte alors d'autant moins de classes que la troncature s'effectue vers la gauche du dendrogrammme (c'est-à-dire vers la racine). Une troncature effectuée à gauche du premier nœud de l'arbre conduit à ce que chaque classe ne contienne qu'un individu. Une troncature effectuée au-delà du niveau de la racine du dendrogramme conduit à une seule classe contenant tous les individus. étape consiste à définir une mesure de ressemblance entre parties. La méthode la plus souvent utilisée est celle de Ward (1963) qui se base sur des mesures de distances euclidiennes. Elle constitue selon Saporta (1990) la meilleure méthode de classification hiérarchique sur données quantitatives, puisque d’une part, elle est complémentaire à l’analyse en composante principale et d’autre part, elle repose sur un critère d’optimisation assez naturel. Cette méthode consiste à regrouper les deux individus les plus proches. Ces individus forment un sommet. On réitère ce processus jusqu’à former un regroupement complet. Dans une classification ascendante on part des J classes élémentaires et on agrège les deux classes qui se ressemblent le plus. La caractérisation de cette partition dépend de l’indice de proximité entre classes utilisé comme indice d’agrégation. Pour construire des classes homogènes il faut définir la mesure de ressemblance (similarité versus dissimilarité) que l’on utilise pour former des groupes. Selon Sneath et Sokal (1973) les mesures de ressemblance peuvent être divisées en deux catégories, les mesures de similarité et les mesures de dissimilarité. Il existe trois types de mesures de similarité : les coefficients de corrélation (Pearson, Kendall et Spearman), les coefficients d’association et les mesures similaires probabilistes. En outre, les mesures de sont uniquement « dissimilarité » représentées par les « mesures de distances ». Le choix d’une mesure de ressemblance doit satisfaire les exigences imposées par la nature des données pour permettre un regroupement pertinent des variables mises en jeu. Or les mesures de similarité s’appuyant sur les « coefficients d’association » et sur les mesures dites probabilistes » sont « similaires uniquement exploitables sur un échantillon de données qui répond à un codage (variables qualitatives). Par ailleurs, l’utilisation des « coefficients de corrélation », conduit à des résultats 246 fallacieux dans la mesure où les matrices de corrélation sont instables au cours du temps101. Il nous reste donc à considérer l’emploi d’une mesure de distance adéquate. Une des mesures de « dissimilarité » les plus employées s’appuie sur la notion de distance euclidienne. Considérons deux vecteurs de ′ x = x1 , x 2 ,..., x p et dimension p, ′ y = y1 , y 2 ,..., y p , à partir desquels on peut exprimer la distance euclidienne suivante : [ [ d (x, y) = ] ] (x1 − y1 )2 + (x2 − y2 )2 + ... + (x p − y p )2 ′ = (X − Y ) (X − Y ) (1) En dépit de leur importance, les « mesures de distances » souffrent de certaines limitations. L’estimation des « dissimilarités » entre variables est fortement influencée par l’importance des co-variations de certaines d’entres-elles. C’est-à-dire par des différentiels de variabilités qui découlent des effets tailles de la variance. Afin de réduire ces effets, il est possible de normaliser les variables afin qu’elles aient des variances unitaires et des espérances nulles. Or l’utilisation de rentabilités logarithmiques nous permet de nous affranchir de la phase de normalisation des variables représentées ici par des indices boursiers. Les mesures de « dissimilarité » entre les deux vecteurs x 101 Longin et solnik (1995) montrent que l'utilisation des corrélations comme mesure du degré de diversification potentielle est inadaptée dans la mesure où il existe une relation intime entre les niveaux de volatilité et les niveaux de corrélation. En période de forte volatilité des marchés les niveaux de corrélation entre indices augmentent très fortement. Cette méprise peut conduire l'investisseur à sous-estimer l'exposition au risque de son portefeuille car l'existence de ces liens réduit les bénéfices de la diversification. Le gérant doit donc modifier les poids relatifs de chacun des actifs (ou des classes d'actifs) en fonction de l'impact des niveaux de volatilité sur les mesures de corrélation. et y peuvent être calculées selon différents critères d'agrégation, chaque critère conditionnant la structure de la hiérarchie binaire produite par l'algorithme de classification hiérarchique ascendante (CAH). La méthode de classification hiérarchique de Ward ou critère de l'inertie consiste à rechercher la paire d’indices de marché dont l’agrégation entraîne une diminution minimale de la variance pour les remplacer par leur indice moyen (point moyen). On réitère cette procédure jusqu’à ne former qu’un seul point (le point moyen du nuage). Cette approche consiste à agréger deux groupes de variables, x et y de sorte que l'augmentation de l'inertie intra-classe soit la plus petite possible, pour que les classes restent homogènes. L’indice de dissimilarité entre ces deux classes (ou niveau d’agrégation de ces deux classes) est alors égal à la perte d’inertie interclasse résultant de leur regroupement. Ainsi chercher un groupe qui maximise l’inertie interclasse (disperser au mieux les groupes) est équivalent à chercher un groupe minimisant l’inertie intra-classes car l’inertie totale est égale à la somme des deux inerties inter et intra-classes (Théorème de König-Huyghens). Ce critère, proposé notamment par Ward (1963), ne peut s'utiliser que dans le cas des distances quadratiques. Elle s’applique donc à la distance euclidienne. D’après Saporta (1990), elle constitue une bonne stratégie d’agrégation à partir des mesures de distances. B. Classification non hiérarchique Les méthodes de classification non hiérarchiques conduisent à une partition de l'ensemble de départ en un nombre n de classes de même niveau. Elles permettent de traiter des ensembles d'effectifs assez élevés en optimisant des critères pertinents. Comme les méthodes précédentes, elles supposent la définition d’un critère global qui mesure la proximité des individus d’une classe et par la même définie la 247 qualité de la partition. La méthode de « partitionnement » la plus utilisée est celle des « nuées dynamiques », généralisation de la méthode des centres mobiles dont l’objectif est de minimiser l’inertie intraclasse (même critère que celui de la méthode de Ward) afin d’obtenir une partition de k classes où k est un nombre fixé a priori, déduit des résultats de la classification hiérarchique (voir figure 1). Le principe général de la méthode est de disposer de trois fonctions. La première calcule la distance d’un individu à un centre de classe. La deuxième associe les k centres à une partition. La troisième mesure la qualité de la partition obtenue. Or la partition finale dépend du choix initial des centres de classes. Il convient par conséquent d’effectuer plusieurs choix de centres pour tester la stabilité des partitions obtenues car des choix initiaux différents ne donneront pas les mêmes résultats. Les individus qui ont toujours été classés ensemble définissent ce que l’on appelle des « formes fortes102 », qui représentent les parties homogènes de l’ensemble des individus puisqu’elles sont indépendantes de l’aléa des tirages aléatoires. Finalement les méthodes de partitionnement permettent d’obtenir une structure de groupes non hiérarchique plus ou moins homogènes à partir d’un grand nombre d’individus en supposant que le nombre k de classes est fixé a priori. Cette dernière contrainte rend nécessaire la réalisation de plusieurs tirages pour des valeurs différentes de k . Notre stratégie consiste à utiliser des méthodes de classification hiérarchiques sur le même échantillon afin de déterminer le nombre optimal de classes de la partition. Gavrilov et al (2000) démontrent que la qualité du regroupement en classes homogènes dépend à la fois de la mesure 102 Une forme forte d’une multipartition (ensemble de partitions définies sur le même ensemble d’individus) représente un ensemble d’individus rangés dans une même classe de chaque partition de la multipartition. de ressemblance et de l’algorithme de classification utilisés. L’objet de leurs travaux est de rechercher la mesure de similarité adéquate afin d’étudier l’existence d’une structure de groupes à partir de données financières. L’utilisation d’une méthode de classification hiérarchique, avec distance euclidienne et critère d’agrégation de Ward semble être une bonne stratégie de modélisation des actifs financiers. Par ailleurs, Brown et al (1997) suivent l’approche, développée par MacQueen (1967), utilisée notamment par Elton et Gruber (1970). Cette méthode de classification non hiérarchique utilise un algorithme assez proche de la méthode des nuées dynamiques (algorithme k-means), avec une distance euclidienne comme mesure de ressemblance des individus. Notre méthodologie s’inspire de l’ensemble de ces considérations et semble être adéquate pour la recherche des structures de groupes des marchés financiers européens. <Insérer Figure N°1> IV. Structures de groupes diversification de portefeuille A. Classification hiérarchique structures de groupes et et Pour chacune des 3 sous-périodes on obtient une structure de groupes hiérarchique contenant 4 classes plus ou moins homogènes au regard de la valeur prise par la troncature. Cette troncature, visible sur chacun des dendogrammes, est représentée par une ligne en pointillée parallèle à l’axe des ordonnées. Elle indique le niveau à partir duquel la notion de classe n’a plus aucune signification car l’inertie interclasses n’est pas maximiser. La partition obtenue au-delà de cette ligne est par conséquent très hétérogène. Elle ne peut donc former des classes cohérentes. Le « dendrogramme » de la Figure 2, relatif à la période antérieure à l’euro met en évidence l’existence de 2 groupes 248 principaux relativement homogènes. Le premier groupe est composé des places boursières prépondérantes de l’Europe continentale : Royaume-Uni, Allemagne, France, Suisse, Pays-Bas, Espagne ; alors que le second renferme les représentants des petites capitalisations, (Portugal, Norvège, Danemark, Irlande…). Les deux autres classes contiennent les couples : Finlande-Suède et Slovaquie-République Tchèque. Ce qui est cohérent au regard des relations historiques et culturelles étroites qu’entretiennent ces pays. On peut également noter que la Hongrie, la Pologne, la Grèce ne font pas partie de cette structure, puisqu’il forme un regroupement au-delà du niveau de la troncature. Cette période est marquée par un certain nombre de crises boursières, principalement dues aux marchés financiers émergents (asiatiques, russe, argentin, brésilien) dont les répercutions sur les places boursières européennes ne sont pas négligeables, puisque ces dernières, ont pour la plupart connus des corrections boursières importantes. Les effets de propagation de la crise asiatique de l’été 1997 entraînant avec elle la Russie durant l’été 1998, sont ressentis plus durement par les places boursières des PECO encore fragiles, qui viennent à peine de s’engager dans une série de réformes de leur marché financier afin de préparer l’adhésion à l’Union. La bourse Tchèque, en retard dans le développement de sa place financière, fut la plus durement touchée par ces crises, ce qui forcèrent les autorités à une restructuration du marché financier103. Ces effets de contagion généralisés à des degrés divers à l’ensemble des places boursières européennes génèrent une tendance baissière créant ainsi une forte volatilité. 103 La bourse de Prague a adopté toute une série de réformes structurelles visant à augmenter la crédibilité da sa place financière ; création d’une commission pour les valeurs mobilières équivalent de l’AMF en France (Autorité des Marchés Financiers), adoption d’un nouveau système de transaction, le SPAD. Ce contexte explique en partie la déconnexion des places boursières des PECO de la structure de groupes. <Insérer Figure N°2> La structure de classes relative à la période dite de convergence (Figure 3) n’est pas très éloignée de celle obtenue précédemment. On observe le même clivage petites versus grandes capitalisations, où l’Italie a repris sa place parmi l’Allemagne, le Royaume-Uni, la France, les Pays-Bas et l’Espagne. Leur regroupement s’établit à un niveau de dissimilarité inférieur à celui de la période précédente, ce qui montre un accroissement de l’homogénéité des membres de cette classe. Ces résultats semblent cohérents avec les travaux de Lombard et al (1999) et Diermeier et Solnik (2001). Les auteurs ont montré que les rentabilités des actions évoluent en fonction de facteurs régionaux et domestiques. En outre, la sensibilité des actifs d’une société aux facteurs internationaux est directement reliée à l’importance de ses activités internationales. C’est le cas des grands marchés financiers européens qui sont composés d’un nombre important de firmes multinationales, et tendent par conséquent, à réagir de la même manière à des facteurs de risque globaux. Les deux autres classes sont composées des couples Hongrie-Pologne et Finlande-Suède, tandis que les nouveaux entrants représentant les pays baltes (Estonie et Lituanie) ainsi que la Grèce sont en dehors de cette structure. <Insérer Figure N°3> En ce qui concerne la période postérieure à l’euro (figure 4), plusieurs faits marquants sont mis en évidence. On observe une modification de la structure de groupes due à l’évolution et aux développements des places financières des PECO. Néanmoins, on peut noter une nouvelle fois, l’opposition entre les représentants des grandes places financières et celles renfermant essentiellement des entreprises 249 de plus petites tailles en terme de capitalisation boursière. Ce dernier groupe est rejoint par la République Tchèque. Par ailleurs, les couples Lituanie-Estonie et Grèce-Luxembourg composent chacun une classe ; tandis que la Pologne, la Slovaquie et plus surprenant la Finlande sont écartés de la structure de groupes. Comment expliquer la déconnexion du marché finlandais de cette structure ? L’origine de ce phénomène peut s’expliquer par les différences de compositions industrielles entre les places boursières européennes. Les marchés financiers « étroits » (peu d’entreprises cotées) sont plus sensibles aux évolutions d’un ou plusieurs secteurs d’activité qui dominent leur indice. C’est le cas du marché finlandais dont l’entreprise Nokia, du secteur des technologies, représente une grande part de la capitalisation boursière du pays. La domination du marché domestique par certaines multinationales peut générer l’existence d’une composante de risque spécifique au pays ou spécifique à une région. Ces considérations rejoignent les résultats d’études empiriques récentes (Baca, Garbe et Weiss, 2000, Heckman et al 2001, L’Her et al 2002). Ces auteurs montrent que la simple prise en compte des pays pour diversifier et gérer son portefeuille serait de moins en moins efficace au regard des faibles niveaux de corrélation obtenus à partir d’indices sectoriels. Ainsi, des stratégies de diversification basées sur une classification sectorielle devraient être plus profitables dans la mesure où elles devraient permettre de mieux contrôler les risques inhérents à la gestion de portefeuille. <Insérer Figure N°4> B. Classification non hiérarchique et structures de groupes Afin d’obtenir un classement optimal, on a opté pour un nombre de 50 répétitions de l’algorithme qui correspond à la réalisation de 50 multipartitions. Pour chacune des sous-périodes on obtient ainsi une partition finale optimale composée de 4 classes (résultat de la classification hiérarchique) homogène au regard de la minimisation du critère de l’inertie. Les formes fortes mises en exergue par l’algorithme correspondent à un ensemble d’indices de marché rangés dans une même classe dans chaque partition de la multipartition. L’ensemble des résultats relatif à l’exploitation des nuées dynamiques est contenu à l’intérieur du tableau 2. Ces investigations viennent globalement corroborer les précédentes, avec néanmoins quelques différences notoires. Le couple Hongrie-Pologne, représentants de l’alliance CESI, constitue une classe sur les deux premières souspériodes. En ce qui concerne la période dite de convergence, on observe un regroupement entre les 3 principales places boursières de l’alliance NOREX, la Finlande, la Suède et la Norvège. On peut d’ailleurs noter que le couple FinlandeSuède constitue une forme forte. On peut expliquer ce regroupement par la concomitance de facteurs géographique et culturel qui ont été démontré par une littérature récente. La proximité des investissements peut, en effet, procurer des avantages informationnels non négligeables aux investisseurs locaux par rapport à des investissements potentiels plus éloignés (Portes et Rey, 2003, Hau, 2001). Huberman (2001) montre que ce facteur géographique favorise les connaissances des entreprises (facteur informationnel) et l’accès aux médias qui diffusent l’information. L’aspect culturel et géographique de l’intégration financière participe donc à l’explication de la préférence domestique par le biais de l’affect et des considérations psychologiques des investisseurs. <Insérer Tableau N°2> Le groupe des petites capitalisations et rejoint par 2 membres des PECO, la Slovaquie et l’Estonie, démontrant ainsi la capacité de leur gouvernement à adopter l’acquis communautaire. A ce titre, Schroder (2001) montre que les 250 négociations engagées entre les dirigeants des places financières des marchés dits « émergents » et leurs homologues des pays développés pour former des alliances, est un moyen rapide de parvenir à la modernisation de leur système de transaction. Ce qui leur permet, à terme, de rattraper leur retard technologique. En ce qui concerne la période postérieure à l’euro, on observe que les pays fondateurs de la Communauté Européenne (Allemagne, France, Benelux, Italie…) forment une classe homogène, ce qui confirme les résultats obtenus notamment par Kraus (2001) et Berdot et al (2001). D’une manière générale, la classification hiérarchique à un pouvoir discriminant supérieur à l’utilisation des nuées dynamiques comme en témoigne la présence d’un grand nombre d’individus au sein des classes 3 et 4. Néanmoins, la classification non hiérarchique révèle l’existence de formes fortes. Ainsi, les marchés boursiers allemand et français, hongrois et polonais, finlandais et suédois forment des couples homogènes en terme de risque systématique pour les raisons évoquées précédemment. En ce qui concerne les marchés financiers des PECO, les résultats sont différenciés. Certaines places boursières comme la République Tchèque, l’Estonie et la Lituanie sont associés au groupe des petites capitalisations, comme en témoignent les résultats obtenus par la classification hiérarchique sur la période postérieure à l’euro. Tandis que la classification non hiérarchique montre que la Pologne et la Hongrie s’insèrent dans la classe des grands marchés financiers européens. Ces résultats contrastés peuvent s’expliquer par le fait que les marchés financiers des PECO n’ont pas suivi les mêmes développements. Pour la Pologne et la Hongrie le processus de transition s’est mis en marche beaucoup plus tôt que ceux engagés par la Slovaquie ou la République Tchèque. A l’instar de Schroder (2001) seules les places boursières de certains pays de l’Europe de l’Ouest peuvent être considérés comme évoluant dans la phase de « maturité et de consolidation boursière ». Dès lors, cette convergence boursière des PECO avec les pays de l’Union semble être liée à l’état d’avancement des réformes structurelles de leur place boursière. En outre, les alliances conclues entre ces marchés « émergents » et certains marchés de l’Union devraient renforcer ce phénomène. Conclusion L’objet de ce papier est de réaliser une étude exploratoire de l’impact de l’évolution du contexte politique et économique européen sur la structure des rentabilités de 23 places boursières. La méthodologie employée permet de révéler, sur une période récente de plus de 8 ans, des modifications majeures dans la structure des rentabilités des « benchmark » européens. Les résultats traduisent l’existence de deux aspects de l’intégration financière. L’intégration géographique et culturelle à travers les liens qui unissent les représentants de la zone scandinave, la Finlande, la Norvège et la Suède, à travers les liens du couple Hongrie-Pologne. Quant à l’intégration économique, force est de constater que les relations les plus fortes concernent les pays fondateurs de l’Europe. Entrés depuis longtemps dans un processus commun de réformes structurelles, ces pays semblent avoir atteint un haut degré d’intégration de leur marché financier. Néanmoins, l’appartenance à une zone de libre échange ne serait constituer une condition suffisante à l’explication de ce niveau d’intégration. Suivant la période étudiée, des pays comme l’Italie ou encore la Finlande peuvent être écartés des structures de classes. Ce qui laisse supposer l’existence de facteurs locaux. Or des études récentes ont montré que ces facteurs naissaient des différentiels de composition industrielle entre les différentes places boursières. A 251 l’instar de Berdot et al (2001), les investisseurs sont progressivement passés d’une logique de place, favorisant la diversification géographique de leur portefeuille, à une logique sectorielle. Même si des facteurs régionaux semblent jouer un rôle important dans l’explication des co-mouvements des rentabilités des actifs européens. Ce constat est fondamental pour le gérant dans la mesure où il existe encore des opportunités d’investissement visant à tirer partie des avantages de la diversification internationale. Au final, les gestionnaires soucieux de prendre en considération les évolutions de l’environnement européen devront avoir Aldenderfer M.S et Blashfield R.K, (1984), Cluster Analysis, Sage University paper 44. Brown S.J et Goetzmann W.N, (1997), Mutual Fund Styles, Journal of Financial Economics, 12, p. 263-278. conscience de l’existence de composantes régionales et sectorielles du risque systématique. Ces dernières sont marquées par des liens géographiques et culturels forts, par l’intégration de nouveaux pays dans l’Union, par la constitution d’une zone monétaire stable et par le clivage entre petites et grandes capitalisations. Les investisseurs confrontés à cette nouvelle donne doivent nécessairement adapter leur mode de gestion à la redistribution des risques à l'échelle de l'Union Européenne et prendre en considération l'impact de ces bouleversements sur les niveaux d'intégration inter et intra-communautaires. Bibliographie Drummen M et Zimmermann H, (1992), The Structure of European Stock Returns, Financial Analysts Journal, 48, p.15-26. Elton, E et Gruber M, (1970), Improved Forecasting Through The Design of Homogeneous Groupings, Journal of Business, 44, p.432-450. Baca S.P, Garbe B.L et Weiss R, (2000), The Rise of Sector Effects in Major Equity Markets, Financial Analysts Journal, 56, p.34-40. Faugère, J.P (1999), Economie Européenne, Presses de Sciences Po et Dalloz, 1999. Berdot, J-P, Goyeau D et Léonard J, (2001) Diversification et Valorisation des Actifs Financiers : Logique sectorielle contre logique de place, Revue d’Economie Financière, 61, p.173-192. Gavrilov, M, Dragomir, A, Indyk, P et Motwami R, (2000), Mining the Stock Market : Which Measure Is Best ?, in actes de la 6ième conférence internationale ACM, 487-496. Biais B, (1999), European Stock Markets and European Unification, in Dermine J et P. Hillion (Eds), Chapitre 8, Oxford University Press. Hau H, (2001), Location Matters : An Examination of Trading Profits, Journal of Finance, 56, p.1959-1983. Brown S.J, Goetzmann W.N et Grinblatt M, (1997), Positive Portfolio Factors, Papier de recherche, NBER N°6412. Huang R.D et Jo H, (1995), Data Frequency and the Number of Factors in the Stock Returns, Journal of Banking and Finance, 19, p.987-1003. Diermeier J et Solnik B, (2001), Global Pricing of Equity, Financial Analyst Journal, 57, p.37-47. Huberman, G. (2001), Familiarity Breeds Investment, Review of Financial Studies, 14, p.659-680. 252 Johnson R.A et Wichern D.W, (1992), Applied Multivariate Statistical Analysis, 3ième édition, Prentice-Hall. Ward J, (1963), Hierarchical Grouping to Optimize an Objective Function, Journal of the American Statistical Association, 58, p.236-244. Kraus T, (2001), The Impact of the EMU on the Structure of European Equity Returns: An Empirical Analysis of the First 21 Months, papier de recherche, FMI, N°84. L’Her J.F, Sy, O et Tnani M.Y, (2002), Country, Industry and Risk Factor Loadings in Portfolio Management, Journal of Portfolio Management, 28, p.7079. Lombard T, Roulet. J et Solnik B, (1999), Pricing of Domestic versus Multinational Companies, Financial Analysts Journal, 55, p.35-49. Longin F et Solnik B, (1995), Is the International Correlation of Equity Returns Constant : 1960-1990 ?, Journal of International Money and Finance, 14, p.327. MacQueen J.B, (1967), Some Methods for Classification and Analysis of Multivariate Observations, Proceedings du 5ième symposium on Mathematical Statistics and Probability, 1, University of california, Berkeley Press, p.281-297. Portes, R et Rey H, (2003), The Determinants of Cross-border Equity Flows, papier de recherche, NBER N°7336. Saporta G (1990), Probabilités, Analyse des Données et Statistiques, Tecnip 1990. Sneath, P et Sokal R, (1973), Numerical Taxonomy, San Fransico. W.H Freeman. Schroder M, (2001), The New Capital Markets in Central and Eastern Europe, ECMI, Springer. 253 Tableau 1 Importance des Places Boursières Européennes Places boursières Capitalisations boursières (millions d’euros) Nombre d’actifs cotés Domestique Etranger Total 864.097 679 182 861 Allemagne 50.356 104 21 125 Autriche nd nd nd 229 Belgique (Euronext)** 608.899 nd nd nd Espagne 3.478 18 0 18 Estonie 106.341 186 7 193 Danemark 157.069 140 3 143 Finlande 1.119.000 684 121 805 France (Euronext)** 90.181 342 1 343 Grèce 14.343 49 1 50 Hongrie 68.386 54 11 65 Irlande 507.942 270 9 279 Italie 3.294 44 0 44 Lituanie 31.566 43 195 238 Luxembourg 84.465 156 20 176 Norvège nd nd nd 236 Pays-Bas (Euronext)** 31.738 189 1 190 Pologne nd nd nd 66 Portugal (Euronext) 16.093 62 1 63 République Tchèque 2.061.904 2300 373 2673 Royaume-Uni 2.198 358 0 358 Slovaquie 247.031 261 17 278 Suède 598.368 289 130 419 Suisse Sources : Fédération Européenne des Bourses de Valeurs : http://www.fese.org et Euronext http://www.euronext.com Les capitalisations boursières sont toutes exprimées en millions d’euros à partir des actifs domestiques exclusivement (sont exclus les actions étrangères, cross-listings). Elles incluent les actions avec ou sans droit de vote des marchés financiers primaire, secondaire et du nouveau marché pour chacun des pays. ** Places boursières Euronext : elles regroupent 1554 actions cotées dont 339 étrangères pour une capitalisation boursières totales de 1.721.912 millions d’euros. 254 Figure 1 Les différentes étapes méthodologiques pour la recherche des structures de classes homogènes Représentation de la matrice des données - individus : rentabilités - variables : indices boursiers Réduction de la dimension de la matrice des données - résumer un ensemble d'informations - mettre en évidence une structure de groupes homogènes CAH méthode de Ward [1963] - distance euclidienne - critère de l'inertie CAH obtention d'une structure de classes emboîtées dendrogramme k classes mises en évidence et utilisées dans la méthode non hiérarchique Classification non hiérarchique Nuées dynamiques - distance euclidienne - algorithme de MacQueen [1967] Solutions optimales k classes homogènes classifications stables mises en évidence par des formes fortes 255 Figure 2 Structure de groupes des portefeuilles Européens sur la période antérieure à l’euro (du 28/04/1995 au 24/07/1998) Dendrogramme Hongrie Pologne Finlande Suède Italie Portugal Luxembourg Irlande Danemark Norvège France Espagne Allemagne Pays-Bas Suisse Autriche Belgique Royaume-Uni Grèce Slovaquie Répub-Tchèque 0,07 0,06 0,05 0,04 0,03 0,02 0,01 0,00 Dissimilarité Figure 3 Structure de groupes des portefeuilles européens sur la période « euro » (du 31/07/1998 au 23/06/2000) Dendrogramme Hongrie Pologne Finlande Suède Grèce Slovaquie Luxembourg Norvège Portugal Italie France Allemagne Pays-Bas Espagne Royaume-Uni Irlande Danemark Autriche Belgique Suisse Répub-Tchèque Lituanie Estonie 0,07 0,06 0,05 0,04 0,03 0,02 0,01 0,00 Dissimilarité 256 Figure 4 Structure de groupes des portefeuilles européens sur la période postérieure à l’euro (du 30/06/2000 au 26/09/2003) Dendrogramme Finlande Suède Italie Allemagne France Pays-Bas Espagne Belgique Suisse Royaume-Uni Pologne Slovaquie Grèce Luxembourg Irlande Danemark Norvège Hongrie Autriche Portugal Répub-Tchèque Lituanie Estonie 0,08 0,07 0,06 0,05 0,04 0,03 0,02 0,01 0,00 Dissimilarité Tableau 2 Structure de classes non hiérarchiques des marchés financiers Européens Composition des classes sur la période antérieure à l’euro Classe 1 Classe 2 Classe 3 Classe 4 Formes fortes France et Effectif 2 1 17 1 Allemagne, Hongrie Luxembourg Autres Grèce France et Pologne Espagne Composition des classes sur la période de passage à l’euro Classe 1 Classe 2 Classe 3 Classe 4 Formes fortes Finlande et Effectif 6 3 2 12 Suède Autriche Finlande Hongrie Autres Hongrie et Belgique Norvège Pologne Pologne Irlande Suède France et Allemagne Suisse Slovaquie Estonie Composition des classes sur la période postérieure à l’euro Classe 1 Classe 2 Classe 3 Classe 4 Formes fortes France et Effectif 1 1 7 14 Allemagne Finlande Suisse Belgique Autres France Allemagne Italie Pays-Bas Espagne On a opté pour 50 répétitions de l’algorithme afin d’obtenir plusieurs partitions finales et de retenir la solution optimale. La convergence est atteinte lorsque l’écart absolu entre 2 valeurs successives, rapporté à l’inertie intra-classe courante, est inférieur ou égal au seuil critique de convergence de l’algorithme qui est de 1.10-4. 257 Architecture organisationnelle et performance des décisions des gérants de portefeuilles boursiers Jean MOUSSAVOU Docteur en Sciences de gestion Enseignant-chercheur ESC BRETAGNE BREST 2, avenue de Provence CS 23812 29238 Brest cedex 3 Tél.: (33) 02 98 34 44 64 Fax: (33) 02 98 34 44 69 E-mail: [email protected] Résumé Si l’essentiel des travaux au sein de l’industrie de la gestion d’actifs porte sur la mesure des performances des gérants de portefeuille, l’analyse du contexte dans lequel les décisions d’investissement sont prises est rarement abordée. Or, la théorie de l'architecture organisationnelle permet d’accorder une place notable aux structures organisationnelles et au contexte qui entoure les décisions financières au sein des firmes. La présente étude propose d'examiner l'impact de l'architecture organisationnelle des sociétés de gestion de portefeuille (SGP) sur la performance des décisions d'investissement des gérants évoluant sous leur tutelle. L'étude s'appuie sur une série d’entretiens exploratoires organisés avec des responsables de SGP, et d’une analyse de données qualitatives et quantitatives collectées auprès d'un échantillon de SGP et de fonds d’investissement français (SICAV et FCP). Les résultats de l’étude causale (PLS) montrent un pouvoir explicatif des variables organisationnelles et contextuelles sur la performance. Mots clés : Architecture organisationnelle, Marchés financiers, Gestion de portefeuille, Société de gestion de portefeuille, Performance de gestion de portefeuille, OPCVM. 258 Introduction Dans un contexte de marchés financiers devenus de plus en plus complexes et particulièrement risqués pour l'investisseur non initié, nombreux sont les épargnants qui ont recours aux gérants de portefeuille professionnels104 pour effectuer leurs placements sur ces marchés. Pour aider les investisseurs à choisir parmi l'ensemble des véhicules de placement proposés, une industrie de la mesure des performances s'est développée. Or, si la littérature consacrée à la mesure des performances est abondante, rares sont les études essayant d'intégrer les phénomènes se situant en amont. En outre, si de nombreux ouvrages proposent des outils censés permettre d'effectuer des choix d'investissement optimaux – l'optimum correspondant à la maximisation de la richesse de l'investisseur – ils présentent très rarement des éléments permettant d'expliquer le contexte organisationnel dans lequel les décisions sont prises (Charreaux, 2001). Pourtant, les portes ouvertes par la théorie de l'architecture organisationnelle [Jensen et Meckling (1992); Brickley, Smith et Zimmerman (1997)] permettent d’accorder une place notable aux structures organisationnelles et au contexte qui entoure les décisions financières. La théorie de l'architecture organisationnelle apparaît en cela comme le cadre unificateur de l’explication du comportement d’investissement au sein d’une firme, dans une vision globale. Dans 104 En France, la loi du 2 juillet 1996 sur la modernisation des activités financières attribue l'activité de gestion de portefeuille pour le compte de tiers aux "entreprises d'investissement" agréées, plus communément dénommées sociétés de gestion de portefeuille (SGP). Pour adapter la législation aux évolutions des produits et des métiers, la directive « services» (2001/107 /CE) et la directive « produits» (200l/108/CE), adoptées le 21 janvier 2002, modifient la réglementation des produits et des sociétés de gestion et rend exportables de nombreux fonds qui ne l'étaient pas. La transposition s'est traduite en France par la loi de sécurité financière du 2 août 2003, puis des décrets d'application et des règlements de l'Autorité des Marchés Financiers (AMF) du 13 février 2004. cette perspective, le comportement des firmes s'expliquerait au travers de la recherche d'une architecture organisationnelle optimale. Cet article s'intéresse à l’impact de l'architecture organisationnelle des sociétés de gestion de portefeuille (SGP) sur la performance des décisions des gérants. Situer l’analyse des décisions des gérants dans cette optique se justifie dans la mesure où celles-ci sont souvent guidées par de multiples préoccupations dépendantes du contexte organisationnel dans lequel s’opèrent les choix d’investissement. En cela et, en toute rigueur, les SGP possédant une architecture organisationnelle optimale devraient obtenir des performances financières meilleures que celles de leurs concurrentes. Les fonds gérés par les gérants de portefeuille évoluant dans ces sociétés devraient donc être plus performants que les autres. Cette hypothèse s'oppose a priori à la théorie de l'efficience des marchés financiers qui prévoit implicitement qu'aucun gestionnaire de portefeuille (donc aucune sociétés de gestion) ne peut de façon durable faire mieux que le marché. En effet, les conclusions que l’on peut tirer de la théorie des marchés efficients semblent impliquer que l’existence de ce type d’acteurs serait sans objet. Or, les gérants de portefeuille professionnels prospèrent malgré leur "inutilité" théorique. Nous sommes donc en présence de deux réalités pour le moins conflictuelles entre les conclusions de la théorie des marchés efficients et la présence des gérants de portefeuille professionnels sur les marchés financiers. L'un des objectifs de ce travail est de tenter d'expliquer ce paradoxe. Ainsi, si les marchés financiers sont efficients, les résultats de nos investigations devraient aboutir à une absence de relations entre les caractéristiques de l’architecture organisationnelle et la performance. Dans le cas inverse, on pourrait admettre que l'information mettrait un certain temps à 259 être "digérée" par le marché et à se répercuter sur les cours de titres. En cela, les gérants de portefeuille disposant de puissants moyens de recherche et de traitement d'informations, seraient dans une situation privilégiée (Gallais-Hamonno et Grandin, 1999) et profiteraient de périodes d'"inefficience" passagère. Le développement de l'étude s'appuie sur deux socles : d'abord une quinzaine d’entretiens exploratoires organisés avec des responsables de SGP et un questionnaire adressé à 59 SGP françaises. Cette démarche a permis d'identifier, mesurer et collecter les données organisationnelles des différentes SGP de l'étude. Ensuite une collecte de données quantitatives relatives aux valeurs liquidatives de SICAV et FCP des SGP ayant répondu au questionnaire. Les données recueillies ont permis de mesurer la performance des fonds. Les méthodes financières modernes de mesure de performance de fonds d'investissement ont été ici mises en application. Celles-ci permettent en effet de séparer la part de la rentabilité imputable à la gestion de celle due aux fluctuations du marché et au risque du portefeuille. La combinaison des données recueillies à partir des entretiens et du questionnaire d'une part, et des valeurs liquidatives de SICAV et FCP d’autre part, a permis d'aboutir à la conclusion de l'étude. Les propos qui vont suivre présentent dans un premier temps les éléments constitutifs du cadre d'analyse qui sous-tend le modèle et les hypothèses de travail présentés dans un deuxième temps. La méthodologie de collecte de données et les résultats obtenus seront ensuite présentés successivement. I. Cadre d'analyse Une série d'entretiens réalisés avec les dirigeants de SGP a permis de cerner l'environnement de ces entités et de mettre en lumière trois facteurs clefs dans leur architecture organisationnelle : le nécessaire contrôle des risques pris par les gérants et les outils de contrôle formel mis en place dans l'organisation ; la gestion de l'information et les outils mis en place afin que l'information puisse être recueillie, analysée, partagée et utilisée le plus rapidement possible ; enfin, les facteurs contextuels immédiats de la SGP (effectif salarié, nombre de fonds gérés, montant des fonds gérés, affiliation à une maisonmère, etc.) à même d'influer sur les comportements organisationnels de la SGP. A. La maîtrise des risques et le degré de formalisation Le fonctionnement quotidien des SGP est soumis aux exigences de l'environnement institutionnel. Les autorités de marché, notamment l'Autorité des Marchés Financiers (AMF) encouragent une démarche de formalisation et de contrôle des activités en imposant un cadre réglementaire strict visant à protéger l'épargne des investisseurs. Ce cadre conduit à la formalisation des comportements organisationnels des SGP et influe par là même sur le processus de création de valeur des gérants de portefeuille. La nature même de la technologie financière des SGP basée sur la manipulation d'importantes sommes d'argent justifie pleinement la mise en place d'un cadre minimum de contrôle. Les enjeux sont particulièrement importants. En effet, des exemples ont montré à quel point un opérateur mal surveillé est à même de dissimuler des pertes105. Les SGP doivent apporter la preuve que tout est mis en œuvre pour assurer la sécurité des fonds des investisseurs avant d'obtenir un agrément de gestion. En cela, la loi du 2 juillet 1996 sur la modernisation des 105 Souvenons-nous de quelques uns des scandales qui ont, il y a quelques années, défrayé la chronique (Daiwa, Barings). 260 activités financières, transposant la directive européenne n°93/2 relative aux services d'investissement dans le domaine des valeurs mobilières, exige que soient mises en place des procédures de contrôle interne permettant le respect des règles de "bonne conduite". L'objectif de la réglementation vise ainsi à assurer une plus grande sécurité des fonds des investisseurs par une meilleure maîtrise des processus internes. Les dirigeants de SGP sont alors enclins à développer un système d'information interne très formalisé étendu à l'ensemble des processus de l'entreprise. Ainsi, à des degrés divers, les gérants de portefeuille évoluant au sein des SGP voient leur rôle souvent circonscrit par des règles (choix des couples rendement/risque; horizons des placements; choix des portefeuilles de référence auxquels sont adossés les politiques de gestion; contraintes particulières assignées à la gestion, etc.). Cette conception de l'organisation trouve naturellement un terrain de prédilection dans les formes d'organisation de type mécanique ou bureaucratique. Selon Mintzberg (1982), «les organisations formalisent le comportement pour en réduire la variabilité, et en fin de compte pour le prédire et le contrôler». On peut alors s'interroger sur l’impact de tels comportements organisationnels sur la performance dans le cadre particulier des SGP. Cela permet d’énoncer notre première proposition théorique : Proposition 1 : Les comportements structurels formels des SGP possèdent une influence sur la performance des fonds gérés. Alors que nous venons d’insister sur le rôle joué par la réglementation dans la structuration des comportements organisationnels des SGP, il est aussi important d'admettre que les SGP sont avant tout des centres de décision basés sur l'information. Cela nécessite la mise en place de structures faisant intervenir des mécanismes de circulation transversale de l’information qui est censée également conditionner le processus de création de valeur des gérants de portefeuille. B. L’information : prépondérant un facteur L'observation empirique montre qu’au sein des SGP, les acteurs et notamment les gérants de portefeuille possèdent une interactivité naturelle avec l'ensemble des secteurs économiques, sources d'incertitude permanente. Pour y faire face, l'appartenance à un réseau de partenaires renforce souvent la capacité d'action de ceux qui peuvent mobiliser cette ressource. Ainsi, dans le cadre de l'activité quotidienne des gérants, des échanges permanents d'informations, d'anticipations ou de points de vue sur les conditions des marchés sont nombreux et viennent continuellement interagir sur les décisions individuelles. Aucune disposition réglementaire ne fixe en effet d'exigences relatives à la collecte et à la gestion d'informations d'origine externe106. De fait, il s'agit là d'une complémentarité aux comportements de type bureaucratique qu'imposent les normes réglementaires évoquées plus haut. En effet, même si des règles formelles sont définies, il existe des possibilités de réajustements permanents au sein du collectif de travail. Ces relations constituent le plus souvent une source précieuse d'interprétation d’informations sur l'évolution et l'état des marchés de plus en plus internationalisés. Ces relations prennent souvent la forme de contacts formels dans les différentes instances collégiales de prise de décisions (comités d'investissement, comités de gestion, 106 Afin d'éviter à la fois les délits d'initié et les conflits d'intérêts entre les SGP et les établissements financiers promoteurs, qui, généralement, en sont les maisons-mères, la législation instaure néanmoins des dispositions réglementaires faisant essentiellement référence à la notion de "muraille de chine ". Ces dernières limitent les échanges d'informations entre les SGP proprement dites et leurs maisons-mères. 261 comités stratégiques, etc.) présents dans la majorité de SGP et dans lesquels les stratégies d'investissement sont souvent élaborées. On les retrouve également dans les échanges spontanés, entre collègues ou acteurs – internes et/ou externes – à l'organisation. Le type de comportements organisationnels qui se profile ici n'est pas sans rappeler le modèle adhocratique de Mintzberg (1982) défini par l'ajustement mutuel, le travail en "constellations de travaux", ou groupes de projets. Powel (1990) évoque la notion de réseau lorsqu'il parle de telles formes d’échanges se déroulant dans un cadre social et des modes de "relations" qui s'y développent. Pour Powel, les réseaux sont particulièrement efficaces dans le traitement de l’information. Les variations des prix sur les marchés, pas plus que les procédures formelles de l’organisation, ne véhiculent les informations les plus pertinentes. Se pose alors la question de savoir si l'existence de telles relations au sein des SGP contribue ou non à expliquer la performance des gérants de portefeuille. Ce qui permet d’énoncer notre deuxième proposition théorique : Proposition 2 : Les comportements d’interaction entre acteurs (internes ou externes à la SGP) possèdent une influence sur la performance des fonds gérés. C. Les facteurs de contexte Sur le terrain, même si les SGP évoluent dans un même secteur d’activité, de nombreux facteurs contextuels immédiats (effectif salarié, nombre de fonds gérés, montant des fonds gérés, affiliation à une maison-mère, etc.) peuvent influer sur les comportements organisationnels qu'adoptera telle ou telle SGP. De plus, plusieurs études ont montré que les facteurs de contexte apparaissent comme un déterminant des comportements organisationnels adoptés par l'organisation (Pugh et al. 1963; Stinchcombre; 1965; Hall 1974, Kalika 1984). Il semble alors possible de supposer que la relation entre les comportements organisationnels (formels et d'interaction entre acteurs) et la performance pourrait être d’intensité variable selon le contexte immédiat de la SGP. D’où l’élargissement de notre analyse à la troisième proposition théorique suivante: Proposition 3 : Le contexte des SGP possède une influence sur les comportements organisationnels (structurels formels et d'interaction entre acteurs). Après avoir mis en évidence nos propositions théoriques de travail, il est nécessaire de choisir et d'établir un système de données observables et pertinentes pour répondre à la problématique de l'étude. En cela, un modèle d'analyse sera présenté ci-dessous, puis les hypothèses à valider ou à infirmer empiriquement seront déduites de ce modèle. II. Les d'analyse variables et le modèle A. Les variables du modèle Le modèle d'analyse s'appuie sur quatre groupes de variables aptes à fournir une représentation de l'organisation des SGP et sa relation avec la performance des gérants de portefeuille. Chaque groupe de variables résulte de l'agrégation de plusieurs variables de mesure. Deux groupes de variables concernent les comportements organisationnels formels et les comportements d'interaction entre acteurs et s'inspirent de la dialectique bien connue d'organisation formelle / organisation informelle. Ce sont précisément ces deux groupes de variables qui vont nous permettre de vérifier l'impact positif ou négatif de l'organisation des SGP sur la performance des gérants. 262 L'intégration d'un troisième groupe de variables au modèle, les variables de contexte, en amont des variables de comportements organisationnels formels et d'interaction entre acteurs, va nous permettre de regarder l'effet des facteurs de contexte sur ces deux types de comportements organisationnels. Enfin, nous avons complété notre modèle d’analyse par une variable relative à la performance des fonds gérés (couple rentabilité/risque). Les modalités des différentes variables vont être successivement présentées ci-dessous. 1. Le groupe de variables des comportements structurels formels Ce groupe de variables intègre l'ensemble des dispositions prises par les responsables de sociétés de gestion pour structurer l'espace des comportements des gérants. Pour formaliser celles-ci, nous nous sommes appuyés essentiellement sur les travaux du groupe d’Aston qui, malgré leur ancienneté, constituent encore aujourd’hui le modèle de référence. Les travaux de Kalika (1984, 1995, 1998) sur les structures organisationnelles des entreprises françaises ont également constitué une référence essentielle. Parmi les caractéristiques répertoriées, nous en avons retenu six. Le degré de structuration (Kalika et al., 1998) qui permet de tenir compte du poids de la structure de décision. En effet, il est possible de distinguer au sein des SGP, les grandes entités où les processus de gestion peuvent apparaître beaucoup plus complexes des petites entités, où les structures sont plus allégées. Le degré de structuration est appréhendé à travers le degré de spécialisation horizontale ou fonctionnelle («largeur de l’organigramme ») qui indique le nombre de services, et à travers le degré de spécialisation verticale (ou «hauteur de l’organigramme ») qui mesure le nombre de niveaux hiérarchiques, c'est-à-dire la longueur de commandement ». la «chaîne de Les degrés de standardisation et de formalisation permettant d'évaluer respectivement le degré d’existence de règles ou de normes écrites et non écrites qui s’imposent aux membres de l’organisation, et permettant de créer une zone de stabilité de leurs comportements. Le degré de contrôle qui est souvent analysé conjointement avec le concept de planification stratégique. En effet, il ne peut y avoir de contrôle sans planification préalable et les plans perdent toute leur efficacité s’il n’y a pas de suivi, c’est-àdire de contrôle. Ainsi, selon la définition qu'en donne Mintzberg (1982): « on peut distinguer deux types de système de planification et de contrôle : le système de "contrôle des performances" (ou des résultats) qui est de nature générale et s'intéresse aux résultats des actions, et la "planification des actions" qui intervient avant les faits ». Dans le cadre de notre travail, nous analysons uniquement le contrôle des performances des gérants de portefeuille au travers notamment de la fréquence de ces contrôles. A coté de ces caractéristiques quelque peu classiques en analyse des organisations, nous en avons adjoint une autre appréhendant le degré de concertation caractérisé par le nombre d’organes collégiaux de prise de décisions (comités d'investissement, comités de gestion, etc.). Ces instances collégiales regroupent souvent les éminences grises de la SGP. C'est dans ces instances que sont souvent adoptées les grandes orientations d'allocation d'actifs auxquelles les gérants devraient formellement se conformer. La mise en place de cette variable permet ainsi d’évaluer le degré d’intégration des gérants de portefeuille aux politiques d’investissement de la SGP. Enfin, le type de leadership pratiqué dans les différents organes de concertation 263 permet de tenir compte du degré avec lequel les gérants de portefeuille sont associés ou non à la définition des grandes orientations stratégiques. C’est en effet au sein des différents organes de concertation que les gérants de portefeuille peuvent exprimer leur point de vue vis-à-vis de la hiérarchie. Les situations peuvent être divergentes d’une SGP à une autre. Certaines adopteront un style ascendant et participatif, d’autre plutôt un style descendant et directif. Enfin, d'autres accorderont une autonomie totale aux gérants de portefeuille. C'est notamment le cas dans les petites structures de gestion. 2. Le groupe de variables d'interaction entre acteurs Contrairement au groupe de variables des comportements structurels formels qui était essentiellement inspiré de concepts issus d'études antérieures, les modalités du groupe des variables d’interaction entre acteurs relèvent essentiellement de l'observation du terrain. Pour formaliser ce groupe de variables, nous avons distingué deux niveaux d’analyse : - le premier niveau concerne les interactions entre acteurs internes, c'est-àdire l’intensité des communications interpersonnelles dans l’organisation, les échanges d’informations et de compétences entre opérateurs au sein de la SGP ; - le deuxième niveau est celui des interactions avec les acteurs externes, appréhendées à travers l'intensité des échanges avec l’extérieur de l’organisation. En effet, les relations avec les autres intermédiaires spécialisés, les échanges d’informations avec les confrères externes, sont autant de relations pouvant apporter d'évidentes complémentarités dans la prise de décision des gérants de portefeuille. 3. Le groupe des variables de contexte Pour formaliser le contexte des SGP, nous nous sommes largement inspirés des travaux issus des analyses de la théorie de la contingence, et des travaux de Kalika (1984, 1995, 1998). Les variables de contexte retenues sont : La taille qui est censée jouer un rôle dans les comportements organisationnels des entreprises. Plusieurs études empiriques ont en effet mis en évidence une corrélation positive, par exemple entre la taille et le degré de structuration de l’entreprise (Kalika et al., 1998). Trois critères de taille sont pris en compte: l'effectif salarié, le nombre et le montant des fonds gérés ; Le type de propriété (organisation filiale ou organisation indépendante), c'est-à-dire la dépendance ou non de la SGP vis-à-vis d'une entité extérieure est également reconnu comme pouvant influencer les comportements de l'entreprise. Certaines études ont montré que l’entreprise dépendante et contrôlée de l’extérieur aura tendance à formaliser en grande partie ses comportements car les responsables devraient justifier les résultats de leurs actions auprès des tiers. Ce qui pourrait être le cas de certaines SGP ne pouvant s’affranchir des recommandations de gestion émanant des sociétés-mères ou des promoteurs des fonds sous gestion. 4. La variable relative à la performance des fonds gérés Depuis le modèle moyenne-variance proposé par Markowitz (1952), le couple Rentabilité/Risque est au cœur de l'évaluation des performances en gestion de portefeuille. Plusieurs méthodologies principalement issues des travaux classiques de Treynor (1965), Sharpe (1966) et Jensen (1968), permettent de représenter très concrètement les deux paramètres de rentabilité et de risque. Le choix d'une méthodologie est cependant délicat face aux multiples possibilités existantes. Dans le cadre de cette étude, la 264 méthode de Treynor et ses dérivés ont été écartés car utilisant le coefficient β comme mesure de risque, ce qui ne semble approprié que pour les fonds entièrement investis en actions et sur un même marché. La méthode de Jensen et ses dérivés (issues du modèle de l' « Arbitrage Price Theory » ou APT)107 ont également été écartés de l'étude, du fait de la difficulté inhérente au choix et à la détermination du nombre de facteurs à intégrer dans la méthode. Le ratio de Sharpe a, dans un premier temps, retenu notre attention à cause de son universalité. En effet, la mesure du risque est effectuée à l'aide de l'écart-type qui convient pour les fonds investis sur n'importe quelle catégorie d'actifs (actions, obligations) et sur n'importe quel marché. Toutefois, nous avons choisi de l'écarter de l'étude du fait de l'utilisation du taux sans risque dans la méthode. En effet, la comparaison entre la rentabilité du fonds et le taux sans risque n'est censée intéresser, en théorie, que le souscripteur individuel qui fait un arbitrage entre un investissement risqué et un investissement sans risque. Or, dans un cadre professionnel, bon nombre de gérants de portefeuille adoptent une gestion dite "active" dont l’objectif et de suivre et de battre un indice (ou benchmark) défini à l’avance. En cela, le ratio d'information a été retenu pour l'étude. Le ratio d'information consiste à comparer, en tenant compte du différentiel éventuel de risque, la rentabilité d'un portefeuille de référence à la rentabilité du fonds étudié. Si l’on considère un portefeuille p et un portefeuille de référence m, le ratio d'information est le rapport entre l'excès de rentabilité du portefeuille p par rapport au 107 Afin de contourner le problème lié au choix d'un seul indice de référence, de nombreuses méthodes dites «multifacteurs » ont été développées pour tenir compte notamment de la multiplicité des catégories de facteurs (exogènes et endogènes) pouvant avoir une influence sur les prix et les rentabilités des portefeuilles ou des actifs observés. Ces méthodes, proches du modèle de Jensen, sont issues du cadre théorique de l'APT ou MEA (Modèle d'Evaluation par Arbitrage). marché m, compte tenu de l'excès de risque pris par le gestionnaire par rapport à son portefeuille de référence. Il constitue ainsi une mesure du succès d'une gestion active autour d'une référence avec, au numérateur, l'écart de rentabilité obtenu qui peut être positif ou négatif, et, au dénominateur, le risque pris à s'être écarté du portefeuille de référence. Cela donne: IP = (RP – Rm) / σ (RP – Rm) Avec Ip l’indice d’information du portefeuille indiquant le succès d’une gestion active autour du portefeuille de marché; (Rp – Rm) l’excès ou le déficit de la rentabilité du portefeuille (Rp) sur la rentabilité du portefeuille de marché (Rm); σ(Rp–Rm) le degré de risque pris à s’être écarté du portefeuille de référence. Ce dernier argument s'appelle écart de suivi (Tracking error). On peut écrire : Ecart de suivi = [ ( 1 T ∑ (Rp − Rm) − Rp − Rm T −1 1 )] 2 avec T, le nombre d’observations. En outre, à cause des différentes critiques évoquées par la littérature à l'encontre de l'écart-type, les moments partiels inférieurs d'ordre 2 (MPI2) ont été utilisés comme mesure de risque. Les MPI2 sont fondés sur l’attitude de l’investisseur face au risque d’avoir une rentabilité inférieure à un seuil. Il est donc important de contrôler le risque d’obtenir des rentabilités inférieures à ce seuil. Le problème consiste ainsi à remplacer la variance par les MPI2 qui ne tiennent compte que des fluctuations de risque inférieures au seuil fixé. De manière générale, le moment partiel inférieur d’ordre n des rentabilités d’un portefeuille Rp par rapport à une cible m (généralement la moyenne des rentabilités, à défaut d’une rentabilité requise fixée au départ ou de la rentabilité du portefeuille de marché) se calcule par la formule : 265 MPI n = m K ∑ Pp (m − R p ) =∑ Pp [min( 0, Rp − m )] R p = −∞ n n p =1 Avec Pp la probabilité d’obtenir la rentabilité p et Rp une variable aléatoire représentant les rentabilités du portefeuille. L’expression [min(0,Rp-m)] signifie que si une rentabilité donnée est supérieure à la cible, l’écart entre la rentabilité et la cible est remplacé par 0, sinon l’écart est pris en compte pour sa valeur dans la somme. Le moment partiel d’ordre 2 qui nous intéresse est le carré des écarts négatifs à la moyenne également appelé semi-variance. B. Le modèle et les hypothèses de travail La figure 1 résume le modèle de recherche après introduction des hypothèses retenues dont la formulation est présentée plus bas. Selon ce modèle de recherche, deux groupes de variables indépendantes, les variables de comportements structurels formels et les variables d’interaction entre acteurs, et une variable modératrice, la variable de contexte, vont influer sur la performance des fonds gérés. A partir du modèle, les hypothèses de recherche qui reprennent les propositions théoriques présentées plus haut, sont les suivantes : Hypothèse 1 : Le contexte des SGP possède une influence sur les comportements structurels formels (H1.1.) et d'interaction entre acteurs (H1.2.). Hypothèse 2 : Les comportements structurels formels des SGP possèdent une influence sur la performance des fonds gérés. Hypothèse 3 : Les comportements d’interaction entre acteurs (internes ou externes à la SGP) possèdent une influence sur la performance des fonds gérés. Afin de tester les hypothèses, une collecte de données qualitatives et quantitatives a été effectuée sur le terrain. Les hypothèses ont ensuite été testées à partir d'une analyse de données causale par l'approche statistique PLS. Les modalités de la collecte de données ainsi que celles relatives au test des hypothèses sont présentées ci-dessous. III. Données et échantillons A. La collecte de données et les échantillons La collecte de données et les échantillons sont fondés sur des informations qualitatives et quantitatives, portant respectivement sur les variables organisationnelles et sur la variable relative à la mesure des performances des fonds. 1. Les données organisationnelles Les données organisationnelles ont été collectées à travers une enquête postale accompagnée d'appels téléphoniques qui ont annoncé et suivi l'envoi des questionnaires aux répondants. Les questionnaires ont été soumis aux gérants de portefeuille, acteurs clés au sein des SGP. Le processus global de collecte de données organisationnelles a permis de constituer un échantillon de 59 SGP, soit un taux de près de 20% par rapport à la population de SGP de la place de Paris au moment de l'étude. Sur les 59 SGP, 23 sont de SGP indépendantes (38%). Sur ces 23 SGP se trouvent 6 banques, 2 compagnies d’assurance, 2 sociétés de bourse et 5 maisons de titres (nouvellement qualifiées de sociétés financières) possédant en fait un service ou un département de gestion intégré à leur activité principale. Les 16 SGP indépendantes restantes concernent des SGP constituées par les anciens remisiers gérants de portefeuille. 36 SGP de l’échantillon sont des filiales (62%) constituées par des institutions financières ayant accordé une autonomie à leur activité de gestion en réponse aux recommandations de l'Autorité des Marchés Financiers. En dehors des montants non communiqués, les SGP de l'échantillon géraient environ 500 266 milliards d’Euros, soit plus de 76% du total de l'actif des OPCVM gérés sur la place boursière parisienne au moment de l'étude. Ainsi, l'échantillon de l’étude représentait plus des 2/3 du montant total des fonds gérés en France au moment de l'étude, ce qui était très représentatif de la population totale. En outre, la gestion pour compte de tiers comptait 5797 OPCVM, dont 4628 FCP et 1169 SICAV108. Les SGP de l’échantillon géraient environ 3253 OPCVM, soit 56% de la population totale. 2. Les mesures de performance La société Europerformance a bien voulu nous fournir l'ensemble des valeurs liquidatives hebdomadaires. Les données portent sur les fonds commercialisés (FCP et SICAV), c'est-à-dire ceux dont les parts de portefeuilles peuvent être librement acquis par les souscripteurs. Pour intégrer un fonds dans l'étude, il fallait disposer de toutes ses valeurs liquidatives hebdomadaires durant la période de l'étude (5 ans). Certains fonds ont été délibérément exclus de l'étude du fait de leur nature. C'est ainsi que les fonds à rentabilité garantie ou assortis d’une protection sont exclus car l'utilisation de ces deux critères de gestion ne nous a pas semblé pertinente pour juger de la performance réalisée sur tel ou tel fonds. De même, les fonds monétaires ont été exclus de l'étude. En effet, les performances de ces fonds sont quasiment indexées sur l'évolution des taux à court terme, et les performances intrinsèques des gérants de portefeuille sont parfois sans rapport avec les performances obtenues sur ces fonds. Enfin, les fonds issus des techniques de gestion "multigérants", les « Fonds de Fonds », ont également été exclus de l'étude. En effet, ces produits ne sont pas investis directement en valeurs mobilières sur les marchés financiers, mais constitués de parts d'autres fonds choisis parmi ceux gérés par d'autres SGP. Les 108 Source Banque de France. performances réalisées ne sont donc pas en rapport avec la SGP qui détient ce type de fonds. Finalement, compte tenu de l'ensemble des critères de sélection, un total de 324 OPCVM (126 FCP et 198 SICAV) est intégré dans l'analyse. Pour effectuer l’étude causale dont les résultats sont présentés plus bas, les OPCVM ont été regroupés en trois catégories principales: les OPCVM actions (françaises et internationales); les OPCVM diversifiés (français et internationaux) et, enfin, les OPCVM obligations (françaises et internationales). B. Le test des hypothèses : une approche PLS Pour valider les hypothèses de travail, l'utilisation des méthodes d'analyse dites de deuxième génération (ou méthodes avancées selon Evrard et al., 1997), a semblé la plus appropriée. L'intérêt majeur de ces méthodes réside dans l'introduction de la notion de variable latente (ou construit). Par définition, cette dernière n'est pas directement observable mais déduite de une ou plusieurs variables observables (ou indicateurs). En outre, ces méthodes permettent de tester directement la structure des relations entre les groupes de variables, alors que les méthodes d’analyse de données traditionnelles dites de première génération, adaptées au traitement d’un seul groupe de variables, sont moins efficaces pour aborder les liaisons entre groupes de variables (Croutsche, 1997). Parmi les méthodes d'analyse de deuxième génération, notre choix s’est orienté vers un arbitrage entre l’analyse selon les moindres carrés partiels (PLS) et l’analyse des structures de covariances (LISREL) qui sont de loin, les deux méthodes les plus utilisées. Compte tenu des contraintes liées notamment à la taille de l’échantillon et à la nature des données (absence de normalité), nous avons opté pour PLS à cause de sa flexibilité d'utilisation au regard des contraintes citées. 267 L’approche PLS appliquée au modèle théorique présenté précédemment a fait ressortir les résultats chiffrés du tableau 1. Il s'agit des coefficients de corrélation multiple entre construits, c’est-à-dire les résultats des régressions entre variables explicatives et variables expliquées qui mesurent l'importance du lien de dépendance entre les deux types de variables. Les chiffres entre parenthèses indiquent les carrés des coefficients de corrélation multiples qui mesurent les pourcentages de variabilité des variables expliquées dus aux variables explicatives. Ces deux derniers critères apportent les réponses aux tests d'hypothèses initialement formulées. IV. Analyse des résultats Deux remarques essentielles viennent à la lecture des résultats du tableau 1. La première est que l'ensemble des hypothèses est validé. Le contexte de travail des SGP (critères de taille, d'appartenance à un groupe, d'âge, etc.) déteint sur les caractéristiques de l'architecture organisationnelle des firmes étudiées (degré de structuration, de formalisation, de contrôle, etc.). Le contexte influencerait les politiques organisationnelles formelles mises en place (H1.1.) à hauteur de 48%. De plus, ce même contexte influencerait également les caractéristiques informelles de l'organisation (H1.2.) : les interactions, spontanées ou non entre les acteurs; qu'il s'agisse des interactions entre les acteurs internes entre eux ou avec leurs partenaires externes. Cet ascendant est toutefois moindre, puisque seulement 2,34% des comportements d'interaction entre acteurs dépendraient du contexte. Ces résultats étaient prévisibles, et ne font que confirmer d'autres nombreuses études réalisées dans le domaine organisationnel. Il est naturel et largement admis que l'environnement ou le contexte de travail d'une firme influence son architecture organisationnelle. Plus intéressants sont les résultats concernant la relation architecture organisationnelle/performance. Les hypothèses de l'impact des comportements structurels formels sur la performance (H2) et des comportements d'interaction entre acteurs sur cette même performance (H3) sont vérifiées. Cependant, la relation entre les comportements d'interaction entre acteurs et la performance est plus importante (14%) que celle observée entre les comportements structurels formels et cette même performance (0,4%). La performance pourrait ainsi être expliquée principalement par l'intensité des interactions entre acteurs internes et externes à la SGP. L'équipe de gestion, ainsi que les réseaux de relations que les gérants de portefeuille entretiendraient avec l’extérieur, semblent constituer deux facteurs importants d’explication de la performance. La performance des fonds croîtrait donc avec le degré d'échange d'informations109. Ce résultat n'est pas étonnant dans la mesure où la gestion de portefeuille est une activité fondée essentiellement sur l'information. Une SGP est avant tout un centre de décision portant sur l'information détenue par les acteurs et, c’est souvent à l’occasion de communications et d'échanges d'informations que l'on pallie les incertitudes des marchés. En outre, ce résultat semble démontrer que les politiques organisationnelles formelles mises en place par les responsables des SGP ne seraient qu'un moyen permettant de structurer l'espace des comportements des acteurs, cette considération pouvant expliquer que finalement, le pouvoir explicatif des comportements organisationnels formels n’apparaisse qu'indirectement pour expliquer la performance. En effet, quand on analyse l’influence indirecte des comportements structurels formels sur la performance, à partir du degré d'interaction entre acteurs, 109 Si l'on accepte que celui-ci puisse être mesuré par le degré d'interaction entre acteurs. 268 on constate un impact élevé, soit 33%110. D'une part, les politiques organisationnelles formelles jouent souvent le rôle intégrateur des actions des gérants de portefeuille aux politiques d'investissement propres à la SGP ; d'autre part, elles devraient répondre aux nécessités de contrôle exigées par les autorités de tutelle visant à limiter les « dérapages » éventuels de la part des gérants de portefeuilles. La portée de nos résultats semble confirmer l'importance du facteur "information" sur les marchés financiers. La valorisation des titres sur les marchés financiers est liée à la détention et au traitement des informations relatives aux sociétés cotées et celles relatives à l’environnement économique globale. Il est donc logique que les sociétés de gestion de portefeuille ayant les plus grandes capacités organisationnelles pour recueillir, traiter, analyser, valoriser les informations obtiennent des performances supérieures à celle des autres. La capacité de traitement ne peut qu'être d'origine organisationnelle. L'architecture organisationnelle trouve donc bien sa place dans le lien fondamental « Information – Organisation » et « Gestion de l'information – Performance financière du fonds ». Les résultats du test permettent également de réconcilier les théories de l'efficacité organisationnelle et celles de l'efficience des marchés financiers. En effet, une approche simpliste de la théorie de l'efficience peut laisser penser que l'utilité des sociétés de gestion de portefeuille est nulle, puisqu'il n'est pas possible de prévoir à l'avance l'évolution des cours des titres et que la gestion de portefeuille optimale consiste à investir dans l'ensemble des titres présents sur le marché. L'utilité des 110 Les modèles d'équations structurelles permettent d'évaluer à la fois les effets directs et les effets indirects entre variables, l'effet total de deux ou plusieurs variables étant alors la somme des effets précédents. SGP est donc précisée. Leur rôle ne consiste pas à tenter de déterminer l'évolution future du prix des titres, mais de permettre aux gérants de portefeuilles de mieux utiliser l'information dont ils ont besoin. Dans ce cadre, l'organisation est fondamentale. Les SGP ayant la meilleure architecture organisationnelle auraient également la meilleure performance. La concurrence importante existant entre les différentes SGP devrait pousser celles-ci à recomposer sans cesse leur architecture organisationnelle. Conclusion Cet article avait pour but de tenter d’expliquer la performance des décisions des gérants de portefeuille professionnels en matière d’investissement. Pour cela, elle met en évidence le rôle et l’influence de l’architecture organisationnelle des sociétés de gestion de portefeuille en tant que facteur explicatif de la performance des gérants. Les caractéristiques de l'architecture organisationnelle ont été identifiées et mesurées à partir des variables structurelles formelles et des variables d'interaction entre acteurs. La performance est mesurée à partir du couple rendement/risque. Les résultats de l’étude causale (PLS) montrent un pouvoir explicatif plus important des variables d'interaction entre acteurs sur la performance. La performance des gérants de portefeuille pourrait ainsi être expliquée principalement par l'intensité des relations d'échanges d'informations, de compétences et de savoirs entre acteurs au sein et en dehors de l'organisation. Ainsi, les politiques organisationnelles formelles mises en place par les responsables des SGP ne constitueraient qu'un moyen permettant de structurer l'espace des comportements des gérants de portefeuille, en réponse notamment à la prévention des risques de déontologie et aux nécessités de contrôle exigées par l’Autorité des Marchés Financiers. La relation organisation/performance des gérants de 269 portefeuille est donc vérifiée. En cela, les études relatives à la mesure des performances et aux outils d’aide à la décision d’investissement devraient être complétées par des approches de nature plus qualitative analysant les stratégies de placement s’effectuant en amont, au sein desquelles se jouent souvent des facteurs tels que les arbitrages et les discussions entre acteurs. De tels travaux viendraient certainement enrichir la compréhension du rôle des gérants de portefeuille professionnels et des déterminants de leurs performances. Bibliographie Brickley J.A., Smith C.W. et Zimmerman J.L. (1997), Management Economics and Organizational Architecture, The Mc Graw-Hill Companies Inc, Irvin. Charreaux G. (2001), « L’approche économico-financière de Image de l’investissement », in l’investissement, Vuibert/Fnege, pp.13-60. Fama E.F. (1970), « Efficient Capital Markets: a Review of Theory and Empirical Work », The Journal of Finance, Vol. 25, pp. 383-417. Gallais-Hamonno G. et Grandin P. (1999), « Les mesures de performances », Banques & Marchés, n°42, semptembre-octobre, pp.56-62. Moussavou J. et Gillet P., (2000), « L’importance du choix du benchmark et du taux sans risque dans la mesure des performances des fonds The European d’investissement », Investment Review, http//www.theeir.com. Jensen M.C. et Meckling W.H. (1992), « Specific and General Knowledge and Organizational Structure», in Werin L. et Wijkander H., Contracts Economics, Blackwell, pp.275-281. Kalika M. (1995), Structures d’entreprises, réalités, déterminants, performances, 2ème éd., Economica. Kalika M. (2000), « L’émergence du emanagement », Cahier de recherche n°57, CREPA, Université Paris Dauphine. Moussavou J. et Lamarque E. (2000), « Les sociétés de gestion de portefeuille au cœur d’un triple problème de gouvernance », Banque Stratégie, n°174, septembre, pp.34-35. Markowitz H. (1952), «Portfolio Selection », Journal of Finance, March 1952, PP. 77-91. Mintzberg H. (1982), Structure et dynamique des organisations, Editions d’Organisation. Moussavou J. (2000), Lien entre l’organisation des sociétés de gestion de portefeuille et la performance financière des fonds gérés, Thèse de doctorat en Sciences de Gestion, CREPA, Université de Paris Dauphine. Powel W.W. (1990), « Neither Market Nor Hierarchy : network forms of organization», Research in Organizational behavior, vol. 12, pp. 295-336. Serret V. (2003), «Influence du gérant sur le processus de gestion et la performance finale dans le cas des OPCVM actions », Working paper n°632, CEROG-IAE d’AIX-en-Provence. Moussavou J. (2000), « L’impact des comportements organisationnels des sociétés de gestion de portefeuille sur la performance des fonds gérés», communication au congrès international de l'AFFI, juin, Paris. 270 H1.1 Facteurs Contextuels Comportements structurels formels H2 Performance H1.2 Comportements d'interaction entre acteurs H3 Figure 1 - Le modèle et les hypothèses Hypothèses Intitulés des hypothèses Résultats Conclusions H1.1. : Le contexte des SGP possède une influence sur les comportements structurels formels γ1 = 0,691 (48%) Validée γ2 = 0,153 (2,4%) Validée β2 = 0,066 (0,4%) Validée : malgré la faiblesse du H1 H1.2. : Le contexte des SGP possède une influence sur les comportements d’interaction entre acteurs H2 Les comportements structurels formels possèdent une influence sur la performance des fonds gérés lien, l'influence des comportements structurels formels sur la performance est positive et significative. H3 Les comportements d’interaction entre acteurs (internes et externes) possèdent une influence sur la performance des fonds gérés β3 = 0,371 (14%) Validée : l'influence des comportements d'interaction entre acteurs sur la performance est plus importante que l'influence des comportements structurels formels sur cette même performance Tableau 1 - Résultats du test d'hypothèses par l'approche PLS 271 The Challenges of Basel 2 implementation in the US Professor Dr. John RYAN European Business School London [email protected] Abstract In June 2004, The Basel Committee on Banking Supervision published the new minimum capital requirements rules for banks, called Basel 2. The Basel 2 allows different countries to implement in accordance with their jurisdictions. Thus in the United States banks will be allowed to adopt only advanced approaches of Basel 2 which is called Basel 1A. This will cause challenges for globally operated banks. At the same time the recent announcement of US treasury agencies of a one year delay in Basel 2 implementation adds even more uncertainty in cross border issue. 272 Introduction The importance of the Basel 2 topic is that it proposes significant improvement in risk management practices for banks, although it has to overcome many of obstacles on the way of its implementation. This paper focuses on particular area of Basel 2 framework – credit risk and examines the implementation of new rules with regards to US. The paper aims to identify key challenges that global banks face while implementing the new framework. The paper is structured in the following way. Part 1 gives a general overview of the Basel 2 Framework and focuses on credit risk, examining two approaches for calculating capital requirements – Standardized and Internal Rating Based approaches. This section examines implementation issues in order to show the impact on international banks will have difficulties with implementation of Basel 1A. Part 2 deals with the US Basel 1A implementation issue, outlining the distinguishing features and comparing them with European and UK approaches. The paper concludes with a critical review which outlines the necessity of consolidation between banks and supervisors for effective implementation of new rules. As for methodology, firstly, it was important to scan The New Capital Accord111 itself as it outlines all elements in detail underlying the scope of application as well as methods of calculating minimum capital requirement. Secondly related reports and articles were critically reviewed in order to identify the most controversial topic to focus on in the Basel 2 area. In structuring this paper the following literature was used. European Central Bank paper No. 42 gives a clear overview of Basel 2 explaining differences between current and new frameworks. Also Basel Committee of Banking Supervision presentations about The New Capital Accord are important as key points about Basel 2 are summarized. As for credit risk, there are has been written lots of technical materials, but for the purpose of this paper expository literature was used. A report, written by Stephanou C & Mendoza J C gives a very descriptive picture of credit risk under the Basel 2 framework. An explanatory note on the Basel 2 IRB Risk Weight Functions issued by BIS in July 2005 is also important to look at while structuring this section. The Basel Accord itself is of great use especially when it comes to descriptions of key elements (PD, LGD, EAD and M). The second section of this paper deals with US implementation and key challenges. It based to a large extent on practical literature. In this case an article written by Sullivan M (Kanbay) gives a solid base of the Basel 2 Implementation Framework. BIS publications such as “High-level principles for cross-border implementation of the New Accord” and “Home-host information sharing for effective Basel 2 implementation” as well as FSA “Use of non-EEA regulators’ requirements in group capital calculations” were useful. I. Basel 2 with regards to Credit risk 111 The paper based on The New Basel Capital Accord issued in April 2003, however some sections were reviewed using the recent updated version of the Accord (November 2005) A. Basel 2 framework 273 “A key objective of Basel II is to encourage improved risk management through the use of three mutually reinforcing Pillars” (BIS Implementation of Basel II: Practical Considerations, 2004). Chart 1 summarizes the 3 Pillars framework. Chart 1 Overview of the Basel 2 Framework (ECB Occasional paper No. 42, 2005) The dark boxes refer to the components that have been introduced or to which there are major changes as a result of new rules, while the bright boxes refer to the unchanged components. Thus, while Basel 1 covered only Minimum Capital Requirements, the new Capital Accords are based on three pillars: Minimum Capital Requirements (Pillar 1), Supervisory Review Process (Pillar 2) and Market Discipline (Pillar 3). With regards to Capital Requirements, the definitions of capital remains unchanged, that is Core Capital (Tier 1) and Supplementary Capital (Tier 2). Minimum Capital Ratio (Capital divided on RiskWeighted Assets) is also unaffected and stands at 8%. However risk categories were added to the Operational risk. (ECB, December 2005). The new formula for calculating minimum capital requirements is now as follows: Chart 2 Formula of minimum capital requirements Erreur Eligible capital ! =8% ON-BALANCE-SHEET CREDIT RISK + Off-balance-sheet credit risk + Market risk + OPERATIONAL RISK (BIS, Freeland C., Basel 2 Update, 2004) Capital letters from this formula indicate elements that have been changed in the new framework. On-Balance Sheet Credit Risk was modified and now for both Credit 274 Risk and Operational Risk there are different approaches from Standardized to Advanced for calculating Risk-Weighted assets. This paper will be focused on OnBalance Sheet Credit Risk (as part of Pillar 1) explaining the key elements there. B. Credit risk Credit risk could be generally defined as default risk, in other words it is risk of losses from borrower/counterparty’s failure to repay for his obligations on time (Stephanou C. & Mendoza JC., 2005). Initially Basel Capital Accords (1988) were issued in order to protect banks and their counterparties from credit risk, thus minimum capital requirements for Banks were introduced determining the amount of capital banks should hold and therefore establishing the minimum Capital Ratio of 8%. Current Basel Accord (updated in 1998) and The New Basel Accord (Basel 2) include other categories of Risk, as mentioned above, however Credit Risk remains to be of great importance for banks. Basel 2 introduces more risk sensitive and therefore more sophisticated approaches for calculating capital requirements for Credit Risk. Basel 2 determines two different methodologies. First is the standardized Approach which “will be to measure credit risk in a standardized manner, supported by external credit assessments” and second is the Advanced Approach, “which is subject to the explicit approval of the bank’s supervisor, would allow banks to use their internal rating system” (paragraphs 24, 25 The New Basel Capital Accord, 2003). 1. Standardized approach The Standardized approach is similar to the current Accord rules. “The main changes compare to Basel 1 relate to the use of external credit ratings as the basis for determining the risk weights and the greater differentiation in the possible risk weights” (ECB, Occasional Paper, 2005). Chart 3 summarizes risk weights corresponding to credit ratings and types of counterparties. Banks can use credit ratings only from approved Rating Agencies or External Credit Assessment Institutions (ECAIs) as defined by the New Framework. Chart 3 Standardized approach Risk-Weights 275 (Stephanou C. & Mendoza JC., Credit Risk Measurement Under Basel II: An Overview and Implementation Issues for Developing Countries, 2005) Once risk weights are determined in accordance with the Basel 2 rules which are summarized above, Risk-Weighted Assets are calculated by multiplying those risk weights by value of corresponding assets. Then using the Risk-Weighted Assets the bank can determine the Capital Charge which will be equal to Risk-Weighted Assets multiplied by 8%. 2. Internal Ratings-Based (IRB) approaches The IRB approach for calculating Credit Risk is one of the most innovative aspects of the Basel 2 Accord. It differs substantially from the standardized approach as it allows banks themselves to estimate key elements in the calculation of their capital requirements. These elements are: 1) PD – the probability of default of counterparty over one-year horizon. 2) EAD – Exposure at Default (an amount not a percentage) 3) LGD – Loss Given Default (or 1 – recovery) Recovery are usually recognized as collateral. 4) M – Maturity Chart 4 depicts of how this components are used in order to estimate Risk Weighted Assets. Capital Charge can be thereafter found as 8% multiplied by RWA Chart 4 Estimation of Risk Weighted Assets In the IRB approach (the same as in the Standardized approach) all banking books should be categorized into broad asset classes using specific definitions provided by the New Framework. For each of these classes the above described key elements should be estimated and formula for calculating RWA should be used. For example for Corporate, Sovereign and Bank exposures, Basel accord identifies the following formulas112: 112 Explanations of each component in these formulas are beyond the scope of this paper. However the description of the formula can be found in An Explanatory note on the Basel 2 IRB Risk-Weight Functions, BIS 2005 276 (Stephanou C. & Mendoza JC. Credit Risk Measurement Under Basel II: An Overview and Implementation Issues for Developing Countries, 2005) Once risk-Weighted Assets are calculated, it is easy to find capital charge using the following formula: 3. Differences in Capital Charge It was described in the previous sections how capital charges are calculated in two different methods: Standardized and IRB approach. Chart 5 depicts differences in Capital Charge (%) for corporate borrowers with different credit ratings/PD using these different methods – Standardized and IRB. The chart also has the Basel 1 framework where there was no credit ratings components, but only 8% Capital Charge for all Assets (Risk Weights were differentiated only by Assets Classes). Chart 5 Differences in Capital Charge (Stephanou C. & Mendoza JC., Credit Risk Measurement Under Basel II: An Overview and Implementation Issues for Developing Countries, 2005) 277 From this chart it could be seen how sensitive the IRB approach is. Using this approach Corporates with high ratings are expected to benefit from Basel 2, while low rating borrowers will be significantly penalized. In this case the Standardized approach is closer to the current framework. 4. Foundation and Advanced IRB approaches Basel 2 distinguishes between two different methods in the Internal Rating-Based approach: 1. – Foundation IRB approach and 2. – Advanced IRB approach. The main differences between them are the key elements for which a bank can use its own estimates. Both approaches allow banks themselves to estimate the Probability of Default (PD), while a bank’s internal estimates of other risk components such as Loss Given Default, Exposure at Default and Maturity can only be applied in the Advanced approach. Chart 6 summarizes risk components under two approaches for Corporate, Sovereign and Bank exposure113. It shows which of the 5 components banks are allowed to estimate themselves under these approaches. Chart 6 Foundation and Advanced IRB approaches (risk components estimation) Roberts E. FSI, The New Capital Adequacy Framework – Basel 2, 2004 113 Appendix 1 shows overall differences of estimating key components (PD, LGD, EAD, M and Correlation) in Advanced IRB, Foundation IRB, Standardized approach and 1988 Accord. 278 Probability of default (PD) PD is the parameter which banks should estimate by themselves under both Foundation IRB and Advanced IRB approaches. The measurement of PD presupposes the use of definition of default that usually varies from country to country as well as it across financial institutions114. Basel 2 denotes the definition of default in order to facilitate comparability of capital results. So in the Basel 2 Framework default has occurred when either one or both of the two following events have taken place: 1. “The bank considers that the obligator is unlikely to pay its credit obligations to the banking group in full”; 2. “The obligator is past due more than 90 days on any material credit obligation to the banking group” (paragraph 414 The New Basel Capital Accord, 2003). banks which meet certain minimum requirements (for Advanced IRB approach) can use their own estimates of exposure (paragraph 286 The New Basel Capital Accord, 2003). As for calculating PD, there are two broad approaches: empirical and market-based models. The former uses historical data for identifying the PD (Appendix 2) while the latter uses counterparty market data (e.g. bond or credit default swap spreads, volatility of the equity market value) to infer the likelihood of default (Stephanou C. & Mendoza JC., Credit Risk Measurement Under Basel II: An Overview and Implementation Issues for Developing Countries, 2005). Eligible financial collateral Receivables CRE/RRE Other Collateral Exposure at Default (EAD) EAD refers to the outstanding amount at the time of default. Under Foundation IRB approach type of instrument (for example Credit Conversion Factor (CCF) for offbalance-sheet items) are the same as for Standardized approach. The exposure is not subject to CCF provides 100% EAD under the foundation approach, while 114 The practical examples and problems with default definitions will be described in sections below. Loss Given Default (LGD) LGD is the percentage of the EAD that is lost in the event of a default. Under the foundation IRB approach, different LGD for different types of loans are determined under the Basel 2 framework, such as unsecured senior and subordinate claims on corporate, sovereign and banks account 45% and 75% respectively. While fore secured loans LGD determines in accordance to their collateral and summarized below: Minimum LGD 0% 35% 35% 40% “While the remaining part of the exposure is regarded as unsecured and receives an LGD of 45%” (paragraphs 255-264, The New Basel Capital Accord, 2003). Banks that meet certain requirement to use Advanced IRB approach can use their own internal estimates of LGD and it must be measured as a percentage of the exposure at default (The New Basel Capital Accord, 2003). Maturity For banks using the Foundation IRB approach for corporate exposure, effective maturity will be 2.5 years except for repostyle transactions where it is 6 months. As for Advanced IRB approach, banks should measure effective maturity for each facility in accordance to guidelines provided by 279 the Accord (paragraphs 288-295, The New Capital Accord, 2003). C. Implementation issue border consideration) (cross Basel 2 outlines the approaches explained above, however the fact that countries may apply them differently raises the home/host issue. According to the High Level Principles of The Cross Border Implementation of New Accord “the home country supervisor is responsible for the oversight of the implementation of the New Accord for a banking group on a consolidated basis” (Principle 2, BIS 2003), while “Host country supervisors, particularly where banks operate in subsidiary form, have requirements that need to be understood and recognized” (Principle 3, BIS 2003). Thus, “banks operating in subsidiary form must satisfy the supervisory and legal requirements of the host jurisdiction” (paragraph 10, principle 3 BIS 2003). This means that globally operated banking group will apply credit risk models with accordance to jurisdiction of different countries. Take for example HSBC Banking Group, which operates, in more then 90 countries around the world. Implementation of Basel 2 is much more complicated for HSBC as they have to comply with all different jurisdictions where they operate, bearing additional costs, thus their “internal estimate Group-wide total expenses of implementing Basel 2 is US $250 million” (DRAFT Speech by Mr Warner Manning, January 2006). One of the examples of implementation schemes that HSBC might face is shown in the Chart 7. Chart 7 Globally operated banking group Roberts E. FSI, The New Capital Adequacy Framework – Basel 2, 2004 HSBC, as a globally operated bank, will face lots of obstacles with different countries’ jurisdictions and delays with implementations (such as emerging markets). However the 280 situation around implementation Basel 2 in the US remains to be the most important issue for them because of their significant presence there. The percentage of HSBC US assets accounted nearly 30% of all Banking Group assets (Chart 8). Chart 8 European banking groups with a significant presence in the US (ECB, Occasional paper No.42, 2005) As it could be seen from the graph, HSBC is on the first place among European Banks for percentage in the US market. However other banks such as ABN Amro, Deutsche Bank, RBS etc. also have a solid share of the US assets. There are also lots of US banks that have significant market share in Europe. The announcement of a US delay of implementation the Basel 2 accord and certain features such as adopting only Advanced IRB approach make international banks become more concerned about their implementation strategy. Thus the next part of this paper is examining the situation around the US in particular. II. US implementation of Basel 2 and challenges for international banks A. US implementation Framework The US approach for implementation of Basel 2 seems to be the most complicated. T a certain extent differs from other countries’ approaches towards implementing Basel 2. Chart 9 summarizes the US implementation framework and its differences from EU/UK approach. 281 Chart 9 US implementation of Basel 2 with comparisons to UK/EU Basel 2 UK and Europe Basel 2 US Banking regulators US Treasury Agencies (commercial banks) SEC (securities firms, broker-dealers) FED Board of Governors FDIC Federal Deposit Insurance Corporation OCC Office of the Comptroller of the Currency FSA/European regulators OTS Office of Thrift Supervision Implementing rules CSE rules (Consolidated Supervised Entity) Basel 1A Basel 2 (Advanced notice of proposed rulemaking,2003) (Notice of proposed rulemaking, March 2006) Basel 1 CRD Basel 2 Timetables Current From January 2006 Current Presumably January 2009 1. Regulatory systems Due to historical reasons there are different regulators in the US for securities firms the (investment banks and broker-dealers) and credit institutions. Thus the Securities and Exchange Commission (SEC) implemented Consolidated Supervised Entity (CSE) rules for securities firms which are similar to Basel 2 and which were implemented as response to the EU’s Financial Group Directive (Matthew Sullivan, Effective Dates for Basel IIrelated Regulations in the US and UK, January 2009 Advanced IRB approach (parallel running from January 2008) Current January 2007 Standardized and Foundation IRB approach January 2008 Advanced IRB approach (parallel running from January 2007) 2005). While Treasury agencies (FED, FDIC, OCC and OTS), which are responsible for regulation of commercial banking activity will implement Basel 2. By contrast in most European Union countries there are no such differences among banking regulatory responsibilities and for instance in the UK Financial Service Authority (FSA) is responsible to regulate both commercial banks and securities firms. 282 2. The Basel 2 Implementation Under the Basel 2 regime US banks will be allowed to apply only the “advanced approach”, that is Advanced Internal Rating Based (A-IRB) approach for credit risk calculation and Advanced Management Approach (AMA) for operational risk. Only such US banks which have “consolidated assets over $ 250 billion and foreign exposure of at least $10 billion), including subsidiaries of foreign banks” will be required to implement the advanced Occasional Paper rules (ECB, No.42/December 2005). Other US Banks that meet the infrastructure requirement of using advised approach will be allowed to opt into Basel 2. It is now expected that only 24 Americans banks will apply for Basel 2 advanced approach rules (US Comptroller, March 9 2006, http://www.globalriskregulator.com/grrne ws15.htm). Other banks (approximately 6,500) will remain under Basel 1 approach that is going to be revised for a more risk sensitive regime called Basel 1A (ECB, Occasional Paper No.42/December 2005). As for the rest implementing Basel 2 countries, the whole spectrum of approaches will be available for calculating credit and operational risk. In Europe Basel 2 will be implemented through CRD in 2007. 3. Timetable The US Treasury Agencies announce on 30 September 2005 that they will delay the implementation of Basel 2 by one year. The decision was based on the results of the Fourth Quantitative Impact Study (QIS4). This survey was held among 28 US banks and showed that as an effect of Basel 2 there would be a huge decline in required capital for big banks that will give them a competitive advantage over small ones. Hence, in the US Basel 2 (Advanced IRB for credit risk) will be implemented from January 2009 with one year parallel running from 2008. Basel 1A is considered to be implemented from the same time. While in Europe and UK the new framework will be implemented from 2007 through CRD (Standardized and Foundation IRB for credit risk) with one year parallel running in 2006. Then Basel 2 will be implemented from 2008 (adding Advanced IRB approach to the framework) and also with one year parallel running before. B. Key challenges in Implementation with regards to credit risk (cross-border consideration) The differences of Basel 2 interpretation in US and Europe lead to certain challenges especially for globally operated banking groups. 1. US implementation Advanced IRB of As it was covered in the previous section US banks will adopt only Advanced IRB approach under Basel 2 for approximately 24 banks and the rest will stay under the Basel 1 framework – Basel 1A. While the other implementing countries will be having a choice from the whole spectrum of approaches available under Basel 2. The survey conducted by KPMG in 2003 among 303 institutions in 39 countries reveals that 27% of interviewed banks will use Advanced IRB approach in calculating credit risk, 33% - Foundation IRB and 35% - Standardized approach (Chart 10). Chart 10 Implementation of Credit risk approaches 283 (KPMG “Ready for Basel 2 – How prepared are banks?” 2004) This shows that there will be quite a lot of cases where banks will adopt different approaches in US and European countries, preventing them to achieve integrity among the whole group in implementing a new framework. For example if a bank wanted to use Foundation IRB approach for its parent bank outside the US it could have to adopt only Advanced IRB approach for its US subsidiary (for “core” US banks), thus bearing additional cost and difficulties of identifying credit risk models and calculating LGD and EAD. There are lots of other confusing cases depending on the situation. 2. Timetable differences The situation with the timetable will add much more concerns around this issue. Because even if a bank is planning to adopt Advanced IRB approach across all its global operation, it will face the problem of the one year gap with US and other implementing countries, thus bearing additional costs and facing “regulation arbitrage”. Most banks are still unsure about the current situation. For example the head of risk management of one of international bank says: “We have a large US subsidiary and we’re still looking into how this will affect us” (BaselAlert.com, Hann Ho, February 2006). In the situation when for example European subsidiaries of US banks will want to adopt Basel 2 from 2007 or Advanced IRB approach from 2008 (probably because of competitive pressure) the “regulatory arbitrage” does accrue. Because of this, US regulators want their banks that operate outside the US to use a Standardized approach which is as most close to the current framework for this “gap year”. This also will cause additional costs. 3. Different default definitions of Apart from the timetable issue and different approaches that international banks will have to deal with, the practical problems with implementing credit risk models can occur. As described in the previous section, under both Foundation and Advanced IRB approaches banks will have to estimate Probability of Default (PD) by themselves. This element based on default definition is the big challenge for international banks as its definition varies significantly from country to country. Definition of default under the Basel 2 accord was given in section 1.2.4. (Probability of default) of this paper and it defines default after 90 days of borrower’s failure to pay his obligations. Chart 11 compares these conditions for some countries. 284 Chart 11 The definition of default US Basel 2 UK France Germany Italy Credit obligation default 90 days credit obligation default Debt restructuring Bankruptcy (S&P, Aidan O’Mahony, How to Build an Internal Rating System for Basel II, 2006) In the US, treasury agencies in their draft of Notice of Proposed Rulemaking (NPR) issued on 31 March 2006 define the definition of default differently than it is in The New Basel Accord. US NPR distinguishes between wholesale and retail portfolios. For the wholesale portfolio definition of default is similar with Basel Accord’s (90 days), while for retail it defines as follows: “revolving retail exposures and residential mortgages would be in default at 180 days past due; other retail exposures would be in default at 120 days past due. In addition, a retail exposure would be in default if the bank has taken a full or partial charge-off or write-down of principal on the exposure for credit-related reasons” (page 111, FED, FDIC, OCC, OTS Draft Basel 2 NPR, March 2006). As a result of different default definitions, discrepancies may occur when an international bank structures the credit risk models. 4. Challenges in data collection Another practical challenge that banks could face on the way of building their credit risk models is data collection. “Availability of the data has a direct impact of how well banks can model their risk”(Basel 2 special report, http://www.gtnews.com/feature/84.cfm, 2004). Whether banks use Foundation or Advanced IRB they should estimate Probability of Default (PD) element by themselves. Thus using PD empirical models banks should collect credit risk data for 3 year periods. Appendix 2 shows the data which banks have to collect. For those banks which will choose Advanced IRB approach the challenge is even grater as they have to use their own models for estimating LGD, EAD and M (section 1.2.4. in this paper), thus collecting more sophisticated data. For globally operating banks credit risk modeling is a great challenge because they have to conform to the rules of different jurisdictions, adopting its credit risk models accordingly and gathering different information for building their models. III. Critical review Different challenges that are identified in this paper and many others which are beyond the scope of this paper raise serious obstacles on the way of implementation of 285 The New Capital Adequacy framework across the globe. It is clear that for effective implementation of Basel 2 consolidated efforts should be made. First of all the challenges should be addressed by banks themselves in order to consolidate their global operation, find the compromise in deferent jurisdictions pursuing the common goal of efficiency within the whole banking group. However for banks it is almost impossible to overcome these obstacles without help of regulators. Several steps have already been made by some regulators. For example with regards to differences in timetable and approaches in the US and the UK, the Financial Services Authority issued Use of non-EEA regulators’ requirements in group capital calculations. FSA underlines options available for the global operating banks, which it tries to make as flexible as possible in order to enhance effectiveness of Basel 2 implementation in the UK through CRD in 2007. The options cover costs, issue of “advanced approach” and technical guidelines for waivers application. The FSA states that a “UK firm that is part of a US banking group can apply to use advanced approach in the UK, even though its home regulator will not have approved those approaches” (FSA, Use of non-EEA regulators’ requirements in group capital calculations, 7th December 2005). Also, the Basel Committee on Banking Supervision (BCBS) is doing lots of work in order to enhance the implementation process. It has been issuing relevant papers, such as “Home-host information sharing for effective Basel 2 implementation”, which draws an outline and gives examples of the information that supervisors might need for effective Basel 2 implementation. The great effort of BCBS is to establish working groups which deal with particular issues. Thus Accord Implementation Group (AIG) was established 4 years ago and it is dealing with banks implementation issues on a case by case basis. According to its chairmen Nicholas Le Pan AIG is operating efficiently, solving problems and enhancing the implementation process for international banks (Nicholas Le Pan speech, implementation of Basel 2, November 2005). In spite of all good efforts of enhancing the Basel 2 implementation process, there are still lots of uncertainties and needs for improvement. Thus a more consolidated efforts should be done in the future. Conclusion This paper focused on credit risk approaches for calculating minimum capital requirements under this category of risk. The paper has argued that advanced IRB approach is only one option available in US under Basel 2 framework. From this basis logically followed the main challenges for globally operated banking groups. 1. Uncertainty for international banks about the approaches that they have to adopt for their Banking Group, as in US it is certain restriction to use other than Advanced IRB approach under Basel 2 framework, or Basel 1A, while in the rest of implementing Basel 2 countries the whole spectrum of approaches are available. 2. Differences in timetable for implementing new framework add more concern in this area, as even if a bank chooses to implement Advanced IRB approach for the whole banking group, it will be unable to do so at once. 3. Practical issues of calculating key elements under advanced IRB approach raise worries of different default definition, as in US the definition is not the same as in Basel Accord which could effect 286 the Global Banking Group credit models. capital framework, Basel Committee on Banking Supervision, Basel 4. Finally data for building efficient credit models is not always available especially if banks are using Advanced IRB approach. BIS Bank of International Settlements (2005) Home-host information sharing for effective Basel 2 implementation Basel Committee on Banking Supervision, Basel In conclusion, this paper reached an initial aim of identifying key challenges in the examined area. It was summed up in the critical review section that despite of certain policies have been carried out by the regulatory authorities to enhance effective implementation of Basel 2. There is still plenty of work still to be done. BIS, presentation by Freeland C (2004), Basel 2 Update, Basel Committee on Banking Supervision, Basel Bibliography Basel Alert (December 2005) US Tackles home-host issues caused by Basel 2 delay, baselalert.com BIS Bank of International Settlements (2003) High-level principles for crossborder implementation of the New Accord Basel Committee on Banking Supervision, Basel BIS Bank of International Settlements (2003) The New Basel Capital Accord, Basel Committee on Banking Supervision, Basel BIS Bank of International Settlements (2004) Implementation of Basel II: Practical Considerations, Basel Committee on Banking Supervision, Basel BIS Bank of International Settlements (2004) presentation by Roberts E. FSI, The New Capital Adequacy Framework – Basel 2, Basel Committee on Banking Supervision, Basel BIS Bank of International Settlements (2005) An Explanatory note on the Basel 2 IRB Risk-Weight Functions, Basel Committee on Banking Supervision, Basel BIS Bank of International Settlements (2005) Basel II: Revised international Bouton M (March 2006) Capital accord or capital discord? www.thebanker.com Corporation (FDIC), and the Office of Thrift Supervision (OTS) (March 2006) Draft Basel 2 Notice of Proposed Rulemaking Dierick F, Pires F, Scheicher M and Spitzer KG (December 2005) The New Basel Capital Framework and its implementation in the European Union, European Central Bank occasional paper No.42 Eldon D (2005) Basel 2 Back to Future, HKMA Seventh Distinguished Lecture, discussant comments, online FSA Use of non-EEA regulators’ requirements in group capital calculations, 7th December2005 GT News (2004) Basel 2 Special report http://www.gtnews.com/feature/84.cfm GT News Gnevko S & Nostrum A (March 2006) Comparison of Global Approach to Basel II http://www.gtnews.com/article/6301.cfm Hann Ho (February 2006) Timetable Chaos, Basel Alert http://www.baselalert.com/public/showPag e.html?page=317557 HSBC North America Holdings Inc. (2006) Basel 1A ANPR – Comment Letter KPMG Financial service (2004) Basel 2: A worldwide Challenge for the Banking Business 287 KPMG Financial service, survey (2004) Ready for Basel 2 – how prepared are banks Manning W, (January 2006) Risk management Forum Speech DRAFT, online Pan N Chairman of Basel Accord Implementation Group speech (2005) Implementation of Basel II S&P presentation by O’Mahony A (2006) How to Build an Internal Rating System for Basel II Schuermann T Federal Reserve Bank of New York (2204) What Do we know about default JEL Codes: G21, G28 Stephanou C. & Mendoza JC., (2005) Credit Risk Measurement Under Basel II: An Overview and Implementation Issues for Developing Countries, World Bank Policy Research Working Paper 3556 Sullivan M (2005), Effective Dates for Basel II-related Regulations in the US and UK, http://www.kanbay.com/executive_connecti ons14.asp US Comptroller (2006) Strengthening global capital rules important for all banks, Global Risk Regulator http://www.globalriskregulator.com/grrne ws15.htm 288 Appendix 1 Risk components under different approaches (BIS, Roberts E. FSI, The New Capital Adequacy Framework – Basel 2, 2004) 289 Appendix 2 Typical Factors Used in Building Empirical PD Models (Stephanou C. & Mendoza JC., Credit Risk Measurement Under Basel II: An Overview and Implementation Issues for Developing Countries, 2005) 290 INFLUENCE DU MARCHÉ ET DE LA CLIENTÈLE DESSERVIS SUR LES FACTEURS DE CROISSANCE DES PME MANUFACTURIÈRESΨ Josée ST-PIERRE, Frank JANSSEN, Pierre-André JULIEN et Catherine THERRIEN Biographie des auteurs Josée St-Pierre est professeure de finance à l’Université du Québec à Trois-Rivières, Titulaire de la Chaire J.A.Bombardier sur les relations interentreprises et la gestion du risque; ses recherches portent sur les déterminants de la performance et de la vulnérabilité des PME, sur le financement des sociétés fermées, ainsi que sur les éléments créateurs et destructeurs de valeur. Frank Janssen est professeur d'entrepreneuriat à l'Institut d'administration et de gestion de l'Université catholique de Louvain (Belgique), Titulaire de la Chaire Brederode en développement de l'esprit d'entreprise; ses recherches portent sur la croissance des PME, la pédagogie entrepreneuriale et l'entrepreneuriat social. Pierre-André Julien est professeur d’économie à l’Université du Québec à Trois-Rivières, Titulaire de la Chaire Bell pour des PME de classe mondiale; ses recherches portent sur l’innovation, la veille stratégique et le réseautage. Catherine Therrien est professionnelle de recherche à l’Institut de recherche sur les PME; elle participe aux recherches sur la performance, le risque et le développement des PME. La croissance des PME est un sujet de recherche qui a entraîné un grand nombre de travaux depuis plusieurs années étant donné, surtout, l’importance de ce phénomène sur la création d’emplois et le dynamisme économique. Or, malgré cet intérêt, il semble qu’on comprenne encore mal les déterminants de la croissance et les conditions dans lesquelles une augmentation de l’activité peut se réaliser efficacement, si l’on en juge par la diversité des résultats et l’incohérence parfois de certaines conclusions. Les PME sont très hétérogènes et leur croissance peut s’expliquer par des objectifs stratégiques fort différents. C’est ce que nous explorons dans cette étude où nous mettons en évidence que les entreprises qui desservent un marché local ou international, ou qui ont une clientèle concentrée plutôt que diversifiée, ont une organisation différente et ne font pas appel aux mêmes pratiques d’affaires. Ces résultats suggèrent ainsi que les déterminants de la croissance dépendent directement de l’orientation stratégique de marché et de clientèle de l’entreprise. Ψ Les auteurs aimeraient remercier le Programme des chaires de recherche du Canada et la Fondation J.Armand Bombardier qui ont contribué au financement de cette recherche, ainsi que Développement économique Canada et la Fondation canadienne pour l’innovation qui ont contribué à la création de la base de données utilisée. Des remerciements sont aussi adressés à Martin Morin pour le travail statistique et aux deux évaluateurs anonymes qui, par leurs commentaires judicieux, ont permis d’enrichir cette étude. 291 Introduction Dans le vaste domaine d’étude que constitue l’entrepreneuriat, une large part des recherches réalisées ont tenté de comprendre le phénomène de la croissance des entreprises. En effet, de nombreux chercheurs ont voulu identifier les particularités des PME en croissance, notamment dans le but de mieux cerner le processus et ses conséquences, de mettre en évidence certaines caractéristiques révélant le potentiel de croissance des PME ou de déterminer les variables tant endogènes qu’exogènes qui permettraient de choisir ex-ante les grandes entreprises de demain. Pour Gibb et Davies (1990), il est illusoire de penser qu’il serait possible de détecter les entreprises ayant le meilleur potentiel de croissance ou de produire un modèle théorique complet devant mener à cette identification; une entreprise en croissance type n’existe pas (OCDE, 2002). Toutefois, il reste possible de progresser vers une meilleure compréhension des facteurs influençant le processus de croissance et, partant, de mieux assister les agents économiques qui cherchent à améliorer leur soutien au développement des entreprises. Une intervention demande une compréhension très large et non étroite des facteurs susceptibles de stimuler le croissance et ceux pouvant la contraindre. C’est donc vers une meilleure compréhension de ce processus que la recherche devrait être orientée afin d’améliorer l’efficacité des politiques et diverses mesures d’aide (OCDE, 2002). Les études qui ont tenté de comprendre le processus de croissance peuvent être classées selon quatre approches principales (Gibb et Davies, 1990). Il y a d’abord les approches liées au propriétaire-dirigeant. Par exemple, certaines études ont lié la croissance aux caractéristiques du dirigeant (Woywode et Lessat, 2001; Delmar, 1997), à son éducation et son type de formation (Woywode et Lessat, 2001; Julien, 2000), de même qu’à son expérience et ses compétences (Littunen et Tohmo, 2003; Julien, 2000). On retrouve ensuite les approches du développement organisationnel qui sont surtout théoriques et qui cherchent à expliquer la croissance à partir de divers modèles de stades de développement. On peut classer dans ces approches les études portant sur les objectifs personnels du propriétaire-dirigeant (OCDE, 2002; Julien, 2000; Kolvereid, 1992), les divers modèles illustrant les stades de croissance des entreprises (Mitra et Pingali, 1999; Churchill et Lewis, 1983) et les recherches traitant de l’influence des réseaux (Littunen et Tohmo, 2003; OCDE, 2002; Mustar, 2001; Julien, 2000). Les approches centrées sur la gestion de l’entreprise constituent une troisième classe. Elles regroupent, entres autres, les travaux portant sur l’impact de la disponibilité des ressources (Becchetti et Trovato, 2002; Mustar, 2001; Julien, 2000) et l’influence de la planification opérationnelle et stratégique (Julien, 2000) sur la croissance de l’entreprise. Il y a aussi un intérêt grandissant pour des sujets tels que l’impact des orientations stratégiques du dirigeant (Littunen et Tohmo, 2003; OCDE, 2002; Calvo et Lorenzo, 2001; Mustar, 2001; Woywode et Lessat, 2001; Julien, 2000) et du niveau de flexibilité de l’entreprise (Julien, 2000) sur la croissance. Enfin, on retrouve les approches sectorielles et orientées vers le marché. Certaines études relevant de ces approches portent sur les contraintes et les problèmes liés à la croissance pour un secteur en particulier ou étudient l’impact de la structure de l’industrie sur la croissance des PME (Calvo et Lorenzo, 2001; Woywode et Lessat, 2001; Almus et Nerlinger, 1999). D’autres ont tenté d’identifier le potentiel de croissance associé à différents types d’entreprise en différenciant, par exemple, les artisans opérant sur certains marchés limités, les 292 sous-traitants dépendant de leur donneur d’ordres et les petites entreprises flexibles (Delmar, Davidsson et Gartner, 2003; Littunen et Tohmo, 2003). Il existe des chevauchements évidents entre ces approches et l’étude d’un seul facteur ou l’utilisation d’une approche unique peut devenir rapidement réductrice et limiter la compréhension du phénomène de la croissance (Gibb et Davies, 1990). En conséquence, la présente recherche tentera de tenir compte de ces quatre approches afin de mieux cerner les caractéristiques des entreprises qui ont connu une croissance significative de leur volume d’activités. L’objectif de cette étude sera de tracer le profil des PME manufacturières qui ont connu une croissance soutenue dans les cinq dernières années en analysant le propriétaire-dirigeant, les caractéristiques et ressources de l’entreprise ainsi que certaines variables stratégiques (approches 1 à 3) en fonction de l’orientation de marché ou de clientèle de ces entreprises (approche 4) et ce, de façon indépendante. Notre recherche s’inscrit dans la suite des travaux de Delmar, Davidsson et Gartner (2003) qui ont démontré que la croissance peut être réalisée de différentes façons. Si les entreprises croissent selon des manières distinctes, nous pouvons supposer que chacune de ces façons a ses propres caractéristiques (Delmar, Davidsson et Gartner, 2003). Aucune relation causale entre ces caractéristiques et le taux de croissance des entreprises ne sera toutefois établie. Par contre, nos observations sur les caractéristiques de même que sur les ressources et pratiques mises en place par ces PME au profil différent qui ont su croître à leur façon pourront orienter certaines politiques économiques de soutien adaptées aux entreprises. relevées dans la littérature de même que les différentes orientations de marchés et de clientèles que nous avons choisi d’explorer. Nous exposerons par la suite la méthodologie privilégiée pour vérifier l’hypothèse de recherche. Enfin, nous analyserons les résultats obtenus et conclurons avec quelques avenues de recherche. I. Les caractéristiques de la direction des PME et la croissance La croissance est un phénomène qui présente certains risques et qui bouleverse les activités quotidiennes de l’entreprise. Produire régulièrement un volume d’unités supérieur pour vendre à une clientèle plus importante ou plus exigeante demandera à l’entreprise une organisation flexible qui peut s’ajuster rapidement aux tensions suscitées par ces bouleversements fréquents. On aura ainsi besoin d’investir dans les équipements et la structure de production, de mettre à jour les compétences du personnel et de s’assurer continuellement de leur appui et de leur motivation, de trouver des ressources financières en quantité suffisante, etc. (Mustar, 2001). De plus, à cause des risques et des changements organisationnels induits par la croissance, cette situation ne pourra généralement se réaliser sans le consentement du propriétaire-dirigeant qui devra l’endosser totalement. Il est reconnu dans la littérature en entrepreneuriat que le développement de l’entreprise ne peut se faire sans son dirigeant, l’entreprise étant souvent considérée comme le prolongement de sa personnalité (LeCornu, McMahon et Forsaith, 1996). Dans ces conditions, il est essentiel de considérer l’influence du capital humain du dirigeant et de ses objectifs personnels sur la stratégie de croissance de son entreprise. Dans les sections qui suivent, nous présenterons d’abord les principaux facteurs liés à la croissance des activités 293 A. Capital humain du propriétairedirigeant Pour Woywode et Lessat (2001), le capital humain peut se résumer à l’âge du dirigeant, sa formation, son expérience ainsi que sa capacité à partager les défis sinon son enthousiasme. Le jeune propriétaire-dirigeant est plus susceptible de poursuivre une stratégie de croissance que celui qui est plus âgé, l’âge étant généralement associé à un comportement plus conservateur (Hambrick et Mason, 1984). Un dirigeant plus âgé est en principe moins enclin à adopter un comportement novateur ou à adhérer à une idée nouvelle, étant plutôt attaché à un certain statu quo organisationnel. Plusieurs études observent effectivement un impact négatif de l’âge du dirigeant ou de l’âge moyen de l’équipe de dirigeants sur la croissance de l’entreprise (Woywode et Lessat, 2001; Delmar, 1997). D’autres recherches constatent que le niveau d’éducation du dirigeant a un impact positif sur la croissance (Woywode et Lessat, 2001; Julien, 2000) alors que le lien entre le type de formation et l’activité de l’entreprise s’est avéré significatif dans certaines études. St-Pierre et Mathieu (2003) montrent que les dirigeants ayant une formation technique sont plus souvent à la tête des entreprises manufacturières qui affichent les plus hauts taux de croissance et d’innovation, ce qui est confirmé par Almus et Nerlinger (1999) sur un échantillon de nouvelles entreprises de haute technologie. Leurs connaissances du domaine permettent à ses dirigeants de mieux connaître les besoins et défis de l’entreprise ainsi que les difficultés du secteur et de gérer adéquatement les risques liés au développement de leur organisation. En complément au domaine de formation du propriétaire-dirigeant, son expérience sectorielle peut aussi être un facteur réducteur d’incertitude grâce à une bonne connaissance du marché, des technologies requises et des facteurs de risque pouvant nuire au développement de l’entreprise (Woywode et Lessat, 2001). La croissance ne repose toutefois pas seulement sur le dirigeant; les affaires-clés de l’entreprise sont souvent gérées par un groupe de personnes (Littunen et Tohmo, 2003). En conséquence, il faudrait aussi tenir compte de l’éducation et de l’expérience des personnes composant l’équipe de direction. Cette variété de disciplines et d’expériences apportée par les cadres est un facteur important dans la croissance de l’entreprise puisqu’elle vient compléter les compétences du dirigeant d’une part et assure, d’autre part, une pluralité de connaissances et de vécus utiles à la gestion de situations nouvelles. B. Objectifs personnels propriétaire-dirigeant du Outre son capital humain, les aspirations du propriétaire-dirigeant et ses objectifs personnels auront également une influence sur le développement de son entreprise. Comme le souligne Kolvereid (1992), si la décision de créer une entreprise relève du choix du fondateur, on peut supposer que la décision de croître est aussi son choix, sauf peut-être en contexte de dépendance commerciale où les projets de développement peuvent être imposés par un donneur d’ordres (St-Pierre et Raymond, 2003). Dans la mesure où la volonté d’autonomie est un des principaux objectifs de nombreux dirigeants d’entreprises, la survie sera fréquemment préférée à la croissance puisque cette dernière peut être synonyme de risque et de dilution de la propriété. En outre, la croissance implique une certaine délégation de pouvoirs et une modification du processus décisionnel. LeCornu et al. (1996), dans le cadre d’une étude exploratoire sur les fonctions-objectifs de PME du sud de l’Australie, observent que les dirigeants de ces entreprises ne 294 recherchent et ne planifient une certaine croissance que dans la mesure où celle-ci n’entre pas en conflit avec leurs autres objectifs, tels que l’indépendance, la pérennité de l’entreprise, l’autofinancement ou le maintien d’un niveau faible d’endettement. Ces deux derniers objectifs ne sont d’ailleurs qu’une expression financière de la volonté d’autonomie. On pourrait alors considérer que le propriétaire-dirigeant qui est prêt à céder une partie du contrôle de son entreprise à d’autres actionnaires est plus susceptible de privilégier une stratégie de croissance (St-Pierre et Mathieu, 2003). II. Les dimensions de l’entreprise liées à la croissance Parce que la croissance est associée à une certaine instabilité de l’entreprise et au désordre occasionné par le changement, elle ne peut être assurée que dans des conditions d’engagement de l’organisation et de flexibilité, bien illustrée par la métaphore du jazz d’improvisation utilisée par Julien (2001). De même, la disponibilité de ressources en quantité et en qualité suffisantes, que celles-ci soient physiques, humaines ou monétaires, devrait faciliter la croissance des entreprises. A. Caractéristiques de l’entreprise Parmi les caractéristiques de l’entreprise ayant un impact sur la croissance, la taille est celle qui a le plus retenu l’attention des chercheurs en raison de son importance pour la détermination de politiques économiques nationales adaptées. De nombreux chercheurs ont conclu à une relation négative entre la taille et la croissance (Davidsson et al., 2002; Almus et Nerlinger, 1999; Delmar, 1997), alors que, plus rarement, certaines études réalisées dans des contextes très variés observent un lien positif entre la taille et la croissance (Roper, 1999; Wijewardena et Tibbits, 1999) ou ne trouvent aucun lien entre ces deux concepts (Delmar, 1999; Wiklund, 1999). Si on ne peut déterminer avec certitude dans quelle direction la taille de l’entreprise affecte sa croissance, on peut tout de même supposer que la taille peut avoir un effet sur la croissance (Delmar, Davidsson et Gartner, 2003). Les diverses études sur la croissance portent sur des populations d’entreprises de tailles très différentes. Les contradictions dans les conclusions des auteurs pourraient alors résulter de différences en termes d’âge au sein des populations étudiées. En effet, les études qui se sont penchées sur le lien entre l’âge des entreprises et leur croissance font apparaître quasi unanimement un lien négatif (Davidsson et al., 2002; OCDE, 2002; Julien, 2000; Almus et Nerlinger, 1999). Les entreprises jeunes sont donc plus susceptibles de croître de manière significative que les entreprises plus âgées ou, à tout le moins, d’adopter des trajectoires de croissance différentes (Delmar et al., 2003; Mustar, 2001; Bramanti, 2001). Il est donc possible que ce soit l’âge, plutôt que la taille, qui exerce une influence significative sur la croissance. À cet effet, Davidsson et al. (2002) ont d’ailleurs montré que, parmi les 21 variables composant leur indice du taux de croissance des entreprises suédoises, l’âge était de loin la variable la plus influente. B. Les ressources de l’entreprise Les PME sont reconnues pour être des entreprises « organiques » qui peuvent s’adapter rapidement à différentes situations, à condition que leurs ressources et leur mode d’organisation le permettent. 1. Les ressources humaines Parce que la croissance rapide oblige l’entreprise à se réorganiser constamment, celle-ci doit compter sur des ressources humaines qualifiées, compétentes, 295 motivées et intéressées à participer à son développement. Tout comme le soulignent St-Pierre et Mathieu (2003) et Mustar (2001), la croissance de la petite et moyenne entreprise, tout comme l’innovation, est un phénomène collectif qui ne saurait se réaliser sans un environnement adéquat. Le personnel de l’entreprise joue alors un rôle majeur que l’on reconnaît d’ailleurs de plus en plus. L’implantation d’une politique de recrutement permettra de sélectionner les meilleurs employés, des activités de formation continues et sur mesure auront pour effet d’accroître leur degré de qualification et un programme de rémunération axé sur les profits ou permettant d’accéder à la propriété pourra assurer la rétention du personnel le plus compétent (St-Pierre et Mathieu, 2003; OCDE, 2002). Concernant la formation continue de l’ensemble du personnel, l’OCDE (2002) souligne qu’il s’agit d’une pratique capitale pour la réussite de l’entreprise. Par ailleurs, les entreprises à forte croissance intéressent et motivent aussi leur personnel par la diffusion de l’information au plus grand nombre d’employés possible, de même que par la participation des employés à la prise de décisions (OCDE, 2002). 2. Les ressources financière Étant donné les difficultés de financement auxquelles font face bon nombre de PME à cause de l’asymétrie de l’information qui caractérise leur environnement, on peut supposer que celles qui subissent un rationnement de crédit de la part des institutions financières pourraient croître à un rythme moindre que les autres (Becchetti et Trovato, 2002). Dans ces conditions, il est à prévoir que les entreprises qui affichent les plus forts taux de croissance sont celles qui sont aptes à auto-financer leur développement grâce à leur rentabilité historique ou à la capacité financière des dirigeants. Ces suppositions ont été confirmées par Mustar (2001) pour le cas des entreprises françaises où les dirigeants ont affirmé que le système bancaire français était incapable de supporter la croissance des PME et que celles-ci devaient céder une partie de leur indépendance pour pouvoir assurer leurs besoins monétaires à partir des ressources externes. III. Stratégies d’adaptation et de flexibilité liées à la croissance : innovation, partenariats, information et technologies Tout comme l’innovation, la croissance exige des PME qu’elles soient relativement flexibles et qu’elles aient les capacités nécessaires pour s’adapter aux turbulences entraînées par ce développement. Parmi les conditions favorisant la croissance, on notera l’importance de l’innovation, des partenariats, notamment avec des sources d’information riche, et du recours aux nouvelles technologies matérielles et immatérielles. A. R-D et Innovation La croissance d’une entreprise est étroitement liée à sa capacité à innover. Plusieurs études montrent que l’innovation stimule la croissance grâce à la possession d’un produit ou d’un avantage distinctif (St-Pierre et Mathieu, 2003; Calvo et Lorenzo, 2001; Julien, 2001). Roper (1997) a trouvé que la croissance des ventes des petites entreprises ayant introduit un produit nouveau ou modifié est beaucoup plus rapide que celles des entreprises non-innovantes. D’autres études observent que l’intensité de la R-D est positivement associée à la croissance (St-Pierre et Mathieu, 2003; OCDE, 2002; Julien, 2000). B. Partenariats et information Dans les entreprises à forte croissance, les alliances et les partenariats jouent un rôle 296 essentiel (OCDE, 2002). Ces collaborations peuvent servir à compléter les ressources de l’entreprise ou à obtenir des informations stratégiques et ainsi réduire l’incertitude dans leur développement. 1. Partenariats pour compléter les ressources Pour pallier à un manque de ressources lié à leur taille réduite, les petites entreprises peuvent s’allier à des partenaires externes. Pour Julien (2000), le développement de partenariats avec des institutions d’enseignement et des centres de recherche stimule la croissance. La croissance sera d’autant plus forte que ce partenariat sera formalisé sous forme d’alliances, de coentreprises ou de consortiums de recherche. De même, les partenariats avec d’autres entreprises sont aussi associés à un taux de croissance plus élevé puisqu’ils permettent de développer des synergies et de répartir les coûts et les risques associés à un projet particulier (Littunen et Tohmo, 2003; Almus et Nerlinger, 1999). Des conseillers externes peuvent également aider les entreprises à résoudre différents problèmes (OCDE, 2002), compenser certaines déficiences managériales du dirigeant ou suppléer à une déficience informationnelle. Plusieurs études constatent que les PME ayant recours à des conseillers externes publics croissent plus rapidement que les entreprises ne faisant pas appel à ces organismes (Julien 2001; Chrisman et McMullan, 2000). 2. Recherche commerciale d’information Quelques auteurs se sont intéressés au lien entre la stratégie de communication externe de l’entreprise et la croissance. Ces études montrent que les entreprises qui ont une forte orientation de marché et qui communiquent régulièrement avec leurs clients seront plus enclines à croître (Julien, 2000). Les entreprises en croissance ont de plus fréquemment recours aux études de marché et aux enquêtes de satisfaction (OCDE, 2002). Selon l’OCDE (2002), le partenariat le plus important est celui constitué par les entreprises à forte croissance avec leurs clients, et dans une moindre mesure celui avec les fournisseurs. Des collaborations avec les clients et les fournisseurs pourront assurer une meilleure connaissance du marché d’une part, accroître la capacité de l’entreprise à les satisfaire correctement d’autre part et finalement réduire l’incertitude commerciale (St-Pierre et Mathieu, 2003). Mustar (2001) observe que, parmi les entreprises françaises en forte croissance, 80% affirment avoir développé des partenariats avec leurs clients. 3. Recherche d’information concurrentielle et stratégique Pour soutenir une croissance importante sur plusieurs années, les entreprises doivent être continuellement mises au fait des réactions des concurrents potentiels. À cet effet, Mustar (2001) observe effectivement que plus des deux tiers des entreprises à forte croissance françaises ont des activités organisées de veille concurrentielle leur permettant d’être au courant des réactions et actions potentielles de leurs concurrents. Ce sont donc des entreprises «averties» qui reconnaissent le besoin d’être tenues au courant et flexibles pour pouvoir s’ajuster rapidement à ces nouvelles informations. En ce sens, l’établissement d’un réseau de relations au travers de la participation à des séminaires ou à des foires, ou de contacts avec d’autres entreprises est également susceptible de stimuler la croissance (Donckels et Lambrechts, 1995). C. Technologies production et systèmes de Le recours à certains systèmes automatisés, à l’intranet et à l’extranet stimulent la 297 croissance grâce à une meilleure utilisation des ressources, une organisation plus efficace de la production et une diffusion plus étendue des informations (St-Pierre et Mathieu, 2003; Julien, 2000). Pour leur part, Calvo et Lorenzo (2001) ont trouvé que l’utilisation des machines-outils à contrôle numérique, de la robotique, de la conception assistée par ordinateur et des nouvelles technologies dans les processus de production est un facteur distinctif des PME à forte croissance. Janssen (2002) constate également que le recours à de nouvelles technologies, en dehors de l’utilisation normale du système informatique, telles que l’intranet, un système de contrôle de gestion ou de contrôle des stocks informatisé, la vente ou la promotion via un site web, a un impact positif sur la croissance. autre dirigeant pourrait être vite insatisfait de cette situation et souhaiter prendre de l’expansion sur des marchés internationaux où les opportunités, de même que les défis, sont plus conformes à ses objectifs. 1. Le marché local La PME qui œuvre strictement sur un marché local s’apparente à ce que Jacob et Ouellet (2001) appellent la PME entrepreneuriale. Elle se développe selon une stratégie de proximité et opère essentiellement dans un marché où l’incertitude est faible et où les besoins sont peu sophistiqués. On pourrait alors s’attendre à y voir un plus faible degré d’innovation et une utilisation moins répandue des meilleures pratiques d’affaires (Jacob et Ouellet, 2001). 2. Le marché international IV. Le type de marché et de clientèle comme source de croissance Selon Littunen et Tohmo (2003), l’orientation de marché choisie par une entreprise influence son parcours et ses opportunités de croissance. En fonction de ses objectifs personnels, un propriétairedirigeant peut faire croître son entreprise sur des marchés éloignés ou de proximité ou avec une clientèle concentrée ou diversifiée. La littérature dédiée spécifiquement à l’influence de ces facteurs sur la croissance des PME étant relativement rare, nous avons dû emprunter à divers domaines les éléments de réflexion que nous présentons ci-après. Cette démarche est tout à fait conforme avec le fait que notre recherche se veut avant tout exploratoire. A. Développement des marchés Une entreprise peut se développer et croître de façon satisfaisante, selon les objectifs de son dirigeant, sur un marché local et dans un environnement où l’incertitude est relativement faible. Un Les ventes à l’étranger présentent plusieurs difficultés que les entreprises ne rencontrent pas sur le plan local. En effet, se développer par l’exportation constitue pour des petites entreprises un saut qualitatif important qui remet en cause nombre de procédures, d’habitudes et de structures qui avaient fait leurs preuves sur le marché strictement local ou national (Léo, 2000). Concernant l’organisation et la production, De Toni et Nassimbeni (2001) soutiennent que pour réussir à l’exportation, les entreprises doivent avoir une structure organisationnelle bien développée et posséder un système de production relativement sophistiqué afin de pouvoir satisfaire aux exigences des importateurs. Du côté statistique, plusieurs études montrent que les PME exportatrices sont plus orientées vers l’innovation accordant plus d’importance au développement de nouveaux produits sur une base continue ainsi qu’à l’amélioration des méthodes de production existantes (Sharmistha, 1999). Ceci est rendu possible grâce entre autres à des investissements significatifs en R-D (St-Pierre, 2003) et à 298 des activités de veille concurrentielle et technologique soutenues. B. Développement de la clientèle Un autre défi pour les PME est celui de développer leur clientèle. Certains dirigeants vont préférer se développer avec un ou quelques clients majeurs en sachant que cette situation est risquée, alors que d’autres vont choisir de réduire ce risque en diversifiant leur clientèle afin de conserver leur autonomie dans leurs décisions et sur leurs choix stratégiques. 1. Une clientèle concentrée Il est bien connu que la concentration de la clientèle est un facteur de risque non négligeable qui place l’entreprise dans une position de dépendance plus ou moins grande face à ses clients. On peut considérer qu’il s’agit d’une stratégie de développement pour certains propriétairesdirigeants qui préfèreraient démarrer leur affaire avec un nombre réduit de clients, se concentrant ainsi davantage sur l’organisation et la maîtrise de la production que sur les autres fonctions de l’entreprise (Wilson et Gorb, 1983). L’investissement dans les technologies de production et l’utilisation de certaines pratiques jugées exemplaires pourraient alors être imposés ou fortement recommandés vu l’environnement complexe dans lequel ces PME évoluent. L’étude de St-Pierre et Raymond (2003) montre d’ailleurs que les investissements dans les technologies de production sont supérieurs chez les PME dépendantes et qu’elles ont un plus fort degré d’immobilisations. En contrepartie, l’entreprise dépendante a des besoins moins importants en ce qui concerne le recrutement, la formation et la gestion d’une force de ventes, ainsi que le développement d’activités de marketing telles que la communication, la promotion et la distribution. 2. Une clientèle diversifiée À l’opposé de la PME dépendante, on aura la PME qui a une clientèle diversifiée et qui doit donc s’organiser pour opérer dans un environnement plus complexe où l’incertitude est plus grande. Ayant moins de contacts privilégiés avec quelques clients, cette entreprise devra mettre en place des activités de veille commerciale et utiliser davantage des pratiques de recherche et de planification marketing (StPierre et Raymond, 2003). En résumé, nous supposons que le profil des PME en croissance varie selon le marché principal qu’elles desservent ou selon la diversité de leur clientèle : H : Les PME en croissance affichent des profils différents selon leur marché ou la diversité de leur clientèle. V. Méthodologie A. Provenance des données description de l’échantillon et Pour vérifier notre hypothèse de recherche, nous avons utilisé la base de données du PDG® qui contient des informations sur plus de 370 PME manufacturières québécoises au profil très varié. On y retrouve plus de 850 variables générales et financières recueillies directement auprès des entreprises par le biais d’un questionnaire de 18 pages que le dirigeant et les responsables fonctionnels complètent et retournent accompagné des états financiers des cinq dernières années. En échange de ces informations, un diagnostic comparatif de la situation générale de leur entreprise est fourni. À partir de cette base de données, nous avons retenu les 280 entreprises en croissance afin de constituer notre échantillon. Celles-ci sont âgées, en moyenne, de 25 ans, embauchent 65 299 employés, réalisent un chiffre d’affaires de 8,61 M$ CDN et ont connu une croissance annuelle de leurs ventes de 21,86% aux cours des cinq dernières années. Le tableau 1 présente quelques-unes des caractéristiques de l’échantillon lorsque celui-ci est scindé selon les deux dimensions qui nous intéressent, soit le marché ou la clientèle. Pour les fins de la présente étude, la PME locale est celle qui écoule 100% de sa production au Canada ; la PME internationale est celle qui exporte de façon organisée, c’est-à-dire qu’elle sollicite ses clients à l’étranger ; la PME ayant une clientèle concentrée est celle dont au moins 60% des ventes sont dues à ses trois principaux clients, alors que celle pour qui ce pourcentage est inférieur à 60% est considérée avoir une clientèle diversifiée. Notons que ces groupes ne sont pas mutuellement exclusifs puisque certaines entreprises opèrent à la fois sur un marché local et ont une clientèle diversifiée ou d’autres exportent et dépendent d’un petit nombre de client. Tableau 1 Variables descriptives de l’échantillon selon le marché et la clientèle privilégiés Valeurs moyennes sauf pour les variables dichotomiques où le % d’entreprises ayant répondu « oui » est présenté Marché local N = 69 Clientèle Marché international diversifiée N =206 N = 101 Clientèle concentrée N = 74 26,9 48,0 7,4 M$ 0,0% 22,9 70,1 8,7 M$ 30,9% 25,4 64,3 8,7 M$ 20,3% 22,0 65,0 8,5 M$ 20,0% 42,7% 43,4% 29,9% 76,0% 1,3% 3,2% 2,4% 2,8% 30,4% 42,4% 37,7% 40,2% 30,5% 21,6% 4,4% 33,3% 26,1% 4,8% 31,9% 24,9% 4,5% 33,2% 22,3% 4,9% 0,93 1,40 1,11 1,36 46,4 63,3% 52,2% 62,5% 19,1 45,8 69,0% 53,0% 55,0% 17,1 46,8 68,3% 49,3% 58,6% 17,4 46,3 74,3% 60,2% 49,5% 18,6 52,0% 96,0% 73,0% 72,0% CARACTÉRISTIQUES DES ENTREPRISES Âge de l’entreprise (années) Taille (nombre d’employés) Taille (ventes) % des exportations % des ventes attribuables aux trois premiers clients (dépendance) Budget total de RD en % des ventes (intensité de la RD) % des ventes attribuables à des produits nouveaux ou modifiés (taux d’innovation) Taux d’endettement bancaire Marge bénéficiaire brute Marge bénéficiaire nette Variation des ventes des 5 dernières années (nombre de fois) CARACTÉRISTIQUES DES PROPRIÉTAIRES-DIRIGEANTS Âge du propriétaire-dirigeant (années) Détenteur d’une scolarité post-secondaire (oui/non) Possède une formation technique (oui/non) Possède une formation en gestion (oui/non) Expérience sectorielle (années) Taux de croissance souhaité dans les deux prochaines années 300 Les deux dimensions choisies pour mesurer l’influence sur la stratégie de croissance, soit l’orientation de marché ou la diversité de la clientèle, semblent jouer un rôle sur l’organisation des entreprises comme le montre le tableau 1. Les PME internationales sont plus grandes et plus jeunes que les PME locales, font plus de RD, ont une plus grande proportion de leur chiffre d’affaires attribuable à de nouveaux produits ou des produits modifiés et ont connu la plus forte progression ce qui semble correspondre à des objectifs de croissance souhaités par le principal dirigeant. La croissance plus modeste réalisée par les firmes locales ne les a pas empêchées de réaliser en moyenne une marge nette comparable à celle des PME internationales. Par ailleurs, on notera que les PME ayant une clientèle concentrée sont plus jeunes et plus innovantes que celles ayant une clientèle diversifiée, et ont plus souvent à leur tête un dirigeant détenant une formation technique. Ces résultats préliminaires supportent ainsi notre hypothèse de recherche, que nous allons maintenant vérifier. B. Définition des variables et des tests statistiques utilisé La croissance des ventes est la mesure de croissance que Delmar et al. (2003) jugent la plus pertinente compte tenu de sa simplicité, du fait qu’elle puisse être utilisée par tous les types d’entreprises et qu’elle soit relativement peu sensible à l’intensité capitalistique et au degré d’intégration des entreprises. Nous mesurerons ainsi la croissance en comparant le chiffre d’affaires des entreprises le plus récent à celui qu’elles avaient atteint il y a cinq ans. Pour ce qui est des autres variables, que nous décrivons dans les prochains paragraphes, elles sont issues du questionnaire complété directement par les dirigeants. 1. Le propriétaire-dirigeant Les variables liées au dirigeant sont, pour la plupart, des informations factuelles qu’il doit fournir (âge, scolarité, domaine de formation, expérience, taux de croissance souhaité d’ici deux ans). Il est également questionné afin de mesurer à quel point il est réactif ou pro-actif en ce qui concerne le développement de son entreprise, à partir de quatre énoncés concernant l’introduction de nouvelles technologies (1 = attend qu’elles soient utilisées par plusieurs entreprises, 4 = introduit continuellement de nouvelles technologies) et l’introduction de nouveaux produits (1 = satisfait de la situation actuelle, 4 = innove continuellement et introduit régulièrement de nouveaux produits/services). Pour mesurer son désir d’autonomie, il indique s’il consentirait, si ce n’est déjà fait, à partager le capital-actions de son entreprise avec un autre actionnaire à plus de 50% (oui/non). Finalement, afin de voir s’il délègue ou non à certaines personnes des responsabilités importantes, il indique, pour les principales fonctions dans l’entreprise, celles pour lesquelles il a nommé un responsable désigné. Cette variable est ensuite transformée en pourcentage (délégation de responsabilité). 2. Les caractéristiques ressources de l’entreprise et La taille de l’entreprise est mesurée par le nombre d’employés et son âge en années. Les pratiques de gestion des ressources humaines sont identifiées à partir de leur présence dans l’entreprise (oui/non), peu importe le nombre de catégories d’employés qu’elles visent. La formation et l’autonomie financière sont mesurées par deux ratios, soit le budget de formation de la dernière année divisé par le nombre d’employés et le ratio des flux monétaires générés par l’exploitation divisé par les ventes. Finalement, la diffusion de l’information est mesurée sur une échelle de 1 (faible) à 4 (élevée) pour plusieurs 301 catégories d’information niveaux stratégiques. de différents 3. Stratégies d’adaptation et de flexibilité Les activités de R-D sont exprimées en pourcentage des ventes alors que la formalisation est mesurée par la présence d’un responsable désigné (oui/non). Les collaborations sont mesurées par une variable binaire (oui/non) pour divers domaines et avec différents partenaires. Finalement, les entreprises indiquent si elles consultent des associations sectorielles ou des conseillers externes pour des activités de veille concernant le développement technologique ou de produits/marchés. 4. Technologies et systèmes de production L’utilisation d’un réseau de communication interne ou externe est mesurée par une variable binaire (oui/non), des alors que la conformité systèmes/équipements est mesurée selon le type de production de l’entreprise (sur commande, en petits lots, de masse ou continue). Une entreprise bien organisée devrait avoir un système ou utiliser des équipements d’une façon particulière tel que prescrit par les experts en génie industriel. C’est cette conformité qui est mesurée ici sur un indice de 1 (faible) à 3 (élevée). Quant à l’investissement dans les systèmes/équipements de production, il est mesuré par le montant global investi au cours de la dernière année en pourcentage des ventes. Notre hypothèse prévoit que les facteurs liés à la croissance des activités diffèrent selon l’orientation de marché ou de clientèle choisie par l’entreprise. Afin de la vérifier, nous avons testé un modèle contenant 37 variables liées à la croissance, tel que présenté dans les pages précédentes, ce qui permettra d’explorer le plus de relations possibles. Le logiciel statistique SAS a été utilisé pour produire les résultats. Dans un premier temps, nous avons testé le modèle de régression sur toutes les observations, afin de confirmer le rôle supposé de certaines variables115. Dans un deuxième temps, nous avons repris l’ensemble des observations en ajoutant trois variables dichotomiques permettant d’associer chaque entreprise à une orientation stratégique en terme de marché et en terme de clientèle, afin de mesurer leur influence. Seule la variable associée à la concentration de la clientèle est significative. Pour des raisons d’espace, ces résultats ne sont pas présentés ici. Finalement, pour vérifier le fait que les PME en croissance affichent des profils différents selon leur orientation de marché/clientèle, nous avons réalisé des régressions séparées sur chacun des groupes identifiés afin de montrer que certaines variables pouvaient être influentes dans un contexte et pas dans un autre. C’est ce que nous analysons dans la prochaine section. VI. Analyse des résultats Une lecture rapide du tableau 2 montre, selon le coefficient de régression (R2 ajusté), les faibles niveaux d’explication du taux de croissance des entreprises à partir du modèle défini. Compte tenu que notre objectif est de montrer que les facteurs influençant la croissance sont différents selon la stratégie poursuivie, nous nous intéressons plutôt à comparer les modèles entre eux. Dans cette perspective, nous pouvons considérer que les résultats supportent notre hypothèse de recherche comme le montrent le tableau 2 où l’on constate que les variables significatives 115 Pour éviter des problèmes de multicolinéarité, nous avons effectué les tests nécessaires, ce qui nous a amené à retirer un certain nombre de variables de l’étude. 302 sont différentes pour chacun des groupes identifiés. Ceci signifie notamment qu’un modèle unique de croissance ne convient pas à toutes les PME. Ainsi, l’analyse qui suit sera plutôt générale afin de faire ressortir les principaux éléments des résultats de cette recherche exploratoire, et aider à orienter les prochains travaux de recherche. Que l’on s’intéresse soit au marché, soit à la clientèle, le rôle du propriétairedirigeant est mis en évidence dans tous les cas, mais à des degrés divers. Ainsi, les jeunes dirigeants sont plus souvent associés à la croissance des entreprises qui ont une clientèle concentrée, alors que le fait qu’ils aient une formation technique n’a aucun impact si la clientèle est diversifiée. Comme il a été dit plus haut, un propriétaire-dirigeant peut décider de démarrer son entreprise avec quelques clients stratégiques avant d’étendre ses activités à une clientèle plus diversifiée. Les dirigeants plutôt réactifs en matière de technologie privilégient un marché local alors que ceux qui sont pro-actifs en matière d’introduction de nouveaux produits/services sur le marché visent des marchés internationaux. Finalement, les dirigeants moins expérimentés contribuent plus à la croissance des entreprises visant un marché international alors qu’ils sont aussi les moins susceptibles de déléguer certains postes de responsabilité. Ce dernier résultat, contredit ceux de Littunen et Tohmo (2003) et renforce le rôle dominant du principal dirigeant sur le développement de son entreprise. Alors que les ressources des entreprises tel que nous les avons définies n’influencent pas le rythme de croissance des PME ayant une clientèle concentrée, elles jouent un rôle très important pour les entreprises locales. La diffusion des informations commerciales concernant la clientèle et le marché au plus grand nombre d’employés possibles favorise la croissance alors que c’est le contraire lorsqu’il s’agit d’information sur la concurrence, le dirigeant retenant ainsi certaines informations qu’il pourrait juger plus stratégiques. Finalement, conformément aux résultats de Davidsson et al. (2002), OCDE (2002) et Julien (2000) on notera que l’âge est lié négativement à la croissance des PME sauf pour les PME locales qui, comme nous l’avons vu au tableau 1, sont plus matures que les autres et ont des objectifs de croissance plus modestes. Les variables mesurant l’adaptation et la flexibilité sont très faiblement liées à la croissance des PME, peu importe leur stratégie. Ces résultats sont étonnants étant donné, notamment, la place qu’occupent les collaborations dans la littérature récente sur les PME innovantes ou les PME en forte croissance que l’on qualifie parfois de gazelles. Il est possible que certaines variables jouent un rôle significatif seulement pour des entreprises qui ont des rythmes élevés de croissance, ce qui n’était pas l’objet de notre étude, celle-ci ayant été mesurée de façon continue. Ceci serait toutefois à vérifier dans les travaux futurs. Finalement, les technologies et systèmes de production peuvent être associés à la croissance des PME mais pas de façon identique. L’utilisation d’un système de communication interne est associée à la croissance des PME locales, alors que l’utilisation d’un réseau de communication externe favorise la croissance des PME oeuvrant dans un environnement plus complexe et incertain (internationale ou à clientèle diversifiée). Par contre, aucune des variables sélectionnées ne contribue à expliquer la croissance des PME dont la clientèle est concentrée, ce qui, encore ici, peut s’expliquer par des besoins plus précis que ce que nous avons mesuré. 303 Conclusions et avenues de recherche La diversité des résultats que l’on trouve dans la littérature concernant les facteurs stimulant la croissance des PME pourrait s’expliquer par l’absence de considération de l’orientation de marché ou de clientèle poursuivie par le dirigeant. Malgré que les coefficients de régression ne soient pas très élevés, les résultats présentés ici suggèrent que des entreprises qui poursuivent différentes stratégies pour assurer leur croissance ne sont pas structurées de la même façon et n’utilisent pas les mêmes pratiques d’affaires. Le partage de l’échantillon en sous-groupes plus homogènes selon leur marché ou leur clientèle n’a pas permis de confirmer le rôle de plusieurs variables qui se sont avérées influentes dans d’autres études. Malgré que notre recherche, qui se veut exploratoire, ait une portée limitée à cause de la taille de l’échantillon, il nous apparaît tout de même important de considérer, dans les prochains travaux sur la croissance, que le marché ou la clientèle desservis influent sur l’organisation et les stratégies de développement des PME. Aussi, il apparaît intéressant d’analyser à quel rythme de croissance l’influence de certaines variables se fait réellement sentir sur l’entreprise. La littérature récente sur le phénomène des gazelles a mis en lumière le rôle des collaborations avec divers partenaires, ce qui n’a pas été aussi important ici. Prendre en compte le type de marché et de clientèle paraît important, mais travailler sur des échantillons ayant des rythmes semblables de croissance pourrait aussi révéler des comportements instructifs. 304 Tableau 2 Explication de la croissance des PME en fonction de leur marché ou de leur clientèle Marché local = 1 ; Marché international = 2 ; Toutes Clientèle diversifiée = 3 ; Clientèle concentrée = 4 (N= 280) Le propriétaire-dirigeant Âge du dirigeant Possède une scolarité post-secondaire Formation technique Formation en gestion Nombre d’années d’expérience sectorielle Délégation de responsabilité Taux de croissance souhaité d’ici deux ans Volonté de partager le capital-actions de l’entreprise Stratégie en terme d’introduction de nouvelles technologies Stratégie en terme d’introduction de nouveaux produits Les ressources de l’entreprise Nombre d’employés Âge de l’entreprise Présence d’une politique d’évaluation du rendement Présence d’une description de tâches Budget de formation par employé Diffusion des résultats de productivité Diffusion d’informations sur l’évolution de la clientèle Diffusion d’informations sur l’évolution de la concurrence Diffusion d’informations sur la situation du marché Diffusion d’informations sur les changements organisationnels Diffusion d’informations sur les changements technologiques Autonomie financière Stratégies d’adaptation et de flexibilité Budget de R-D total en pourcentage des ventes Présence d’un responsable désigné en R-D Collaboration avec un maison d’enseignement pour la R-D Recours à des conseillers externes pour la veille Évaluation de la satisfaction de la clientèle Collaboration avec un donneur d’ordres pour la R-D Collaboration avec un fournisseur pour la production Recours à des associations sectorielles pour la veille Technologies et système de production Utilisation d’un réseau de communication interne Utilisation d’un réseau de communication externe Conformité des systèmes informatiques de conception/fabrication Conformité des équipements de production et de manutention Conformité des systèmes de gestion de la production Conformité des systèmes de maintenance et de contrôle Investissement dans les systèmes et équipements de production R2 Ajusté Pr > F a : 0,10 *p<0,05 **p<0,01 ***p<0,001 1 (N=69) -0,11 -0,03 0,12* 0,00 0,04 -0,17* 0,09 0,02 0,05 0,10a 0,21 0,07 0,39* -0,21 -0,25 0,15 0,29a -0,04 2 3 (N=101) (N= 206) -0,11 -0,14 0,22a -0,01 -0,31* -0,32* 0,05 0,09 -0,12 -0,06 -0,04 -0,09 -0,03 -0,13 0,06 0,00 4 (N=74) -0,29a -0,05 0,37** 0,34* 0,19 -0,09 0,38* -0,09 -0,43* -0,10 0,10 0,27* -0,03 0,09 0,13 0,15 -0,05 -0,16 -0,18** 0,25 -0,06 -0,34* 0,11* 0,34* 0,01 0,01 0,08 0,24 -0,03 0,56** 0,06 -0,75*** 0,07 0,51** 0,00 -0,05 -0,08 -0,27 -0,06 0,06 -0,01 -0,29** 0,00 0,04 0,07 0,06 -0,13 0,20 0,18 -0,00 -0,16 -0,04 -0,03 -0,20** -0,12a 0,16* 0,03 0,19** -0,13 0,03 0,03 0,04 -0,12 -0,08 0,03 -0,15 0,00 0,14 -0,15 -0,14 0,23 -0.00 0,19 -0,04 0,02 -0,06 -0,00 0,14a 0,04 0,01 -0,02 -0,02 0,04 0,11* 0,01 0,02 -0,28 0,13 0,00 -0,02 -0,45** -0,10 -0,14 0,21 0,04 0,09 -0,09 -0,14 0,14 0,14 0,14a 0,14 -0,07 0,00 -0,01 -0,03 0,06 0,02 -0,18 -0,15 0,19 0,11 -0,00 -0,03 0,09 0,24* -0,01 0,17** 0,08 -0,06 -0,02 -0,00 0,11a 0,19 <,0001 0,31* 0,13 0,23 -0,44* -0,05 0,26a 0,25 0,29 0,0517 -0,05 0,24* -0,07 -0,13 0,10 -0,02 0,15 0,17 0,0535 -0,01 0,21** 0,16* 0,00 0,03 -0,06 0,13a 0,20 <,0001 -0,02 0,06 -0,04 -0,12 -0,09 0,00 0,17 0,39 0,0077 305 Références Almus, M. et E.A. Nerlinger (1999). “Growth of new technology-based firms: which factors matter? ”, Small Business Economics, 13, 141-154. Barringer, B.R., F.F. Jones et P.S. Lewis (1998). “A qualitative study of the management practices of rapid-growth firms and hot rapid-growth firms mitigate the managerial capacity problem”, Journal of Developmental Entrepreneurship, 3(2), 97-122. Becchetti, L. et Trovato, G. (2002), “The determinants of growth for small and medium sized firms. The role of the availability of external finance”, Small Business Economics, 19, 291-306. Bramanti, A. (2001). «Les PME à forte croissance en Italie : succès étonnants et Revue désagréables surprises”, Internationale PME, 14(3-4), 91-127. Calvo, J. et M.J. Lorenzo (2001). “Une caractérisation des entreprises manufacturières espagnoles à forte Revue croissance : 1994-1998”, Internationale PME, 14(3-4), 45-66. Chrisman, J.J. et W.E. McMullan (2000). “A preliminary assessment of outsider assistance as a knowledge resource: the longer-term impact of new venture counseling”, Entrepreneurship Theory and Practice, 24(3), 37-53. Churchill, N.C. et V.L. Lewis (1983). “The five stages of small business growth”, Havard Business review, 6(3), 43-54. Davidsson, P., B. Kirchhoff, A. Hatemi-J et H. Gustavsson (2002). “Empirical analysis of business growth factors using Swedish data”, Journal of Small Business Management, 40, 332-349. Delmar, F. (1997). “Measuring growth: methodological considerations and empirical results”, dans Entrepreneurship and SME research: on its way to the next millennium. Ed. par R.Donckels et A. Miettinen. Aldershot, Royaume-Uni: Ashgate, 199-216. Delmar, F. (1999). “Entrepreneurial growth motivation and actual growth–A longitudinal study”, RENT XIII–Research in Entrepreneurship, Londres, 25-26 novembre. Delmar, F., P. Davidsson et W.B. Gartner (2003). “Arriving at the high-growth firm”, Journal of Business Venturing, 18, 189216. De Toni, A. et G. Nassimbeni (2001). “The export propensity of small firms: a comparison of organisational and operational management levers in exporting and non-exporting units”, International Journal of Entrepreneurial Behaviour & Research, 7(4), 132-147. Donckels, R. et J. Lambrechts (1995). “Networks and small business growth: an explanatory model”, Small Business Economics, 7, 273-289. Gibb A. et L. Davies (1990). “In Pursuit of Frameworks for the Development of Growth Models of the Small Business”, International Small Business Journal, 9(1), 15-31. Hambrick, D.C. et P.A. Mason (1984). “Upper-echelons: the organization as a reflection of its top managers”, Academy of Management Review, 9(2), 193-206. Jacob, R. et P. Ouellet (2001). “Globalisation, économie du savoir et compétitivité : une synthèse des tendances et des enjeux stratégiques pour la PME québécoise”, Rapport synthèse présenté à Développement économique Canada. Disponible sur Internet : http://www.decced.gc.ca/Complements/Publications/Obse rvatoire-FR/pme rapp_synth.pdf?action=click&pid=PDF&u id=SiteWeb Janssen, F. (2002). “Les déterminants de le croissance des P.M.E. : analyse théorique 306 et empirique auprès d’un échantillon de P.M.E. belges.” Thèse de doctorat, Université Jean Moulin Lyon 3. Roper, S. (1999). “Modelling small business growth and profitability”, Small Business Economics, 13, 235-252. Julien, P.-A. (2000). “Les PME à forte croissance : les facteurs explicatifs”, IXe Conférence Internationale de Management Stratégique, Montpellier, 24-26 mai. Sharmistha, B.-S. (1999). “The small and medium sized exporters’ problems: an empirical analysis of Canadian manufacturers”, Regional Studies, 33(3), 231-245. Julien, P.-A. (2001), “Les PME à forte croissance et la métaphore du jazz. Comment gérer l’improvisation de façon cohérente”, Revue Internationale PME, 14, 3-4, 129-161. Kolvereid, L. (1992). “Growth aspirations among Norwegian entrepreneurs”, Journal of Business Venturing, 7, 209-222. LeCornu, M.R., R.G.P. McMahon et D.M. Forsaith (1996). “The small enterprise financial objective function: An exploratory study”, Journal of Small Buisness Management, 34, 1-14. Léo, P.Y. (2000). “Les PME et les couples produits-services à l’exportation”, Revue internationale PME, 13(2), 45-73. Littunen H. et T. Tohmo (2003). “The high growth in new metal-based manufacturing and business service firms in Finland”, Small Business Economics, 21(2), 187-200. Mitra, R. et V. Pingali (1999). “Analysis of growth stages in small firms: a case study of automobile ancillaries in India”, Journal of Small Business Management, 37(3), 6275. Mustar, P. (2001). “Diversité et unité des entreprises à forte croissance du secteur Revue manufacturier en France”, Internationale PME, 14(3-4), 66-89. O.C.D.E. (2002). “Les PME à forte croissance et l’emploi”, Disponible sur Internet : http://www.oecd.org/dataoecd/18/29/2493 085.pdf St-Pierre, J. (2003). “Relations entre l’exportation, le développement organisationnel et la situation financière des PME”, Revue internationale PME, 16(2), 61-82. St-Pierre, J. et C. Mathieu (2003). “Innovation in Canadian SMEs : The process, characteristics of firms and their 48th ICSB World environment”, Conference, Belfast, 15-18 juin. St-Pierre, J. et L. Raymond (2003). “L’impact de la dépendance commerciale sur la performance des PME manufacturières”, dans L’entreprise-réseau : concepts et applications; Dix ans d’expérience de la Chaire Bombardier Produits Récréatifs. Ed par P.-A. Julien, L.Raymond, R. Jacob et G. Abdul-Nour. Sainte-Foy: Presses de l’Université du Québec, 333-356. Wijewardena, H. et G.E. Tibbits (1999). “Factors contributing to the growth of small manufacturing firms: data from Australia”, Journal of Small Business Management, 37(2), 38-45. Wiklund, J. (1999). “The sustainability of the entrepreneurial orientationperformance relationship”, Entrepreneurship Theory and Practice, 24(1), 37-48. Wilson, P. et P. Gorb (1983). “How large and small firms can grow together”. Long Range Planning, 16(2), 19-27. Woywode, M. Et V. Lessat (2001). “Les facteurs de succès des entreprises à croissance rapide en Allemagne”, Revue Internationale PME, 14(3-4), 17-43. 307 308